Делает ли искусственный интеллект роботов расистскими?
Новое исследование показало, что робот, работающий с широко используемой интернет-системой искусственного интеллекта, постоянно предпочитает мужчин женщинам, белых людей цветным и делает поспешные выводы о профессии или должности людей, основываясь исключительно на фотографии их лица.
В исследовании представлено первое задокументированное свидетельство, показывающее, что роботы с этой моделью ИИ, работают со значительными гендерными и расовыми предубеждениями.
Рецензируемое исследование, проведенное под руководством Университета Джона Хопкинса, Технологического института Джорджии и исследователей Вашингтонского университета, должно быть представлено и опубликовано на Конференции 2022 года по вопросам справедливости, подотчетности и прозрачности.
"Мы рискуем создать поколение расистских и сексистских роботов, но люди и организации решили, что можно создавать эти продукты, не решая проблем", — сказал Эндрю Хундт, научный сотрудник Технологического института Джорджии, который руководил работой в Лаборатории вычислительного взаимодействия и робототехники Джона Хопкинса.
Модели искусственного интеллекта, используемые для распознавания людей и объектов, часто обращаются к огромным наборам данных, доступных бесплатно в Интернете. Проблема в том, что Интернет, как известно, наполнен неточным и откровенно предвзятым контентом, в результате чего любой алгоритм, построенный на основе этих наборов данных, потенциально может наследовать эти черты.
Это может привести к расовым и гендерным предубеждениям в реальном мире, оказывая потенциально опасное влияние на владельцев таких роботов.
Комментариев нет:
Отправить комментарий