четверг, 25 апреля 2024 г.

Новая опасность: искусственный интеллект определяет по фото политическую ориентацию. Исследователи встревожены

 

Новая опасность: искусственный интеллект определяет по фото политическую ориентацию. Исследователи встревожены

Ученые выяснили, что искусственный интеллект может успешно предсказывать политическую ориентацию человека на основе изображений лиц.

Оставайтесь в курсе последних событий! Подписывайтесь на наш канал в Telegram.

Photo by Ben Sweet on Unsplash

Исследователи предупреждают, что технологии распознавания лиц «более опасны, чем считалось ранее» и создают «серьезные проблемы для конфиденциальности».

В недавнем исследовании, опубликованном в журнале «Американский психолог», говорится, что способность алгоритма точно угадывать политические взгляды человека «находится на одном уровне с тем, насколько хорошо собеседования предсказывают успех на работе или насколько хорошо алкоголь стимулирует агрессивность».

Fox News Digital рассказывает об исследовании, в ходе которого 591 участник заполнил анкету о политической ориентации.  После чего ИИ по фото зафиксировал то, что исследователи назвали числовым «отпечатком» их лиц и  предсказал их политические взгляды. Затем данные сравнили с базой данных ответов участников.

«Я думаю, что люди не осознают, как много они раскрывают, просто выкладывая картинку», — сказал ведущий исследователь  Михал Косински, доцент кафедры организационного поведения в Высшей школе бизнеса Стэнфордского университета.

«Мы знаем, что сексуальная ориентация, политическая ориентация, религиозные взгляды людей должны быть защищены. Раньше было по-другому. Раньше вы могли войти в чей-либо аккаунт в Facebook и увидеть, например, его политические взгляды, лайки, страницы, на которые он подписан. Но много лет назад Facebook закрыл это, потому что политикам, Facebook и журналистам было ясно, что это просто неприемлемо», — продолжил он.

«Но вы все равно можете зайти на Facebook и увидеть чью-либо фотографию. Этот человек никогда не встречал вас, он никогда не позволял вам смотреть на фотографии, он никогда не делился своей политической ориентацией… и, тем не менее, Facebook показывает вам его фотографию. Наше исследование доказывает, что теперь это, по сути, в некоторой степени эквивалентно простому сообщению, какова его политическая ориентация», — добавил Косински.

Авторы исследования заявили, что изображения участников были собраны строго контролируемым образом.

Участницы были одеты в одинаковые черные футболки. Они сняли все украшения…  Для удаления косметики использовались салфетки для лица до тех пор, пока на свежей салфетке не было обнаружено никаких остатков.  Волосы были вымыты и убраны назад с использованием резинки для волос, шпильки и повязки.

Алгоритм распознавания лиц VGGFace2 затем исследовал изображения, чтобы определить «дескрипторы лица или числовой вектор, который одновременно уникален для этого человека и совместим с различными изображениями», говорится в сообщении.

«Дескрипторы, извлеченные из данного изображения, сравниваются с теми, которые хранятся в базе данных. Если они достаточно похожи, лица считаются совпадающими. Здесь мы используем линейную регрессию для сопоставления дескрипторов лиц по шкале политической ориентации, а затем используем это сопоставление чтобы предсказать политическую ориентацию лица», — говорится в исследовании.

Авторы написали, что их результаты «подчеркивают настоятельную необходимость для ученых, общественности и политиков признать и устранить потенциальные риски, связанные с технологией распознавания лиц для личной жизни».

«Возможно, самое главное то, что наши результаты показывают, что широко распространенные технологии биометрического наблюдения представляют большую угрозу, чем считалось ранее», — предупреждают в исследовании.

Косински рассказал Fox News Digital, что «алгоритмы можно очень легко применить к миллионам людей, очень быстро и дешево» и что исследование является «скорее предостережением» о технологии, «которая находится в вашем телефоне и очень широко используется повсюду».

Авторы пришли к выводу, что «даже грубые оценки черт характера людей могут значительно повысить эффективность массовых онлайн-кампаний убеждения» и что «ученые, общественность и политики должны обратить на это внимание и рассмотреть возможность ужесточения политики, регулирующей запись и обработку изображений лиц».

Источник

Комментариев нет:

Отправить комментарий