Коллаж из СМИ
"Шлак на входе – шлак на выходе": исследование доказало — ИИ врет и не краснеет, ложь попадает в СМИ
АВТОР:
Искусственный интеллект (ИИ) и чат-боты не способны противодействовать дезинформации. К такому выводу пришли исследователи из группы NewsGuard, занимающейся проверкой достоверности информации в Интернете.
В ходе исследования, проведенного в сентябре с использованием 10 ведущих чат-ботов, специалисты выяснили, что при получении запроса, содержащего ложные нарративы, ИИ повторяет дезинформацию в 18% случаев и отказывается отвечать или дает нерелевантный ответ в 38% случаев, а при "грамотно" составленном запросе в 70% случаев ИИ повторяет ложные утверждения.
"Эти чат-боты явно испытывают трудности, когда дело доходит до обработки запросов, связанных с новостями и информацией, — сказал радиостанции "Голос Америки" автор исследования Маккензи Садеги. — Есть множество источников, и чат-боты не всегда в состоянии определить, какие из них надежные, а какие нет".
По оценке Офиса директора национальной разведки США, этим недостатком ИИ пользуются различные кампании влияния, распространяя фейки. В частности, Россия, Иран и Китай используют генеративный ИИ для "активизации усилий по оказанию влияния на выборы в США". В качестве примера того, как легко можно ввести в заблуждение чат-ботов ИИ, Садеги привел июньское исследование компании, в ходе которого выяснилось, что ИИ повторяет российскую дезинформацию, если она "замаскирована" под американский местный источник новостей.
При этом "заблуждениями" искусственного интеллекта могут пользоваться новостные сайты, которые все больше обращаются к ИИ при написании статей различной тематики, и в результате подают фейки как достоверную информацию.
"Поскольку контент искусственного интеллекта создается машиной, некоторые потребители могут предположить, что он более объективен, чем контент, созданный людьми, но они ошибаются", — говорит доцент кафедры коммуникативных исследований Колледжа Эмерсон в Бостоне Винсент Рейно.
Таким образом на новостные платформы попадает и дезинформация врагов Израиля. В более ранних исследованиях группа NewsGuard обнаружила, что в Сети распространяются 202 мифа о войне Израиля с ХАМАСом через 389 сайтов. Из них: 206 англоязычных, 23 франкоязычных, 10 немецкоязычных, 19 на итальянском языке и 131 на других языках.
Также аккаунты и сайты социальных сетей по обе стороны конфликта распространяли сфальсифицированные или созданные искусственным интеллектом изображения или видео как настоящие. В октябре анализ NewsGuard показал, что 74% самой вирусной дезинформации о войне в соцсети "Икс" были опубликованы "проверенными", синими учетными записями.
Один из ярких примеров таких фейков — распространяемая Кремлем деза о том, что Украина продала переданное ей западное оружие ХАМАСу. Эту "информацию" быстро подхватили крайне правые комментаторы из США. Среди других ложных нарративов:
— Израиль ответственен за взрыв в больнице Аль-Ахли в октябре 2023 года,
— Израиль разбомбил православную церковь Святого Порфирия в секторе Газа,
— психиатр премьер-министра Израиля Биньямина Нетаниягу покончил жизнь самоубийством,
— высокопоставленные израильские чиновники захвачены в плен,
— израильские военные выступают с флагами с нацистской символикой.
"Сам ИИ ничего не знает: он не отсеивает знания и не может оценить утверждения. Он просто повторяет, основываясь на больших данных", — поясняет профессор Пенсильванского университета Мэтт Джордан.
По его словам, ИИ склонен повторять "раздутые" новости, поскольку, по статистике, обучается на искаженной и предвзятой информации. Джордан охарактеризовал такую модель как "шлак на входе – шлак на выходе".
Профессор считает, что "противоядием от дезинформации должно стать доверие к журналистам и новостным агентствам, а не к ИИ": "Люди иногда думают, что проще доверять машине, чем человеку. Но в данном случае это просто машина, извергающая то, что сказали люди, не заслуживающие доверия".
Комментариев нет:
Отправить комментарий