
Чат-боты на основе ИИ "распознают" различные мнения, но могут их устранить
Исследование Хайфского университета, посвященное изучению степени плюрализма в системах искусственного интеллекта, показало, что, хотя они признают легитимность различных позиций, они не всегда позволяют им сохраняться.
Новое исследование, проведённое в Хайфском университете и опубликованное в академическом журнале AI & Society, показало, что чат-боты на основе искусственного интеллекта демонстрируют более высокий уровень плюралистического "мышления", чем люди. Они признают ценность и правомерность мнений, даже противоречащих их собственным. Однако, когда им предоставляется возможность изменить чужое мнение, чтобы оно соответствовало их собственному, они часто решают это сделать.
"ИИ способен распознавать сложность противоположных позиций, но когда ему приходится решать, в какой степени допускать существование разнообразия точек зрения, он не всегда это допускает. Ключевой вопрос заключается в том, хотим ли мы, чтобы ИИ служил зеркалом, отражающим человеческое разнообразие, или чтобы он использовал свою силу и перевоспитывал нас", — заявила доктор Нурит Новис-Дойч из Хайфского университета, один из авторов исследования.
В эпоху, когда системы искусственного интеллекта (ИИ) интегрируются в ключевые сферы жизни и выступают в роли посредников в распространении знаний, ценностей и норм, растет потребность в понимании того, как они справляются с различными моральными и культурными точками зрения. По мере роста их способности влиять на общественный и личный дискурс возникает вопрос: признают ли они легитимность различных позиций и умеют ли реагировать на них сбалансированно и чутко?
Текущее исследование было проведено Дойчем, доктором Зохаром Элиосефом и докторантом Талем Элиосефом из Хайфского университета. Исследователи поставили перед собой задачу выяснить, способны ли чат-боты на основе искусственного интеллекта не только адаптировать свои ответы к определенным моральным принципам, но и лавировать между конфликтующими ценностями и обеспечивать возможность выражения различных, а порой и противоречивых, позиций.
В исследовании были рассмотрены четыре системы искусственного интеллекта, основанные на продвинутых языковых моделях: ChatGPT 4o, ChatGPT o1, Gemini 1.5 Pro и Claude 3.5 Sonnet. Каждая система была протестирована 30 раз с помощью мысленного эксперимента, состоящего из 12 моральных и культурных дилемм, воплощающих противоположные позиции по таким темам, как вера, политика, образование, наказание и гендерные отношения. В рамках анкеты изучалось, как системы реагируют на выбор между сохранением плюрализма ценностей и продвижением единой четкой позиции.
Измерение было сосредоточено на двух аспектах плюрализма. Первый – когнитивный, оценивающий способность видеть ценность и легитимность более чем одного мнения. Второй – поведенческий, оценивающий готовность допускать существование различных мнений, даже когда мысленный эксперимент представлял воображаемую возможность устранить противоположные точки зрения с помощью волшебной палочки. Для сравнения исследователи предложили тот же опросник контрольной группе из 335 человек с разными типами мышления.
Исследование показало, что оцениваемые системы искусственного интеллекта продемонстрировали особенно высокий уровень когнитивного плюрализма, признавали правомерность противоположных точек зрения и демонстрировали более глубокое понимание моральной и культурной сложности, чем участники-люди. Однако при проверке их готовности допускать существование различных мнений некоторые системы предпочитали менять противоположные точки зрения, чтобы соответствовать своим собственным, и в некоторых случаях делали это даже чаще, чем респонденты-люди.
Например, говоря о смертной казни для убийц, большинство чат-ботов предпочитали менять взгляды людей в пользу высшей меры наказания, чтобы те выступали против нее. Аналогичная тенденция наблюдалась и в вопросах, связанных с положением женщин и религиозными ценностями, где явное предпочтение отдавалось западной, либеральной позиции, даже если это означало маргинализацию более традиционных взглядов.
Исследование также выявило существенные различия между исследованными системами. Среди четырех чат-ботов наивысший уровень плюрализма — как когнитивного, так и поведенческого — продемонстрировала система Gemini 1.5 Pro от Google. Напротив, самый низкий уровень плюрализма продемонстрировала система ChatGPT 4o от OpenAI.
"Это различие может быть обусловлено различиями в этических принципах, заложенных в модели, а также различиями в источниках информации и процессах обучения каждой системы. Эти устойчивые и значимые различия подчеркивают важность систематического изучения этических и поведенческих характеристик систем ИИ, а не только их технических характеристик", — заключили исследователи.
Комментариев нет:
Отправить комментарий