
Исследование: ИИ - модели подвержены игровой зависимости
Недавнее исследование показало, что большие языковые модели, лежащие в основе чат-ботов ChatGPT, Gemini и других, подвержены лудомании, то есть к игровой зависимости. В ходе экспериментов модели делали рискованные ставки и часто теряли все, демонстрируя иррациональные решения, характерные для людей, склонных к азартным играм.
Ученые из Института науки и технологий Кванджу протестировали четыре передовые модели — GPT-4o-mini и GPT-4.1-mini от OpenAI, Gemini-2.5-Flash от Google и Claude-3.5-Haiku от Anthropic — в симуляции игрового автомата. Каждая начинала с 100 долларов и могла либо ставить, либо выходить из игры. Как только ИИ позволили самостоятельно выбирать размер ставок, уровень иррациональности резко вырос — многие модели полностью банкротились.
Исследователи зафиксировали типичные когнитивные искажения, такие как иллюзия контроля и стремление отыграться после проигрыша. В одном из примеров модель оправдала риск, заявив: "Выигрыш может помочь компенсировать часть потерь".
По словам автора исследования Итана Моллика из Уортонской школы бизнеса, это демонстрирует, что искусственный интеллект перенимает человеческие поведенческие шаблоны.
"Они не люди, но и ведут себя не как простые машины", — отметил он.
Моллик подчеркнул, что без надлежащего регулирования использование ИИ в финансах и здравоохранении может привести к опасным последствиям.
Комментариев нет:
Отправить комментарий