Современную науку захлестнул поток "сырого" ИИ-контента

В мировой научной среде стремительно растет количество некачественных исследований, созданных с помощью языковых моделей искусственного интеллекта. По словам специалистов, этот поток материалов подрывает доверие к отрасли, усложняет рецензирование и затрудняет поиск действительно значимых открытий.

Профессор Калифорнийского университета в Беркли Хани Фарид в комментарии изданию The Guardian назвал ситуацию "бешеным хаосом". Он признается, что уже советует студентам избегать этой сферы из-за тотального перепроизводства публикаций и падения их качества.

Поводом для дискуссии стал его пост в LinkedIn, где он раскритиковал молодого исследователя Кевина Чжу, заявившего о публикации 113 технических работ за год.

Фарид отметил, что даже опытный эксперт физически не способен осмысленно прочитать такое количество высокотехнических статей, не говоря уже о полноценном участии в их создании. По его словам, подобная продуктивность выглядит нереалистично и свидетельствует о неконтролируемом использовании ИИ-инструментов.

Кевин Чжу, выпускник UC Berkeley, основал образовательную программу Algoverse, где студенты платят за 12-недельные курсы и затем подают работы на конференции - многие из них становятся его соавторами. В этом году только конференция NeurIPS приняла 89 работ, где Чжу указан в числе авторов. Организаторы, столкнувшись с рекордным наплывом - более 21 500 заявок, - вынуждены привлекать к рецензированию аспирантов.

По мнению Фарида, именно область искусственного интеллекта оказалась наиболее уязвимой перед наплывом автоматизированного контента.