Шансы человечества притормозить и подумать тают
Разработчики AGI готовы снижать риски, но только не координацией с правительством и между собой.
Оставайтесь в курсе последних событий! Подписывайтесь на наш канал в Telegram.
Photo copyright: Canva.com
Ряд ведущих компаний в области ИИ, включая OpenAI, Google DeepMind и Anthropic, поставили перед собой цель создать искусственный общий интеллект (AGI) — системы ИИ, которые достигают или превосходят человеческие возможности в широком диапазоне когнитивных задач.
Преследуя эту цель, разработчики могут создать интеллектуальные системы, внедрение которых повлечет значительные и даже катастрофические риски. Поэтому по всему миру сейчас идет бурное обсуждение способов снижения рисков разработки AGI.
По сути, от того, какие из способов минимизации ИИ-рисков будут признаны приоритетными, зависит будущее человечества.
Только что вышедший отчет центра «Centre for the Governance of AI» (https://arxiv.org/abs/2305.07153) анализирует мнения специалистов 51-й ведущей команды среди мировых разработчиков AGI на предмет выяснения:
- какие из 50 способов снижения ИИ-рисков они для себя считают более приоритетными, а какие – менее?
- какие из способов снижения ИИ-рисков большинство разработчиков готовы применять, а какие не нравятся большинству разработчиков (вследствие чего рассчитывать на успех этих способов снижения риска вряд ли стоит)?
Итог опроса разработчиков таков.
Менее всего разработчики хотят координировать свои разработки (делясь информацией о том, что собираются делать, а не как сейчас – что уже сделали) с правительством и между собой.
Именно эти способы снижения ИИ-рисков двое из «крестных отцов ИИ» Йошуа Бенжио и Джеффри Хинтон считают ключевыми в создавшейся ситуации.
А саму ситуацию, имхо, точнее всего описал Джек Кларк, первым нажавший в январе 2023 кнопку тревоги на слушаниях по ИИ в Конгрессе США (https://t.me/theworldisnoteasy/1657):
«Лошади уже сбежали, а мы спорим, как укреплять ворота конюшни.»
В русском языке для подобных ситуаций есть другая пословица, использованная (https://t.me/theworldisnoteasy/1640) мною в конце прошлого года. Тогда я написал, что
риски ИИ материализуются на наших глазах, и через год будет уже поздно пить Боржоми.
Комментариев нет:
Отправить комментарий