четверг, 25 мая 2023 г.

Шансы человечества притормозить и подумать тают

 

Шансы человечества притормозить и подумать тают

Разработчики AGI готовы снижать риски, но только не координацией с правительством и между собой.

Оставайтесь в курсе последних событий! Подписывайтесь на наш канал в Telegram.

Photo copyright: Canva.com

Ряд ведущих компаний в области ИИ, включая OpenAI, Google DeepMind и Anthropic, поставили перед собой цель создать искусственный общий интеллект (AGI) — системы ИИ, которые достигают или превосходят человеческие возможности в широком диапазоне когнитивных задач. 

Преследуя эту цель, разработчики могут создать интеллектуальные системы, внедрение которых повлечет значительные и даже катастрофические риски. Поэтому по всему миру сейчас идет бурное обсуждение способов снижения рисков разработки AGI.

По мнению экспертов, существует около 50 способов снижения таких рисков. Понятно, что применить все 50 в мировом масштабе не реально. Нужно выбрать несколько главных способов минимизации рисков и сфокусироваться на них.

По сути, от того, какие из способов минимизации ИИ-рисков будут признаны приоритетными, зависит будущее человечества. 

Только что вышедший отчет центра «Centre for the Governance of AI» (https://arxiv.org/abs/2305.07153) анализирует мнения специалистов 51-й ведущей команды среди мировых разработчиков AGI на предмет выяснения:

  • какие из 50 способов снижения ИИ-рисков они для себя считают более приоритетными, а какие – менее?
  • какие из способов снижения ИИ-рисков большинство разработчиков готовы применять, а какие не нравятся большинству разработчиков (вследствие чего рассчитывать на успех этих способов снижения риска вряд ли стоит)?

Итог опроса разработчиков таков.

Менее всего разработчики хотят координировать свои разработки (делясь информацией о том, что собираются делать, а не как сейчас – что уже сделали) с правительством и между собой.

Именно эти способы снижения ИИ-рисков двое из «крестных отцов ИИ» Йошуа Бенжио и Джеффри Хинтон считают ключевыми в создавшейся ситуации.

А саму ситуацию, имхо, точнее всего описал Джек Кларк, первым нажавший в январе 2023 кнопку тревоги на слушаниях по ИИ в Конгрессе США (https://t.me/theworldisnoteasy/1657):

«Лошади уже сбежали, а мы спорим, как укреплять ворота конюшни.»

В русском языке для подобных ситуаций есть другая пословица, использованная (https://t.me/theworldisnoteasy/1640) мною в конце прошлого года. Тогда я написал, что 

риски ИИ материализуются на наших глазах, и через год будет уже поздно пить Боржоми.

“Малоизвестное интересное”

Комментариев нет:

Отправить комментарий