Специалист по соцсетям Авив Овадья еще в 2016 году предупреждал ИТ-компании о проблеме фальшивых новостей и наступлении эпохи постправды. Прогнозы эксперта сбылись, и теперь он предрекает еще большую угрозу — тотальный информационный апокалипсис. Технологии машинного обучения позволят окончательно размыть границы между фактами и вымыслом. Со временем у людей выработается апатия к реальности и полная неспособность отличить правду от вымысла.
В середине 2016 года выпускник МТИ, специалист по компьютерным технологиям и по совместительству разработчик эмодзи, изображающего брокколи, Авив Овадья выступал на технологической конференции в Сан-Франциско. США готовились к президентским выборам, и уже тогда эксперт обратил внимание на распространение ложной информации. Овадья отметил, что Facebook, Twitter и Google ставят в приоритет клики, лайки, репосты, рекламные переходы и, конечно, деньги. Качество информации при этом стоит на последнем месте. Заявления о надвигающемся информационном апокалипсисе остались незамеченными.
Теперь Овадья прогнозирует тотальный коллапс института правды и разрушение самого понятия «факта». Главной причиной инфокалипсиса станет распространение дешевых и доступных инструментов искажения реальности. «В этих условиях любой человек может сымитировать какое-либо событие, независимо от того, происходило ли оно на самом деле», — пояснил суть проблемы Овадья в интервью BuzzFeed News.
Первые примеры технологий, способных правдоподобно искажать реальность, уже известны. Генеративные нейросети уже формируют новый мультимедийный мир, в котором ничему нельзя доверять. С их помощью можно создавать видеоролики, на которых люди делают то, чего не делали, и говорят то, что никогда не говорили. Сам создатель технологии Ян Гудфеллоу признает связанные с ней риски и прогнозирует, что через 10 лет YouTube заполнят фейковые видеоролики, которые трудно будет отличить от реальных.
Алгоритм Nvidia недавно научился генерировать пугающе убедительные видеоролики. В сети уже доступно программное обеспечение, которое позволяет накладывать лица знаменитостей или любых других людей на видеоряд в порнофильмах. В то же время ученые со всего мира работают над системами имитации речи, мимики и жестов. Сегодня ничто не мешает создать видео, на котором известный политический лидер вполне убедительно говорит то, чего он никогда не произносил. При этом его голос и мимика почти не отличаются от реальных.
Такие разработки могут привести к дипломатическим манипуляциям. Достаточно сделать ролик, на котором Дональд Трамп или Ким Чен Ын объявляют ядерную войну — и последствия будут непредсказуемыми.
Другая форма манипуляции позволяет имитировать демократию, а точнее народное волеизъявление. Вот только роль народа будут выполнять боты. Они будут голосовать на онлайн-референдумах, присылать письма в администрацию и участвовать в масштабных государственных опросах. Этим летом боты атаковали сайт Федеральной комиссии по связи США — более миллиона виртуальных «граждан» оставили комментарии с просьбой отменить сетевой нейтралитет.
Овадья допускает, что со временем на смену ботами придут и реальные люди. Их аккаунты в соцсетях, а с ними и активность владельцев аккаунтов можно будет купить на черном рынке. «Фабрики троллей» существуют и сейчас, но в будущем они получат более широкое распространение и вырастут в масштабах.
Другой сценарий, о котором предупреждает эксперт, связан с «точечным фишингом». Если раньше спамеры и кибермошенники рассылали всем одинаковые письма и сообщения в надежде вызвать отклик, то теперь хакеры смогут подобрать ключ к каждому пользователю. Например, сымитировать речь друга и попросить о деньгах с максимальной убедительностью, используя характерный сленг.
«Людям проще будет в принципе прекратить проверять почту», — считает Овадья. В результате у пользователей интернета выработается «апатия к реальности» — признание собственной неспособности отличить факт от вымысла. «Люди перестанут обращать внимание на новости, а определенный уровень информированности, необходимый для демократии, окажется под вопросом».
Решения для проблемы Овадья пока не видит. «Угроза реальна, но самое плохое, что я пока не вижу способа с ней бороться. Чтобы остановить [инфокалипсис], понадобится специальная надстройка, сопоставимая по масштабам с интернетом»
Комментариев нет:
Отправить комментарий