Вход

Двигатель

"Информационный апокалипсис неизбежен"

22 февраля 2018 в 21:57 | Емеля |Юлия Красильникова | 2445 | 0

Специалист по соцсетям Авив Овадья еще в 2016 году предупреждал ИТ-компании о проблеме фальшивых новостей и наступлении эпохи постправды. Прогнозы эксперта сбылись, и теперь он предрекает еще большую угрозу — тотальный информационный апокалипсис. Технологии машинного обучения позволят окончательно размыть границы между фактами и вымыслом. Со временем у людей выработается апатия к реальности и полная неспособность отличить правду от вымысла.

В середине 2016 года выпускник МТИ, специалист по компьютерным технологиям и по совместительству разработчик эмодзи, изображающего брокколи, Авив Овадья выступал на технологической конференции в Сан-Франциско. США готовились к президентским выборам, и уже тогда эксперт обратил внимание на распространение ложной информации. Овадья отметил, что Facebook, Twitter и Google ставят в приоритет клики, лайки, репосты, рекламные переходы и, конечно, деньги. Качество информации при этом стоит на последнем месте. Заявления о надвигающемся информационном апокалипсисе остались незамеченными.

Теперь Овадья прогнозирует тотальный коллапс института правды и разрушение самого понятия «факта». Главной причиной инфокалипсиса станет распространение дешевых и доступных инструментов искажения реальности. «В этих условиях любой человек может сымитировать какое-либо событие, независимо от того, происходило ли оно на самом деле», — пояснил суть проблемы Овадья в интервью BuzzFeed News.
Первые примеры технологий, способных правдоподобно искажать реальность, уже известны. Генеративные нейросети уже формируют новый мультимедийный мир, в котором ничему нельзя доверять. С их помощью можно создавать видеоролики, на которых люди делают то, чего не делали, и говорят то, что никогда не говорили. Сам создатель технологии Ян Гудфеллоу признает связанные с ней риски и прогнозирует, что через 10 лет YouTube заполнят фейковые видеоролики, которые трудно будет отличить от реальных.

Алгоритм Nvidia недавно научился генерировать пугающе убедительные видеоролики. В сети уже доступно программное обеспечение, которое позволяет накладывать лица знаменитостей или любых других людей на видеоряд в порнофильмах. В то же время ученые со всего мира работают над системами имитации речи, мимики и жестов. Сегодня ничто не мешает создать видео, на котором известный политический лидер вполне убедительно говорит то, чего он никогда не произносил. При этом его голос и мимика почти не отличаются от реальных.

Такие разработки могут привести к дипломатическим манипуляциям. Достаточно сделать ролик, на котором Дональд Трамп или Ким Чен Ын объявляют ядерную войну — и последствия будут непредсказуемыми.

Другая форма манипуляции позволяет имитировать демократию, а точнее народное волеизъявление. Вот только роль народа будут выполнять боты. Они будут голосовать на онлайн-референдумах, присылать письма в администрацию и участвовать в масштабных государственных опросах. Этим летом боты атаковали сайт Федеральной комиссии по связи США — более миллиона виртуальных «граждан» оставили комментарии с просьбой отменить сетевой нейтралитет.

Овадья допускает, что со временем на смену ботами придут и реальные люди. Их аккаунты в соцсетях, а с ними и активность владельцев аккаунтов можно будет купить на черном рынке. «Фабрики троллей» существуют и сейчас, но в будущем они получат более широкое распространение и вырастут в масштабах.

Другой сценарий, о котором предупреждает эксперт, связан с «точечным фишингом». Если раньше спамеры и кибермошенники рассылали всем одинаковые письма и сообщения в надежде вызвать отклик, то теперь хакеры смогут подобрать ключ к каждому пользователю. Например, сымитировать речь друга и попросить о деньгах с максимальной убедительностью, используя характерный сленг.

«Людям проще будет в принципе прекратить проверять почту», — считает Овадья. В результате у пользователей интернета выработается «апатия к реальности» — признание собственной неспособности отличить факт от вымысла. «Люди перестанут обращать внимание на новости, а определенный уровень информированности, необходимый для демократии, окажется под вопросом».

Решения для проблемы Овадья пока не видит. «Угроза реальна, но самое плохое, что я пока не вижу способа с ней бороться. Чтобы остановить [инфокалипсис], понадобится специальная надстройка, сопоставимая по масштабам с интернетом».

Источник

12345  5 / 18 гол.
Чтобы оставить комментарий войдите или зарегистрируйтесь

Нет комментариев

 

СССР

Достойное

  • неделя
  • месяц
  • год
  • век

Наша команда

Двигатель

Комментарии

Дмитрий
вчера в 11:21 1
Емеля
5 марта в 10:17 3
Валерий
4 марта в 13:31 8
Дмитрий
3 марта в 16:07 2
Валерий
23 февраля в 18:24 2
СБ СССР
20 февраля в 12:40 1
Дмитрий
19 февраля в 13:06 1
Валерий
17 февраля в 14:05 6
Дмитрий
17 февраля в 09:29 1
СБ СССР
10 февраля в 20:39 14
Vistal
10 февраля в 08:58 4
Валерий
5 февраля в 09:26 2
СБ СССР
29 января в 15:28 2
Алексей Михайлович
26 января в 13:19 6
Дмитрий
21 января в 16:27 1
Дмитрий
16 января в 16:54 22
Дмитрий
13 января в 12:28 3
Дмитрий
10 января в 14:33 1
Дмитрий
10 января в 14:07 1

Лента

Пушкин - это наше всё!
Статья| 3 марта в 21:39
Опасная игра
Статья| 3 марта в 16:51
Сталин - не марксист
Видео| 3 марта в 11:58
Трамп, Побиск и СССР
Статья| 1 марта в 14:32
Невообразимое? На Руси обычное!
Статья| 23 февраля в 11:30
Управление в человечестве
Статья| 20 февраля в 08:58
Радость в смертельном бою
Статья| 18 февраля в 10:15
Бросят ли нас НАШИ мёртвые?
Статья| 10 февраля в 18:49
Кому война - маманя ?
Видео| 7 февраля в 10:45
Культурный код и шелудивый кот
Статья| 6 февраля в 10:16

Двигатель

Опрос

Остановит ли Трамп войну на Украине?

Информация

На банных процедурах
Сейчас на сайте

 


© 2010-2025 'Емеля'    © Первая концептуальная сеть 'Планета-КОБ'. При перепечатке материалов сайта активная ссылка на planet-kob.ru обязательна
Текущий момент с позиции Концепции общественной безопасности (КОБ) и Достаточно общей теории управления (ДОТУ). Книги и аналитика Внутреннего предиктора (ВП СССР). Лекции и интервью: В.М.Зазнобин, В.А.Ефимов, М.В.Величко.