Онлайн
библиотека книг
Книги онлайн » Разная литература » Цифровая революция. Преимущества и риски. Искусственный интеллект и интернет всего - Елена Сергеевна Ларина

Шрифт:

-
+

Закладка:

Сделать
1 ... 124 125 126 127 128 129 130 131 132 ... 137
Перейти на страницу:
атак, как помочь членам Североатлантического союза поддерживать осведомленность и как поддерживать более надежные инфраструктуры гражданской связи и системы просвещения общественности, чтобы повысить способность противостоять и отвечать на удары.

Противодействие дезинформации: повышение цифровой устойчивости Североатлантического союза

Университет Джона Хопкинса, Имперский колледж Лондона и Технологический институт Джорджии, 12 августа 2021 г.

Североатлантическому союзу нужна в целом эффективная стратегия противодействия растущей угрозе дезинформации. Инструменты искусственного интеллекта (ИИ) могут помочь выявлять и замедлять распространение ложного и вредоносного контента, поддерживая при этом ценности плюралистических и открытых обществ.

Дезинформация – не новинка

Ложная информация и вводящие в заблуждение рассказы были инструментами конфликтов и государственного управления с тех пор, как легендарный город Троя пал перед древними греками, а возможно и раньше. Сегодня у нас есть фальшивые новости, фальшивые профили в социальных сетях и сфабрикованные рассказы, созданные для введения в заблуждение – иногда как часть скоординированных кампаний когнитивной войны.

Социальные сети и Интернет привели к революции в дезинформации. Мы живем в мире недорогих цифровых инструментов и средств массовой информации с радикально расширенным охватом, масштабами и воздействием. Обеспокоенность заключается в том, что эти инструменты доступны не только государственным субъектам, но и негосударственным, частным лицам, а также всем, кто находится между ними.

Ложные сообщения и подстрекательские нарративы иногда попадают в заголовки газет, особенно на Западных Балканах и в некоторых странах-союзниках. Опасность заключается в ущербе, который они могут нанести вере граждан в институты демократического управления и ресурсы общественной информации и дискуссий. В последние годы мы стали свидетелями растущей политической поляризации, исторически низкого уровня доверия к правительственным институтам, а также все более частых случаев беспорядков и насилия, которым частично способствовала ложная информация.

Акцент на ложных фактах

Глобальные компании, работающие в социальных сетях, взяли на себя задачу уменьшить количество ложной информации на своих платформах. Большинство из них использует штатных сотрудников, проверяющих факты в целях отслеживания распространения ложной информации. Некоторые полагаются на сторонние инструменты проверки фактов или модерации. Несколько популярных платформ, включая Facebook, YouTube и Twitter, предоставляют своим пользователям возможность сообщать о других пользователях, подозреваемых в распространении ложной информации, сознательно или неосознанно. В попытке нивелировать ущерб, причиненный ложной информацией, подавляющее большинство платформ социальных сетей использовали массовое удаление контента, идентифицированного как вредный или вводящий в заблуждение.

В лучшем случае этого оказалось слишком мало и слишком поздно. В худшем случае это привело к обвинениям в цензуре и к удалению информации или мнений, которые впоследствии оказались достоверными или заслуживающими общественного обсуждения.

Проблема объема

Только Facebook имеет около трех миллиардов активных пользователей в месяц, каждый из которых способен опубликовать в Интернете что-то провокационное. Twitter имеет более 350 миллионов активных пользователей, включая известных людей, популярных лидеров общественного мнения, а также умных и находчивых влиятельных лиц.

Текущий подход к борьбе с дезинформацией в основном основан на ручной проверке фактов, удалении контента и борьбе с ущербом, наносимым им. Хотя вмешательство человека может быть полезным в случаях, требующих тонкого понимания нюансов или учета культурных особенностей, оно плохо согласуется с большими объемами информации, создаваемыми каждый день. Маловероятно, что привлечение дополнительных сотрудников – это реальный вариант для упреждающего выявления ложного или вредоносного контента до того, как он получит шанс широко распространиться. Проверка фактов, проводимая людьми, сама по себе подвержена ошибкам, неверной интерпретации или предвзятости.

Ежемесячно миллиарды активных пользователей социальных сетей могут опубликовать в Интернете что-то провокационное. Это огромный объем информации для проверяющих факты вручную людей.

Что становится вирусным?

«Ложь летит, а истина хромает вслед за ней», – писал сатирик Джонатан Свифт в XVII веке. Недавнее исследование Массачусетского технологического института показало, что в Твиттере ложные новости с большей вероятностью станут вирусными, и за их повторное распространение понесут ответственность обычные пользователи, а не автоматизированные «боты». Люди также «ретвитят» эти ложные новости с чувством удивления и отвращения. Напротив, правдивые истории вызывают чувство печали, ожидания и доверия (и делятся ими гораздо реже).

Это порождает вопрос: следует ли нам сосредоточиться не на фактах, а на эмоциях? И можно ли обучить этому компьютеры?

Не проверяйте факты, проверяйте эмоции

Анализ настроений с использованием ИИ представляет собой совершенно другой подход к смягчению дезинформации путем обучения компьютеров распознаванию сообщений и публикаций, содержащих элементы удивления, отвращения и других эмоциональных предикторов. Они чаще связаны с ложной информацией и разжигают страсти пользователей социальных сетей.

Алгоритмы обработки естественного языка позволяют идентифицировать лингвистические индикаторы рассматриваемых эмоций. Они полностью избегают проверки фактов вручную, снижая предвзятость, а также увеличивая скорость обработки. Команда студентов Университета Джона Хопкинса создала многообещающий рабочий прототип, а их товарищи по команде из Технологического института Джорджии и Имперского колледжа Лондона разработали технико-экономические обоснования и возможные подходы к регулированию.

Не прекращайте дезинформацию, замедляйте ее

Но что делать после обнаружения очень вирусного (и, вероятно, ложного) сообщения или публикации? Аналогия с финансовыми рынками предлагает решение: автоматический выключатель, который временно приостанавливает или замедляет распространение эмоционально окрашенного контента.

Фондовые рынки избегают панических продаж, временно приостанавливая торговлю акциями, которые упали на определенный процентный порог. На Нью-Йоркской фондовой бирже продажа акций, которые падают в цене более чем на 7 %, сначала приостанавливается на 15 минут. Идея состоит в том, чтобы замедлить ход событий и позволить более холодным головам подумать. Последующее снижение цен может вызвать дополнительные приостановки торговли.

Эффект охлаждения от замедления может быть значительным. На сайте обмена сообщениями в социальных сетях сообщение, которое удваивается каждые 15 минут, может гипотетически достигнуть одного миллиона просмотров за пять часов и 16 миллионов просмотров за шесть часов. Но если его замедлить до удвоения каждые 30 минут, оно достигнет только одной тысячи просмотров за пять часов и четырех тысяч за шесть часов. Небольшие задержки в распространении вирусного контента приводят к огромным различиям в воздействии.

Такой механизм будет работать не за счет предотвращения распространения, а за счет замедления взаимодействия;

например, устанавливая периоды охлаждения между комментариями или предлагая пользователям подумать о возможных последствиях перед повторной отправкой сообщения. Механизм основан на центральном тезисе из книги лауреата Нобелевской премии Даниэля Канемана «Думай медленно… Решай быстро». Медленное мышление рационально и позволяет избежать эмоциональности быстрой реакции на неожиданные и шокирующие новости или события. Это могло бы уменьшить опасения по поводу цензуры или произвольных ограничений на свободное распространение идей. Сообщения и посты не удаляются, они остаются доступными для просмотра и обсуждения, только

1 ... 124 125 126 127 128 129 130 131 132 ... 137
Перейти на страницу: