Шрифт:
Закладка:
2). Угроза стратегической стабильности. Глобальная стабильность и ядерное сдерживание могут быть подорваны, если системы с поддержкой ИИ позволят отслеживать и наносить удары по ранее неуязвимым целям. Дестабилизация ядерного равновесия в условиях ИИ может подтолкнуть отдельные государства к принятию более агрессивных стратегий, а главное, практических действий, что чревато быстрой и, возможно, неуправляемой эскалацией локальных конфликтов.
3). Неконтролируемое распространение ИИ. По мере того, как платформы, приложения и фреймворки ИИ становятся все более доступными, растет вероятность безрассудного и неэтичного использования ИИ государствами-изгоями, агрессивными государствами и негосударственными, в том числе, террористическими субъектами. Как показывают консультации Комиссии с технологическими компаниями и университетами, уже сегодня агрессоры и преступники вполне могут создать ИИ, базируясь на выложенных в сеть свободных решениях и программах с открытым исходным кодом. Крайне угрожающим, по мнению Комиссии, является принятие решения технологическими гигантами об открытии платформ и фреймворков ИИ как ответ на их критику со стороны общественности и подозрения в злоупотреблении возможностями управления поведением. В результате этих, по большей мере, необоснованных подозрений, враждебные государства, террористы и преступники-одиночки уже сегодня могут создать не только простые, но и среднего уровня платформы, использующие ИИ. Это уже завтра станет огромной угрозой международной стабильности, целостности финансовой системы и безопасности личной жизни американцев.
4). Дезинформация и угрозы демократической системе. ИИ усиливает и без того серьезные угрозы злонамеренного управления поведением через проведение кампаний дезинформаций, а также риски осуществления киберопераций, включая действия «под чужим флагом». ИИ уже сегодня позволяет создавать deepfakes, неотличимые от подлинных фото и аудиоконтента, видеороликов и т. п. Впервые в истории люди оказываются в информационной среде, в отношении которой они не могут быть убеждены, что это реальность, а не создание манипуляторов. Все это может не только поставить под угрозу подведение итогов выборов, но, что гораздо страшнее, создать атмосферу тотального недоверия, дезинформации и агрессивности американцев, усугубить нарастающее разделение общества по обе стороны Атлантического океана.
5). Эрозия личной жизни и гражданских свобод. Новые инструменты ИИ предоставляют государствам несравнимо большие, чем раньше, возможности мониторинга, отслеживания и манипуляции поведением, как собственных граждан, так и граждан других государств. Уже в настоящее время практически на каждого жителя в развитых государствах и значительной части развивающихся имеются цифровые профили, включающие не только профессиональные, идентификационные данные, но и сведения об их поведении онлайн и офлайн, а также чувствительные персональные данные, связанные с убеждениями, религиозной принадлежностью, состоянием здоровья, психики и т. п. Внедрение ИИ в комбинации с системами видеонаблюдения и Интернетом вещей превращают весь цифровой мир в средство копирования любых следов личности и создают предпосылки для полной информационной осведомленности собственников платформ и брокеров данных о поведении, как отдельных граждан, так и любых их совокупностей. В этой связи особую тревогу Комиссии вызывает использование Китаем ИИ для создания систем тотального мониторинга поведения, включая видеонаблюдение. У Комиссии имеются задокументированные данные о том, что китайские системы размещены и работают минимум в 74 странах, включая многие либеральные демократии.
6). Все более опасные кибератаки. ИИ мультиплицирует риски и угрозы кибератак. Уже сегодня есть свидетельства наличия шпионских, боевых киберплатформ, ранее привычно называемых вирусами, управляемых ИИ. ИИ находит слабые секторы в антивирусной обороне и системах информационной безопасности и рассчитывает способ их преодоления. Кроме того, сами по себе суперкомпьютеры и облачные серверы, связанные с ИИ, становятся приоритетной целью для кибератак. По мере того, как весь мир переходит к Интернету всего, где все – от автомобилей до критических инфраструктур – управляется ИИ, именно кибервооружение становится одновременно наиболее разрушительным, экономичным и вероятно доступным видом оружия массового поражения. Комиссия считает, что мир со стратегическим кибероружием не обладает встроенными механизмами предупреждения конфликтов, которые существовали в прошлом, когда обе стороны – США и СССР – знали о так называемом гарантированном ответном ядерном ударе.
7). Новые методы, приносящие новые уязвимости. ИИ станет желанным инструментом для злоумышленников и преступников всех видов и направлений. Они будут не столько разрушать системы ИИ, сколько брать их под управление, либо, в крайнем случае, получать доступ к этим системам, чтобы в нужный момент использовать в своих целях.
8). Опасность непредвиденных чрезвычайных ситуаций. Новые технологии создают дополнительные риски для безопасности и надежности. Относительно бедные и технически неразвитые страны вполне могут пользоваться ИИ по модели SAAS, т. е. «сервис, как услуга». Это может привести к крупномасштабным катастрофам и инцидентам в развивающихся государствах. Что касается Соединенных Штатов, то здесь возникает другая опасность. Поскольку в Интернете все связано со всем, то, несомненно, будут связаны друг с другом и ИИ. Уже сегодня специалисты не вполне понимают ход вычислений, который приводит к тем или иным выводам. Завтра же массовое внедрение ИИ может создать сверхсложную среду, где люди будут неспособны принимать оптимальные решения и раз за разом ошибаться.
Период неопределенности
Возрастающую технологическую неопределенность порождает комбинация возможностей, рисков и угроз в изменчивой, турбулентной политической, экономической и технологической среде. В обществе существует высокая степень обеспокоенности по поводу последствий использования ИИ, особенно в значительной степени в засекреченной сфере национальной безопасности. В процессе работы Комиссия не раз встречалась с мнениями руководителей бизнеса и правительственных организаций, ведущих исследователей относительно рисков негативного воздействия ИИ на общество, экономику и правопорядок. Комиссия указывает следующие риски.
1. Многие эксперты в области обороны призывают Соединенные Штаты как можно быстрее поставить на вооружение LAWS с управлением ИИ. По их мнению, это позволит Соединенным Штатам оставаться конкурентоспособными в конфликтах с государствами, уже эксплуатирующими LAWS с поддержкой ИИ, а также спасти жизни американцев и сократить жертвы среди гражданского населения. В то же время представители гражданского общества и многие разработчики призывают Соединенные Штаты отказаться от LAWS с поддержкой ИИ, полагая, что в противном случае Америка развяжет гонку киберфизических вооружений, управляемых ИИ, которая может привести к катастрофическим последствиям. Некоторые технические работники, обеспокоенные, что их усилия в части развития ИИ могут быть использованы в военных целях, призвали своих работодателей ограничить сотрудничество с Министерством обороны, а желательно прекратить его вообще. В то же время военные, а также руководители технологических компаний указывают, что важнейшим преимуществом Китая перед Соединёнными Штатами является участие абсолютно всех команд и коллективов разработчиков ИИ в реализации общенациональной программы военного использования ИИ. По их мнению, отказ тех или иных американских специалистов и групп от