Онлайн
библиотека книг
Книги онлайн » Разная литература » Цифровая революция. Преимущества и риски. Искусственный интеллект и интернет всего - Елена Сергеевна Ларина

Шрифт:

-
+

Закладка:

Сделать
1 ... 127 128 129 130 131 132 133 134 135 ... 137
Перейти на страницу:
национальной власти, которые страны могут использовать по своему выбору. Поскольку Конгресс Соединенных Штатов изучает кибератаки и ответы на них, полезно рассмотреть двойственность того, что киберпространство является одновременно областью и возможностью. Например, кибератаки могут происходить в киберпространстве (атаки с целью кражи данных и личных данных) и могут происходить против самого киберпространства (атаки на поставщиков облачных услуг). В обоих случаях используются и повреждаются информационные и коммуникационные технологии (ИКТ). Именно этот вред государства могут попытаться сократить с помощью норм.

Разработка норм в контексте сдерживания кибератак еще больше осложняется тем фактом, что кибероперации могут происходить во всем спектре конфликтов, начиная от локальных ненасильственных инцидентов и заканчивая гораздо более серьезными, с потенциально летальными последствиями.

Использование военного потенциала в ответ на преступную деятельность не является нормативным. Однако неоднократные кибератаки заставили политиков исследовать новые способы использования возможностей, поскольку злоумышленники активизировали атаки, и последствия этих атак стали более серьезными. Одним из таких случаев является борьба с программами-вымогателями, приводящих к разрушению инфраструктуры США, которое может угрожать гражданскому населению (например, атака программ-вымогателей на больницу). В ответ лица, принимающие решения, задействовали военные возможности, чтобы узнавать о бандах, занимающихся программами-вымогателями, и действовать против них.

Количество кибератак может увеличиться, поскольку страны рассматривают киберпространство как новую операционную область без установленных правил взаимодействия. В такой слабой среде возможности проверить технику, тактику, и процедуры многочисленны как для атак, так и для ответов. Национальный совет по разведке оценил перспективы международных норм и классифицировал их:

– Обмен информацией и общение;

– Меры по обеспечению возможности проведения инспекций и наблюдателей;

– «Правила дорожного движения» для управления военными операциями;

– Ограничения на военную готовность и операции.

Меры укрепления доверия связаны с соглашениями о контроле над вооружениями, но отличаются от них. Контроль над вооружениями включает в себя соглашения об отказе от исследований, разработки, производства, развертывания или использования определенного оружия, особенностей оружия или применения оружия. Набор возможных действий, которые могут предпринять государства, широк, но основное внимание следует уделить потенциальным преимуществам и недостаткам конкретных мер по укреплению доверия, связанных с ИИ.

Продвижение норм

В 2019 году Совет по оборонным инновациям США предложил Министерству обороны США ряд принципов ИИ, которые Министерство обороны приняло в начале 2020 года. Хотя эти принципы, несомненно, имеют внутреннюю аудиторию в оборонном сообществе США и технологическом секторе, они также служат в качестве примера государственного обнародования норм о надлежащем использовании ИИ в военных целях. Принципы искусственного интеллекта Министерства обороны США включали требование, чтобы системы ИИ Министерства были ответственными, справедливыми, отслеживаемыми, надежными и управляемыми. Точно так же несекретное резюме стратегии ИИ Министерства обороны, опубликованное в 2019 году, призывало к созданию систем ИИ, которые были бы «устойчивыми, надежными и безопасными».

Государствам необходимо поощрять нормы ответственного использования ИИ, включая внедрение и использование технологий таким образом, чтобы это отражало понимание технических рисков, связанных с системами ИИ. Хотя изложение таких принципов – это не то же самое, что внедрение эффективных бюрократических процессов для обеспечения их соблюдения, тем не менее, их ценность в том, чтобы государства публично сигнализировали другим (и своим собственным бюрократическим структурам) о важности ответственного использования ИИ в военных приложениях.

Нормы поведения

Страны могли бы договориться о письменном своде правил или принципов внедрения ИИ в военные системы. Эти правила и принципы, даже если они не имеют обязательной юридической силы, тем не менее могут выполнять ценную сигнальную и координационную функцию, позволяющую избежать некоторых рисков при внедрении ИИ. Кодекс поведения, заявление о принципах или другое соглашение могут включать широкий спектр как общих, так и конкретных заявлений, в том числе о любых или всех перечисленных выше мерах укрепления доверия.

У широкого кодекса поведения есть несколько потенциальных недостатков.

Во-первых, более широкий кодекс поведения, которому не хватает специфики некоторых мер, обсуждавшихся выше, может подорвать импульс к более широкому сотрудничеству, а не послужить строительным блоком.

Во-вторых, при обсуждении кодекса поведения возникнет риск того, что разногласия по поводу некоторых деталей могут подорвать все усилия или привести к выбору форума, в результате чего страны затем начнут вести собственные диалоги о кодексе поведения. Возможно, именно это и произошло в киберпространстве, где несколько различных текущих процессов диалога о кодексах поведения не привели к существенному успеху.

Таким образом, можно предположить, что стимулы могут привести к менее формальному кодексу поведения, разработанному как структурный элемент, а не к чему-то, что могло бы заставить страны ограничивать возможности.

Ограничения ИИ

Риск несчастного случая является серьезной проблемой для военных приложений ИИ. Конкурентное давление может увеличить риск несчастных случаев, заставляя военных сокращать испытания и быстро развертывать новые системы с поддержкой ИИ. Государства могут использовать различные варианты для снижения рисков, связанных с созданием ненужных стимулов для ускоренного тестирования и оценки, включая публичное заявление о важности Т&Е, повышение прозрачности процессов Т&Е, продвижение международных стандартов Т&Е и обмен гражданскими исследованиями по безопасности ИИ.

Кроме того, ИИ сделает автономные системы более функциональными, а их более широкое использование может создать риски для стабильности, особенно при развертывании в оспариваемых районах. Чтобы снизить эти риски, государства могли бы принять МД, такие как «дорожная карта» для поведения автономных систем, признать маркировку систем для обозначения степени их автономии и соблюдение запретных географических зон для автономных систем.

Использование ИИ в военных целях сопряжено с многими рисками, в том числе с тем, как ИИ может изменить характер ведения войны. Политики должны осознавать эти риски, поскольку страны начинают интегрировать ИИ в свои вооруженные силы, и они должны стремиться по возможности снижать эти риски.

Вместо заключения. Воспоминание о будущем 2050

Новый 2022 год шагает по планете. Как водится, с началом каждого нового года люди подводят некоторые итоги предыдущего периода и намечают цели на будущее. Мы тоже решили посмотреть, куда движется наша жизнь и как технологии повлияют на нашу повседневную жизнь, работу и развлечения в ближайшем и не очень будущем. И заодно подвести некоторые итоги.

Для этого достанем с антресоли запылившиеся стопки советских журналов 50-60-х годов прошлого века, типа «Техника молодежи», «Знания – сила», посмотрим иллюстрации, почитаем статьи. Ведь именно тогда сформировалось ядро информационно-коммуникационных технологий, программирования, алгоритмического управления, генной инженерии, робототехники и т. п. В журнале «Техника молодежи» для волнующих воображение представлений о жизни в XXI веке была даже выделена отдельная рубрика – «Окно в будущее».

Что же, оглянувшись назад, мы можем увидеть в этом самом окне и о чем почитать? Советский человек построит атомные поезда

1 ... 127 128 129 130 131 132 133 134 135 ... 137
Перейти на страницу: