Онлайн
библиотека книг
Книги онлайн » Разная литература » Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта - Фрэнк Паскуале

Шрифт:

-
+

Закладка:

Сделать
1 ... 27 28 29 30 31 32 33 34 35 ... 107
Перейти на страницу:
технологиям, снижая при этом объем студенческой задолженности[265]. Похожая динамика должна определять и политику начального и среднего школьного образования, поддерживая обучение преподавателей, позволяющее им стать полноценными партнерами технологий в классе, а не просто пассивными объектами ее применения. Коллективные соглашения и юридические ограничения дают работникам – членам профсоюзов возможность участвовать в определении условий собственного труда, в том числе и способов внедрения технологии. Профсоюзы помогли учителям добиться базовых прав на работе, и они же должны дать им право на логичное определение того, как ИИ и роботы будут в будущем применяться в классе[266].

Этот идеал рабочего самоуправления далее совершенствуется в профессиях. Профессионалы давно утверждают право и обязанность определять ключевые условия своего труда. Например, врачи успешно лоббировали признание их специальных знаний и ответственности доверительного характера, отстояв право самостоятельно определять структуру медицины как профессии. Они руководят лицензирующими советами, которым государство дало право определять, кто обладает квалификацией, достаточной для медицинской практики. Также они играют критические роли в регулирующих ведомствах, определяющих то, какие именно лекарства и устройства допустимы, а какие требуют дополнительных проверок.

Можно ли представить Агентства по образовательным технологиям (АОТ), в которых преподаватели играли бы схожую решающую роль, определяя внедрение образовательной робототехники?[267]Да, конечно. Если ведомства, регулирующие оборот лекарств в разных странах мира, помогли врачам и пациентам разобраться со сложностями, возникшими из-за спорного воздействия фармацевтических препаратов, национальные АОТ могли бы получить право оценивать и лицензировать приложения, чат-ботов и более развитые техно-образовательные системы и инновации. В идеале это стало бы подспорьем для профессиональных работников сферы образования, имеющих возможности помогать школам и учащимся выбирать различные технологические траектории, облегчающие обучение. Для достижения истинно гуманного будущего нам потребуется надежная профессия преподавателя – на уровне начального, среднего и высшего образования, – способная сдержать тенденцию к механизации, стандартизации и сужению образования. Критическое мышление станет еще более важным в той ситуации, в какой автоматическая публичная сфера, которая обсуждается в следующей главе, продолжает распространять ненадежный и опасный контент, связанный с манипуляциями.

4. Чуждый интеллект автоматических медиа

Основные контуры массовой медийной политики и культуры сложились во второй половине XX в. С середины 1990-х гг. перемены ускорились[268]. Программисты взяли на себя роль, которую некогда играли редакторы газет и продюсеры местных радиостанций, но они работали «за кулисами». Они стали выбирать контент и рекламу для постоянно меняющихся и алгоритмически подбираемых аудиторий. Конкретное устройство подобных алгоритмов остается тайной, но общие их принципы достаточно ясны. Они оптимизируют определенное сочетание рекламных доходов и «вовлечения», то есть величины и интенсивности времени, проводимого пользователями на сайте. Поскольку мегафирмы отбирают рекламные доходы у традиционных медиа, они получают все большее вознаграждение, превращаясь в крупнейшие мировые корпорации[269]. Большинству рекламодателей нужна аудитория, но не обязательно какой-то определенный контент. И крупнейшие технологические компании могут им такую аудиторию предоставить.

Сегодня крупнейшие технологические платформы – это не просто экономические компании. Они влияют на политику и культуру, то есть области, в которых количественные измерения, какими бы сложными они ни были, могут отображать реальность лишь урывками и частично. Исследователи коммуникаций задокументировали многочисленные формы искажений и предубеждений, встречающихся на цифровых платформах, начиная с искажения результатов поиска и заканчивая массовыми манипуляциями[270]. Эти проблемы особенно обострились на президентских выборах в США в 2016 г. и в Британии во время референдума по Брекситу – в обоих этих случаях было немало неприятных историй о вводящих в заблуждение и разжигающих рознь «темных рекламных объявлениях», которые могли видеть только специально таргетированные группы. Мощные эхо-камеры правого толка многократно усиливали громкость ненадежных источников. Процветали политически мотивированные, эгоистичные и попросту безответственные поставщики неправды. «Машины лжи», как их удачно окрестил Филип Н. Говард, штамповали кучу безосновательных историй. Так, Хилари Клинтон была замарана множеством фальшивых историй, которые принесли быстрые прибыли их создателям[271].

Менеджерам платформ было важно, чтобы люди кликали материалы, а не то, почему они это делали, как не была важна и истинность информации. Размах манипуляций становится понятным только сегодня, но, возможно, в полной мере он так и не будет раскрыт; коммерческая тайна защищает многие важные документы, не допуская к ним, если они вообще остались, публику.

Для расцвета пропаганды, лжи и сенсаций никакой заговор не нужен. С точки зрения производителей контента, нацеленных исключительно на прибыль, единственной истиной Facebook являются клики и рекламные платежи. По оценкам политологов, десятки тысяч твитов, «написанных» во время вторых президентских дебатов в США, были сгенерированы ботами[272]. Последние выполняют разные функции: они могут разгонять фейковые новости, а когда достаточно количество ботов ретвитнут друг друга, они могут выйти в топ в списке хештегов. Также они могут наводнить хештеги ироничными постами, представив дело так, словно бы истинные публичные проблемы, например, связанные с #BlackLivesMatter, являются попросту шумом, порождаемым оппортунистическими игроками.

Подобных кризисов автоматической публичной сферы так много и они настолько хаотичны, что требуют скорейшей систематической категоризации и скоординированного ответа. В этой главе исследуются проблемы трех типов. Во-первых, ИИ, слепой к содержанию коммуникации, становится легкой мишенью для экстремистов, мошенников и преступников. Только рецензенты-люди, обладающие достаточными данными и силой, способны выявлять, блокировать и предупреждать подобный вред. Во-вторых, платформы, поддерживаемые подобными ИИ, отнимают доходы и внимание у истинных медиаисточников, которые не скрывают своих неудач, а потому платформам все проще завоевывать коммуникационные каналы. Чтобы остановить эту деструктивную петлю обратной связи, надо радикально изменить экономику сетевых медиа. В-третьих, черный ящик ИИ означает то, что мы не всегда можем понять, как, собственно, строится новая медиасреда, да и не всегда понятно даже то, кем именно являются сетевые профили, с нами взаимодействующие, – людьми или ботами. В данном случае самое главное – это атрибуция, то есть раскрытие того, кем управляется сетевой аккаунт – человеком, ИИ или каким-то сочетанием того и другого.

Новые законы робототехники помогают нам понять все эти угрозы и на них ответить. Но также они указывают на то, что автоматическую публичную сферу, быть может, реформировать нельзя. Когда значительная часть медиаоборота автоматизируется, для сохранения сообщества, демократии и социального консенсуса по базовым фактам и ценностям понадобятся, возможно, новые методы структурирования коммуникации. Как доказывается в работе Марка Андреевича, автоматизированные медиа «бросают серьезнейший вызов гражданской установке, необходимой для самоуправления»[273]. Эти опасения не ограничены классической проблемой «пузыря фильтров», поскольку они также вызваны интеллектуальными привычками, необходимыми для каких-либо позитивных изменений в новых медиа, которые оказались бы значимыми в современной публичной сфере.

Также новые законы робототехники применимы к политической экономии медиа

1 ... 27 28 29 30 31 32 33 34 35 ... 107
Перейти на страницу: