Шрифт:
Закладка:
Прежде чем сформулировать четкие рекомендации для «правильного» дизайна платформ, мне представляется необходимым провести фундаментальное эмпирическое исследование. Описанные в главе 3 механизмы из области психологии и поведенческой экономики имеют достаточно хорошую теоретическую основу, однако у нас по-прежнему слишком мало исследований, где подробно объясняется, как именно различные элементы приложений влияют на время, проведенное в сети, или самоощущение.
Неминуемо возникает вопрос, какие элементы интерфейса вообще допустимо использовать на онлайн-платформах, чтобы не затягивать время пребывания в сети и не вредить пользователям. Возможно, токсичность определенных элементов приложений раскрывается лишь тогда, когда они используются в определенной комбинации. Можно предположить, что бесконечный скроллинг неперсонализированной ленты новостей не так сильно увеличивает время пребывания человека в сети, как в случае с персонализированной лентой. В общем-то, нет ничего удивительного в том, что прокручивать неинтересный материал надоедает быстрее, чем в случае с бесконечным просмотром новостей, подобранных специально для тебя.
С точки зрения реинжиниринга – то есть деконструкции архитектуры, – исследователям необходимо изучить, как различные комбинации социальных сетей и freemium-игр влияют на время пребывания в сети и на степень выраженности симптомов, схожих с зависимым поведением. По сути, нам нужна разновидность A/B-тестирования, которое в больших масштабах применяется технологическими платформами. Например, с помощью A/B-тестирования компании Big Tech пытаются выяснить, как изменится время пребывания в сети, если в вариант платформы А будет встроена какая-то функция, которой нет в варианте платформы B. Зачастую пользователи даже не подозревают, что приложение, которое они видят в данный момент, отличается от версии, представленной другим пользователям. Задача многократно усложняется, если мы хотим изучить, как на интересующие нас переменные влияет совокупность трех и более факторов. Если я хочу изучить только вышеупомянутые переменные: персонализированную/неперсонализированную ленту новостей в сочетании с бесконечной прокруткой (да/нет), – то придется сравнить четыре различных варианта социальной сети (см. табл. 9.1). Здесь можно ожидать, что наибольшее время пребывания в сети будет у группы С, поскольку в эту версию приложения встроена персонализированная лента новостей с бесконечной прокруткой. Это кажется интуитивно понятным, но такие вещи необходимо проверять, чтобы лучше оценить масштаб проблем.
Табл. 9.1. Пример A/B-тестирования (в данном случае – с четырьмя экспериментальными условиями ABCD, которые сравниваются друг с другом, чтобы понять, какая комбинация элементов социальной сети способствует наиболее короткому и наиболее длительному пребыванию онлайн)
Разработка социальных онлайн-платформ, которые действительно оправдывают свое название и остаются социальными, – благое дело. Я говорю о платформах, которые позволяют поддерживать ценное общение с семьей, друзьями и коллегами в защищенном пространстве. В 2018 году Facebook попытался осторожно продвигать такую идею с помощью своих алгоритмов. Например, после запуска этой инициативы в персонализированной новостной ленте должно было отображаться больше сообщений из личной сети контактов. По крайней мере, так было заявлено; фактически это никак нельзя проверить. Заявление Марка Цукерберга: «Хочу внести ясность: нам важно не максимизировать время, которое пользователи проводят в фейсбуке, а помогать людям общаться»[577], – звучит, конечно, неплохо, но, чтобы его компании больше доверяли, следовало бы прибегнуть к независимому фактчекингу. Как это можно устроить? Я бы предложил создать неподконтрольный Meta комитет, который изучит содержимое новостной ленты нескольких тысяч случайно выбранных пользователей. Но прежде чем такой орган начнет работу, необходимо дать ответы на многие вопросы. Кто будет это оплачивать? Как будут отбирать экспертов в комиссию? Насколько обширными будут их полномочия? Мне кажется, такой орган мог бы позаимствовать принципы у комитета по психологической и медицинской этике. Приведу небольшой пример, который натолкнул меня на эту мысль.
В 2014 году ученые под руководством Адама Крамера опубликовали исследование, в рамках которого манипулировали настроением почти 690 000 пользователей фейсбука[578]. Настройки лент одних ничего не подозревающих испытуемых изменили так, что в них отображалось меньше позитивных новостей. Для других, наоборот, сократили количество негатива. Как изменилось поведение пользователей? Когда в ленте стало появляться меньше плохих новостей, читатели начали публиковать больше радостных постов. А у тех, кто видел меньше позитивных сообщений, наблюдалась противоположная картина (это также согласуется с результатами исследования смайликов в главе 8). Другими словами, содержание новостной ленты влияло на эмоциональное состояние пользователей. Допустимо ли проводить подобные исследования на таких больших группах людей – вопрос спорный. Когда выяснилось, что рабочая группа не проконсультировалась с комитетом по этике перед проведением исследования, ученых резко раскритиковали и в научных кругах, и в СМИ. Это не удивительно для таких сфер, как психология и медицина, где во главе угла стоит принцип клятвы Гиппократа – не навредить участникам исследования. Кроме того, явно имел место обман пользователей (испытуемые не знали, что участвуют в эксперименте), и, с моей точки зрения, этот вопрос также надо было предварительно согласовать. Индер М. Верма, главный редактор научного журнала PNAS, опубликовавшего результаты работы Крамера, был вынужден выступить с отдельным заявлением по поводу исследования. Выяснилось, что проект не был рассмотрен комиссией по этике, поскольку исследование проводилось на базе Facebook. Следует обратить внимание на последнее предложение в комментарии Вермы: «Вызывает обеспокоенность тот факт, что сбор данных при помощи Facebook мог включать практики, не вполне соответствующие принципам получения согласия и предоставления испытуемым возможности отказаться от участия в эксперименте»[579].
Чрезвычайно важно не только добиться, чтобы деятельность крупных IT-компаний контролировал комитет по этике, но и обеспечить независимым ученым возможность проверять, что на самом деле происходит в социальных сетях. Проект Social Science One был запущен компанией Facebook Inc. именно с этой целью. Мой коллега Симон Хегелих из Мюнхена получил анонимные данные от Facebook, чтобы на их основе ответить на ключевые вопросы – например, о распространении фейковых новостей. Однако массив данных оказался большим разочарованием. Вот что пишет Симон в журнале Nature: «Любой человек, разбирающийся в статистике, при внимательном чтении кодовой книги обнаружит, что данные стали практически бесполезными для отслеживания влияния дезинформации или манипуляций. В них почти нет колебаний, они превращаются в шум. Это приводит к появлению нелепых показателей – например „минус один миллион пользователей“, просмотревших URL-адрес. Именно поэтому невозможно получить ответы на волнующие нас вопросы, например об URL-адресах, которые ссылаются на фейковые новости о бывшем канцлере Германии Ангеле Меркель, или о росте гневных реакций в определенной стране на определенной неделе»[580]. Таким образом, ситуация все еще оставляет желать лучшего; на данный момент обществу не хватает эффективных механизмов внешнего контроля за происходящим в социальных сетях. Мы с Симоном Хегелихом