С момента президентских выборов все, кого я знаю, озабочены эффектом эхо-камеры (усиления силы информации путем ее передачи или повторения — прим. ред.). И, кажется, никто не замечает иронии, обсуждая эту тему на Facebook. Похоже, многие их нас чувствуют, что оказались в ловушке фильтров персонализации на Facebook, Twitter и в Google.

Эхо-камеры определенно стали проблемой, социальный дискурс страдает, когда у каждого человека формируется узкая информационная база, имеющая мало общего с остальными. Интернет должен был исправить это явление, демократизируя информацию и создав глобальную деревню.

Действительно, демократизация произошла. Социальные новостные ленты в Facebook и Twitter, как и алгоритмы Google, выполняют ту кураторскую функцию, за которую прежде отвечали редакторы новостей.

По подсчетам, более 60% представителей поколения миллениалов используют Facebook как основной источник новостей. Но в последние недели многие комментаторы выразили обеспокоенность тем, что эта тенденция не способствует построению глобальной деревни, а, напротив, ведет к еще более сильной фрагментации общества и уничтожает демократию. Генеральный директор Facebook Марк Цукерберг (Mark Zuckerberg) считает, что влияние социальных сетей на демократию переоценено.

Мы с сотрудниками уже некоторое время изучаем эффект эхо-камер. И я знаю, что Марк Цукерберг ошибается. Facebook может делать больше, чтобы помочь нам выбраться из пузыря фильтров. Но мы и сами не беспомощны. Мы легко можем справиться с этой проблемой, хотя предпочитаем ничего не делать.

Доказательство

В ходе исследований в 2010 и 2014 годах моя группа в Уортоне оценила потребительские модели среди более 1700 пользователей iTunes, которым показывали персональные рекомендации по поиску контента. В анализе мы проследили, насколько совпадали используемые ими ресурсы, то есть установили общие границы использования СМИ у двух случайных лиц. Если персональные рекомендации имели фрагментирующий эффект, то количество общих ресурсов должно было уменьшаться, как только пользователи начинали следовать советам системы.

После включения функции рекомендаций совпадение потребляемых ресурсов выросло для всех пользователей. Это можно объяснить двумя причинами. Во-первых, люди просто стали пользоваться большим числом ресурсов, когда алгоритм находил актуальные для них страницы. Если два пользователя потребляют вдвое больше информации, то шанс обнаружить у них общие источники повышается. Во-вторых, алгоритм рекомендаций помогал им открывать для себя новые интересы, что тоже увеличивало область пересечения с интересами других пользователей. Короче говоря, мы не нашли доказательств наличия эффекта эхо-камеры.

Но политический контент отличается от других ресурсов. Например, в музыке люди менее склонны к экстремальным взглядам и поляризации, чем в вопросе политических идеологий. Кроме того, социальные новостные каналы не похожи на персональные рекомендации на iTunes. Так что вопрос заключается в том, можно ли обобщить наши результаты для всех социальных сетей.

Ответ на этот вопрос вытекает из результатов исследования 2015 года на Facebook, целью которого было проверить, как социальная сеть влияет на нашу склонность к тем или иным точкам зрения. Исследователи изучили новостные ленты 10,1 миллиона активных пользователей Facebook в США, самостоятельно заявивших о своих политических взглядах («консервативные», «умеренные», «либеральные»). Была вычислена доля общих для всех новостных материалов, которые распространялись, несмотря на чуждую отдельным пользователям точку зрения (например, либерал читает новость, написанную под консервативным углом).

В таких социальных сетях, как Facebook, на распространение «сквозных» новостей влияют три фактора. Во-первых, это друзья и их новостной контент, во-вторых, то, какие именно новости из общего потока отбираются алгоритмом формирования новостной ленты, в-третьих, на страницы каких новостей мы действительно заходим. Если второй фактор является главной движущей силой создания эффекта эхо-камеры, то Facebook заслуживает осуждения. Но если эхо-камера возникает под действием первого и третьего факторов, то мы сами себя в нее заточаем.

Если бы мы получали информацию от случайной группы пользователей Facebook, то 45 % новостей, просмотренных либералами, пересекались бы с 40% новостей, просмотренными консерваторами. Но новости попадают к нам от наших друзей. В результате выяснилось, что только 24% новостей от друзей-либералов и 35% от друзей-консерваторов видны всем. Очевидно, что схожесть взглядов с друзьями на Facebook заманивает нас в ловушку эхо-камеры.

Алгоритм формирования новостной ленты выбирает отдельные новости из лент друзей на базе предшествующего общения с другими пользователями. Как правило, мы активнее общаемся с единомышленниками и посещаем сайты с идеологически сходным содержанием, так что алгоритм новостного потока еще сильнее ограничивает долю общих новостей — 22% для либералов и 34% для консерваторов. То есть, механизм работы Facebook усугубляет эффект эхо-камеры, но не намного.

И, наконец, надо обратить внимание на то, какие из новостей мы открываем, чтобы прочитать. Как выяснилось в ходе исследования, речь идет о 21% для либералов и 30% для консерваторов. Очевидно, что мы предпочитаем новости, которые подтверждают наши взгляды, а не бросают им вызов.

Вывод исследования заключается в том, что основная движущая сила формирования эхо-камер — это действия пользователей, то есть общение онлайн и заходы на разные сайты, а не выбор, совершаемый автоматическим алгоритмом от нашего имени.

Верить ли исследованию, выполненному с помощью специалистов по механизмам Facebook, которое оправдывает алгоритмы компании и возлагает всю вину на нас самих? Думаю, они проделали добросовестную работу. Исследование, о котором я говорю, проводили в 2015 году или даже раньше, но основополагающие механизмы — работа алгоритмов персонализации и наша склонность выбирать единомышленников — не изменились.

Так что я уверен, что в ноябре 2016 года результаты во всех трех фазах были бы аналогичными. Тем не менее, с ключевым выводом я не согласен. Действительно, круг наших друзей обычно не слишком разнообразен, но Facebook без труда может начать рекомендовать «сквозные» статьи из других источников (например, «что еще читают на Facebook»). Тот факт, что мы видим лишь новости их лент наших друзей, — это в конечном итоге навязанное социальной сетью ограничение.

Но это не значит, что мы с вами полностью оправданы. Очень важная проблема заключается в том, что мы сознательно совершаем действия, толкающие нас в эхо-камеру. Во-первых, общаемся только с единомышленниками и отписываемся от всех, чьи взгляды не совпадают с нашими, создавая таким образом островные миры. Во-вторых, мы не открываем «сквозные» новости, даже когда они отображаются в нашей ленте. Почему Facebook должен предлагать нам контент, который нас не интересует? В конечном итоге, Facebook — это бизнес. Если меня устраивает демонстрация новостей с моих излюбленных ресурсов, то почему возникновение эхо-камер — это вина Facebook? Почему бы Facebook и не оптимизировать свой бизнес, если мы не поддерживаем его заходами на определенные страницы?

В The Big Sort Билла Бишопа (Bill Bishop) показывается, как американцы в последние 30 лет сами рассортировали себя по районам, подобранным по принципу сходства взглядов. То же самое происходит в интернете. Все практические исследования на сегодняшний день позволяют предположить, что причина — не в наличии алгоритмов персонализации как таковых. Алгоритмы легко могут дать нам доступ к различным точкам зрения. Проблема в самой информации, которая попадает в эти алгоритмы, а также в нашей активности как пользователей. Таким компаниям, как Facebook и Google, следовало бы прикладывать больше усилий. Но и мы с вами тоже должны постараться.