📚 Hub Books: Онлайн-чтение книгРазная литератураНовые боги. Как онлайн-платформы манипулируют нашим выбором и что вернет нам свободу - Кристиан Монтаг

Новые боги. Как онлайн-платформы манипулируют нашим выбором и что вернет нам свободу - Кристиан Монтаг

Шрифт:

-
+

Интервал:

-
+
1 ... 37 38 39 40 41 42 43 44 45 ... 91
Перейти на страницу:
«Автор публикации», учитывает историю действий пользователя. Она используется в формуле для определения типов постов, которые предпочитает пользователь (может, он охотнее просматривает изображения, чем тексты или видео; или политические новости стали для него интереснее, чем развлечения, и т. д.).

Переменная «Новизна публикации» отражает тот факт, что в ленте новостей скорее окажутся новые посты, чем старые сообщения.

Кстати, алгоритм, представленный здесь в сильно упрощенном виде, постоянно адаптируется, так что к моменту публикации «Новых богов» в новостной ленте фейсбука может лежать уже совсем другая логика. Аналогичные алгоритмы есть и на других платформах: LinkedIn, TikTok, Twitter и т. д. Представленная формула иллюстрирует лишь один из возможных вариантов формирования ленты новостей.

В предварительной фильтрации информации как таковой нет ничего плохого. Каждый день по всему миру происходит невероятно много событий, в том числе и внутри нашей личной «социальной сети». Самостоятельно обработать такие объемы информации просто невозможно, поэтому, когда новости предварительно сортируются в соответствии с их значимостью лично для нас, это даже в какой-то степени хорошо. На первых порах фейсбук был устроен совсем иначе: новости от друзей отображались в ленте в хронологическом порядке. Вместе с тем сегодня мы имеем дело с персонализацией контента (как описано выше) и нам важно понимать, в каких сферах предварительная фильтрация контента влечет за собой больши́е проблемы, а в каких ее роль незначительна. Кроме того, нужно учитывать, что новостная лента нацелена на вовлеченность. Цифровым гигантам выгодно, чтобы вы проявляли как можно больше активности. Почему? И снова мы возвращаемся к вопросу о том, что IT-корпорациям нужно больше данных о пользователях. В последние годы мы столкнулись с серьезной проблемой: благодаря алгоритмам фейсбука особую популярность стали приобретать резонансные, порой даже разжигающие ненависть публикации. Эти сообщения мгновенно становятся популярными, потому что привлекают особое внимание пользователей и втягивают в обсуждение больше людей – как раз то, что нужно платформе. Понятно, почему это происходит: в комментарии к таким постам сразу же приходит множество возмущенных пользователей. Чем эмоциональнее сообщение, тем больше вероятность, что люди будут делать импульсивные репосты. А это уже опасно. В вышеупомянутой научной статье Люк Манн пишет: «Дело не в том, что отдельно взятый пользователь испытает возмущение. Возмущение разрастается и распространяется на других, провоцирует и перетекает в другие онлайн-пространства»[387]. Иными словами, гнев и эмоциональные всплески в интернете весьма заразны. Я считаю, что каждому пользователю социальных сетей необходимо внимательно ознакомиться с информацией об алгоритмах фильтрации и постоянно критически оценивать их работу. Только так я как пользователь платформы смогу понять, как формируется моя лента новостей (и что мне не показывают) и на какие эмоциональные рычаги давят определенные сообщения. Наконец, далее мы увидим, что сбалансированный подход к фильтрации контента важен, чтобы получать как можно более объективную информацию о происходящем.

О политических пузырях фильтров

Пузыри фильтров могут быть более или менее опасными в зависимости от их тематики. Если пользователь существует в «пузыре бундеслиги» или «пузыре моды», последствия для общества будут менее значительны, чем в случаях, когда в пузыре замыкается большая группа людей с радикальными политическими взглядами. А чтобы получить общее представление, как данный феномен работает в контексте политики, приведу небольшой выдуманный пример. Для разнообразия сменим платформу и представим себе новостную ленту в твиттере (в любом случае проблемы там примерно такие же, как и в фейсбуке). Заходя на стартовую страницу, пользователь сразу видит поток сообщений, которые с большой вероятностью могут его заинтересовать. Когда я кликаю на логотип с щебечущей птичкой, в моей ленте, как правило, появляются многочисленные записи о последних научных исследованиях в области работы мозга и психологии. Ну вот, теперь вы знаете, как выглядит мой информационный пузырь!

Мой пузырь фильтров – наглядный пример того, что многие пузыри только на первый взгляд выглядят политически безобидными. Казалось бы, что в нем может быть плохого? Как комментарии психологов и исследователей мозга в моей ленте связаны с политикой? Однако известное исследование показало, что психологи, специализирующиеся на личностной и социальной психологии, гораздо чаще придерживаются либеральных, а не консервативных взглядов[388]. Логично предположить, что эта политическая предвзятость может распространиться и на мою ленту в твиттере, то есть в «академическом пузыре» я с большей вероятностью буду сталкиваться с либеральными идеями. Следовательно, мне важно это учитывать и не основывать свои политические взгляды исключительно на новостях (и мнениях) из моей новостной ленты. Что же делать? Взглянуть на мир шире помогают разные источники информации. Например, я люблю читать англоязычный журнал The Economist, но одновременно читаю и немецкоязычные еженедельники Der Spiegel и Die Zeit, чтобы получить представление о жизни в Германии как от зарубежных, так и от местных экспертов. В то же время я смотрю различные программы на общественных телеканалах, слушаю радио и иногда читаю газету Bild. Еще бывает интересно открыть газету где-нибудь за рубежом, чтобы увидеть мир с другой стороны. В самолете, на пути к моим китайским коллегам, я читаю China Daily, хоть и прекрасно знаю, что в ней представлен очень синоцентричный взгляд на мировые события, одобренный Коммунистической партией Китая. В общем, я стараюсь получать информацию из различных изданий, чтобы мое мировосприятие не было слишком подвержено чьему-либо влиянию. Получается, чтобы не застрять в пузыре фильтров, придется потратить немало времени и сил на изучение разнообразных источников.

Итак, мы выяснили, что пузыри фильтров могут влиять на формирование политических взглядов: опасная тенденция, особенно если речь идет о взглядах, не совместимых с Основным законом Германии[389]. Теперь нам понятны методы работы алгоритмов социальных сетей. Тем не менее остается еще один вопрос.

Насколько опасны пузыри фильтров на самом деле?

Начнем с эмпирических исследований, в которых рассматривалась возможность возникновения пузырей фильтров в Google. Отфильтрует ли корпорация мои поисковые результаты, если я каждый день буду сообщать ей о своих интересах?

На самом деле данные здесь несколько менее тревожные, чем можно было бы ожидать. В исследовании Седрика Куртуа и др.[390] не было обнаружено никаких доказательств, что история поисковых запросов влияет на то, какие результаты поиска будет Google выдавать пользователю, в частности по общественно-политическим темам[391]. Исследование службы новостей Google, проведенное в Германии Марио Хаймом и его коллегами, также дало весьма позитивные результаты[392]. Google News – сервис, предоставляющий пользователям новости из различных источников и по целому спектру тем (политика, спорт, развлечения и прочие). Если завести в нем аккаунт, при поисковом запросе результаты получаются схожими независимо от предыдущей истории поиска. В 1200 сравнениях между четырьмя фиктивными пользователями различия

1 ... 37 38 39 40 41 42 43 44 45 ... 91
Перейти на страницу:

Комментарии

Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!

Никто еще не прокомментировал. Хотите быть первым, кто выскажется?