Мир-фильтр. Как алгоритмы уплощают культуру - Кайл Чейка
Шрифт:
Интервал:
Каким бы несовершенным ни был Закон о детском телевидении, он действует уже несколько десятилетий и периодически успешно поигрывает мышцами. В 2007 году Федеральная комиссия по связи (FCC) оштрафовала американский телеканал Univision на двадцать четыре миллиона долларов за его нарушение. Канал попытался выдать за образовательный контент свои мыльные оперы-теленовеллы. Правительство США отказалось признать, что подобные сериалы удовлетворяют нужным требованиям, и в итоге Univision перезапустил свой блок детских программ под названием Planeta U. Этот закон создает прецедент, позволяющий оказывать существенное влияние на то, какой контент транслируется зрителям. Если мы соглашаемся, что современные социальные сети принимают такие же редакторские решения, как и медиакомпании (например, телеканалы), то не следует ли заставлять их время от времени показывать определенные виды контента, отдавая предпочтение информации, которая может быть полезна для нас – или в конечном итоге для общества?
Алгоритмические рекомендации принимают во внимание то, к чему мы подсознательно тяготеем: любой контент, на котором мы долгое время удерживаем курсор мыши, не говоря уже о том, чтобы нажать кнопку. Система учитывает, когда мы колеблемся, прежде чем пропустить видео на ТикТоке. Как и в случае нездоровой пищи или препаратов, вызывающих привыкание, людям, возможно, просто нужна помощь в выборе потребляемого контента. Келлер выразилась так: “Мы кликаем своими обезьяньими мозгами – теми же самыми, которые заставляют нас купить шоколадку на кассе в продуктовом магазине”. Алгоритмические каналы разгоняют эти наихудшие импульсы не только на индивидуальном, но и на совокупном уровне – у всех пользователей социальной сети. Забористые материалы – возможно, жестокие, провокационные или обманчивые – обнаружить проще, нежели материалы поскучнее, но и полезнее.
“Это не лучший способ структурировать наш информационный рацион. Он способствует возникновению проблем в обществе”, – продолжает Келлер. Она описала возможный выход из ситуации таким образом: “Заставить платформы добавлять немного овощей к конфетам, которые выпрашивают пользователи”. По сути, нам придется смириться с тем, что алгоритмические рекомендации не дадут нам именно то, что мы хотим, или то, что с наибольшей вероятностью будет нам интересно, – точно так же, как мы соглашаемся с тем, что редакторы новостей лучше знают, что важнее всего донести до своей аудитории. (Мы ведь не ожидаем, что первая полоса The New York Times будет соответствовать нашим личным предпочтениям.) Такие “овощи” в ленте могут иметь вид статей из списка проверенных изданий или постов, больше похожих на объявления социальной рекламы, – то есть это окажутся темы, которые стоит поднимать по общему мнению, хотя в наши дни подобное масштабное общественное согласие, похоже, встречается как никогда редко. Возможно, достаточно нейтральными станут новости о голливудских фильмах или подборки национальных новостей, перемежающиеся приятными местными материалами. Разумеется, подобная смесь – именно то, что выдавали традиционные СМИ, и полная противоположность тому, что мы привыкли получать от социальных сетей.
Расцвет социальных сетей создал новую динамику развития культуры и развлечений. У пользователей появилось гораздо больше возможностей выбирать, что потреблять в тот или иной момент, а создателям стало куда проще найти аудиторию, просто выложив свой контент в Сеть. Мы не обязаны просто смотреть то, что продюсер решил запустить по кабельному телевидению. Мы привыкли к индивидуализации, будь то наши собственные действия или алгоритм. Но эта, казалось бы, более демократичная и низкоиерархичная динамика также дала нам ощущение, что старые законы и правила не действуют – именно потому, что мы можем решать, когда смотреть или слушать что-либо, а когда выбирать другой источник. Возможно, у нас больше независимости, но в конечном счете меньше защиты как у потребителей.
Регулирование алгоритмических рекомендаций быстро перерастает в проблему свободы слова. Как сказал мне Эрик Голдман, профессор школы права из Университета Санта-Клары и директор Института права высоких технологий, “алгоритм – это просто способ кодификации выбора сервиса”. Келлер провела различие между проблемным контентом (например, содержащим угрозы насилия или разжигание ненависти) и “легальными, но провокационными текстами”. Если пользователь постоянно щелкает на такой контент, выражая желание его получить, должен ли закон вставать на его пути? Когда Молли Расселл знакомилась с материалами о депрессии, ей предлагали еще больше такого контента. Такой опыт мог оказаться положительным и помочь ей найти нужное сообщество и сочувствие в Сети. Однако он стал также и отрицательным, поскольку подобный контент рекомендовался слишком часто – еще одно следствие порочного круга алгоритмической однородности.
Если рекомендации следует регулировать, то определенные решения нужно принимать на основе контента. Келлер задается вопросом: “Какие предпочтения неприемлемы и должны блокироваться законом?” “Скажем, платформы перестают давать людям то, что клиенты хотят; вместо этого вы должны предложить им что-то другое. Какие овощи, какую информацию мы принудительно вводим в их рацион и как нам решить, что это? Я не знаю ответа на этот вопрос”, – признается Келлер. Она предложила систему “прерывателей”, которые “нейтральны относительно контента”. Вместо того чтобы решать, какой контент является положительным, а какой отрицательным, платформа начинает ограничивать, а не раскручивать любой вид контента, который становится вирусным – то есть быстро расходится благодаря рекомендациям; это замедлит его распространение и даст модераторам больше времени, чтобы оценить, насколько он уместен, прежде чем он достигнет совсем массовой аудитории. Такие прерыватели также могут вернуть нас к менее глобализированной экосистеме СМИ, когда фрагменты контента более прочно удерживались в рамках своего первоначального контекста. Да, мы, возможно, ограничили бы лавину безобидных забавных видеороликов, зато Расселл, возможно, не попала бы под влияние кучи мемов, которые навредили ей. Она не получила бы по электронной почте письмо с “депрессивными пинами” для Пинтереста, усилившее ее депрессивное состояние.
Решения о контенте в конечном счете должны принимать люди – как потому, что системы машинного обучения пока не способны проводить такие тонкие различия, так и потому, что последствия таких решений влияют на человеческие жизни. Возможности человека не масштабируются так, как возможности программы: один проверяющий не может защитить миллионы пользователей или проверить каждый пост, который продвигается алгоритмом. А рамки того, что считается опасным, нуждаются в постоянном обновлении, подобно списку запрещенных слов, поскольку культура никогда не бывает статичной. Но есть и другие способы разрушения Мира-фильтра, которые в
Поделиться книгой в соц сетях:
Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!