Мир-фильтр. Как алгоритмы уплощают культуру - Кайл Чейка
Шрифт:
Интервал:
Замедление амплификации
Молли Расселл, британская школьница, столкнувшаяся с лавиной депрессивного контента и покончившая с собой, на себе испытала, что рекомендации ускоряют негативный материал так же сильно, как и позитивный. Пусть система и относится одинаково ко всему контенту, различаются последствия такого продвижения. Распространение ложной информации в Сети во время пандемии ковида вызвало вирусное увлечение ивермектином – препаратом, который обычно используется для лечения лошадей. Пациентам, принимавшим его, чаще становилось хуже, а не лучше; иногда после употребления этого лекарства люди даже попадали в больницу. Байки об ивермектине распространялись широко, потому что привлекали внимание; в частности, проблема была политизирована и подогревалась риторикой, исходившей от Трампа и его администрации. Эта ложная информация оказалась оптимизированной под алгоритмическую формулу, породив тот вид мгновенного взаимодействия, который способствует еще большему продвижению.
Обычная стратегия решения этой проблемы – модерирование, или цензура ради безопасности: проблемный контент нужно полностью заблокировать, не допуская его попадание в ленты пользователей. Социальные сети осуществляют фильтрацию как с помощью машинного анализа (например, автоматическое цензурирование определенных ключевых слов), так и с помощью людей-модераторов, которые лично решают, какой контент пропустить. Большую часть функций по модерированию Фейсбук передает компании Accenture, которая нанимает тысячи модераторов по всему миру, в частности, в таких странах, как Португалия и Малайзия. Эти сотрудники ежедневно сталкиваются со снятыми на камеру смертями, насилием и детской порнографией. Они следят за чистотой лент для остальных людей, подвергая риску собственную психику – подобно тому, как сборщики мусора, которые копаются в отходах электроники, свезенных со всего мира в Гану и другие страны, подвергаются воздействию ядовитых химикатов. Этот токсичный материал не исчезает волшебным образом просто так благодаря посредничеству алгоритма. Однако этот человеческий труд снова остается в тени.
Тем не менее часть контента всегда просачивается сквозь щели, и, как только он попадает в ленту, ничто не мешает его рекомендовать. Один из способов борьбы с алгоритмами – регулирование того, на какие виды контента могут влиять рекомендации, как это предлагается в некоторых реформах раздела 230. В Великобритании рассматривается закон под названием “Законопроект о безопасности в интернете” (Online Safety Bill), призванный предотвратить случаи, подобные делу Расселл. “Все сервисы, к которым могут обратиться дети, будут обязаны защищать их от вредного контента”, – говорится в парламентском заявлении об этом законопроекте. Платформы, которые разрешают такой вредоносный контент, также должны обладать прозрачностью в отношении того, как он обрабатывается с точки зрения модерирования и рекомендаций. Это может включать в себя удаление или “снижение приоритета” вредного контента – то есть он рекомендуется реже или не рекомендуется совсем.
Социальные сети должны ориентироваться в сложном наборе приоритетов. Мы используем их для непосредственного общения друг с другом, как сервисы обмена сообщениями или способы следить за обновлениями наших друзей. Однако они также играют роль вещания, охватывающего миллионные аудитории. Оба этих вида контента подчиняются одинаковым же правилам и силам, независимо от того, являются они частными или публичными. Тарлтон Гиллеспи, преподаватель факультета коммуникаций Корнеллского университета, который сейчас является главным исследователем Microsoft, объяснил, что означает этот разрыв.
“Платформы предлагают нам нечто, предназначенное для личной связи. Затем они модерируют ее с помощью какого-то статистически широкого систематического метода”, – сказал мне Гиллеспи. Здесь мало места для учета конкретного характера того или иного фрагмента контента, поскольку он лишен контекста и распыляется в общей ленте. Это означает, что у нас также сформировались ожидания относительно движения того контента, который мы размещаем в Сети: а именно, мы чаще всего ожидаем, что он распространится как можно шире. “У людей сложилось не только представление о том, что они могут сказать, но и определенные ожидания насчет того, куда это должно двигаться”, – пояснил мне Гиллеспи. Иными словами, мы стали считать алгоритмическое продвижение практически своим правом.
Но, возможно, нам следует отказаться от подобных ожиданий и научиться существовать в цифровом мире без такого мощного автоматического ускорения. Охват широкой аудитории незнакомых людей – это не право, это привилегия, которую вовсе не обязательно делать доступной каждому отдельному пользователю или посту. Слово “амплификация”[82] описывает роль алгоритмических рекомендаций в распространении контента: подобно мегафону, они превращают обычную речь в крик. Амплификация лежит в центре проблем Мира-фильтра; один формат усиливается больше других. Возможно, регулирование, направленное на амплификацию, улучшит баланс в экосистеме.
Дафна Келлер – директор Программы по регулированию платформ в Стэнфордском центре киберполитики. В 2021 году Келлер опубликовала в Колумбийском университете эссе под названием “Амплификация и недовольство ею”. “Функции амплификации могут приносить как вред, так и пользу”, – отметила она. Трюк в регулировании заключается в том, чтобы “[использовать] преимущества” – например, помочь пользователям обнаружить новые голоса или интересы и при этом “уменьшить сопутствующий вред” вроде ускорения распространения проблемного контента. “Большинство дискуссий в США о регулировании алгоритмов касаются контента”, – сказала мне Келлер. Но при этом “отсутствует такое понятие, как базовый уровень контента, который следует показывать людям”. Возможно, мы жалуемся на то, что слушаем слишком много одинаковой музыки на Spotify или видим в Фейсбуке слишком много политических взглядов, которые разделяют члены нашей семьи, однако не существует идеальной смеси контента, подборки тем или настроений, которая подходила бы всем.
Составление алгоритмической ленты, подобной имеющейся в Фейсбуке, можно сравнить с пищевой пирамидой здорового питания. Министерство сельского хозяйства США рекомендует минимум жиров, масел и сладостей и гораздо большее количество фруктов и овощей. Регулирование амплификации может заставить ленты включать в себя определенные пропорции различных видов контента, смешивая небольшое количество непристойных материалов с большим количеством информативных, политически нейтральных или материалов о местных событиях. Такие правила ограничат тот бесконечный простор, который мы сейчас наблюдаем в наших лентах.
Подобный закон уже существует для детского телевидения. Конгресс принял Закон о детском телевидении в 1990 году и ужесточил его в 1997 году. В соответствии с ним все крупные телеканалы обязаны не менее трех часов в неделю транслировать передачи, ориентированные на детей. Помимо того, что эти телепрограммы должны быть “образовательными и информационными”, они обязаны соответствовать и другим требованиям – например, ограничивать рекламу и не показывать адреса коммерческих сайтов. Согласно брошюре Центра медиаобразования, выпущенной в 1997 году, под давлением этого закона появились такие передачи, как “Мир Бикмена” и “Билл Най – ученый шалопай”.
Однако затем применять закон стало сложнее, поскольку телевидение изменилось: горстка базовых каналов превратилась в большие
Поделиться книгой в соц сетях:
Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!