Мир-фильтр. Как алгоритмы уплощают культуру - Кайл Чейка
Шрифт:
Интервал:
Мы, пользователи, не можем самостоятельно бороться с этой удушающей средой. Меняя приложения и настройки, многого не добьешься. Чтобы разрушить Мир-фильтр, изменения должны происходить на промышленном уровне, в масштабах самих технологических компаний. Децентрализация, как правило, дает пользователям наибольшую свободу действий, хотя и возлагает на человека бремя труда и ответственности. Это также наилучший способ противостоять Миру-фильтру и культивировать новые возможности цифровой жизни. Однако компании вряд ли сами решатся на децентрализацию, потому что это обычно менее выгодно. Не исключено, что единственный путь к переменам – принудительный.
Будучи такой огромной и мощной индустрией, затрагивающей миллиарды людей, бизнес социальных сетей не сталкивается с серьезным государственным регулированием. Кажется, что он попадает в зазор между индустрией аппаратного обеспечения, где устройства и производственные цепочки подвергаются тщательному контролю, и традиционной медиаиндустрией, где вопрос о том, какой контент могут транслировать компании, является юридической проблемой с тех пор, как в Конституции США была закреплена свобода слова. Должны ли социальные сети приравниваться к газетам и телеканалам и отвечать за все, что размещается в их доменах? От подобной ответственности они уже давно ускользнули. Или же их следует классифицировать скорее как телефонные линии, теоретически нейтральные передатчики информации? Но они явно не нейтральны, если учесть их алгоритмические суждения. А может быть, социальные сети относятся к категории индустрий порока, где существуют жестко регулируемые ограничения, чтобы обезопасить людей, которые в противном случае могли бы злоупотребить ими? В конце концов, множество пользователей сетей страдают зависимостью от них.
Как бы мы ни классифицировали цифровые платформы, составляющие Мир-фильтр, очевидно, что они нуждаются в определенном регулировании. В качестве пользователей мы лишь ощущаем следствия их внутренней организации и адаптируем к этому свое поведение. Новые типы поведения, а значит, и новые формы культуры требуют новых структур, которые не появятся до тех пор, пока не разрушатся монополии и дуополии технологических компаний.
В поисках прозрачности
Самым быстрым способом изменить работу цифровых платформ может оказаться требование прозрачности: нужно заставить компании объяснять, как и когда работают их алгоритмические рекомендации. Прозрачность хотя бы даст пользователям больше информации о том, как принимаются постоянные решения относительно показа контента. А зная, как работают алгоритмы, возможно, мы сможем лучше противостоять их влиянию и принимать собственные решения.
После избрания Дональда Трампа на пост президента США в 2016 году американской общественности стало немного понятнее, как нами манипулируют при помощи алгоритмических лент. Демократы не могли уразуметь, как кто-то мог проголосовать за Трампа, если в их собственных лентах Фейсбука и Твиттера наблюдался лишь минимум постов с той стороны политического спектра – создавался цифровой герметичный мирок, один из “пузырей фильтров”, предложенных Эли Паризером. Сетевая жизнь противников Трампа протекала в иллюзии всеобщего согласия с тем, что он смешон. В то же время сторонников Трампа окружал контент, который укреплял их собственные взгляды, – другая форма однородности. Системы рекомендаций рассортировали аудиторию на две четкие категории, которым незачем было пересекаться, в то время как в редактируемой человеком газете или телевизионной программе новостей определенное воздействие этих сторон было бы более вероятным. Более вероятным, но не гарантированным: традиционные СМИ могут так же склоняться к однородности – например, The New York Times не желала писать о возможности победы Трампа.
Ранее в этой книге я уже рассказывал о критике “пузырей фильтров”; возможно, этот феномен обусловил скорее неожиданность победы Трампа, нежели сам ее факт. Либералы просто не осознавали его популярности (отчасти благодаря социальным сетям), не воспринимали его как серьезную угрозу и тем самым облегчили ему победу.
Трамп действительно воспользовался выгодами алгоритмических технологий. Его кампания эффективно использовала программу таргетированной рекламы в Фейсбуке: сообщения рассылались тем избирателям, чьи действия в Сети свидетельствовали о том, что политика Трампа может их убедить. Его кампания приобрела место для 5,9 миллиона рекламных объявлений в Фейсбуке; за пять месяцев, предшествовавших ноябрю, на это было потрачено сорок четыре миллиона долларов – во много раз больше, чем у кампании Хиллари Клинтон, купившей шестьдесят шесть тысяч объявлений. Команда Трампа тесно сотрудничала и с самим Фейсбуком: с помощью программного обеспечения для таргетированной рекламы проверялось, какие сообщения дают наибольший эффект. Оплата рекламных объявлений в Фейсбуке часто осуществляется в зависимости от результатов, а не от количества показов: клиент платит за переходы по ссылкам и трансформацию в реальные действия (например, политические пожертвования). Кампания Трампа практически гарантировала, что алгоритмическая лента будет работать в их пользу.
Пользователям тоже стало сложнее понимать, какой контент Фейсбука продвигают в качестве платной рекламы, а какой является естественным, основанным на том, на кого вы подписаны. Лента стала более беспорядочной, а значит, более запутанной и более манипулятивной. Такое сочетание факторов привело к редкой в то время негативной реакции общества против Фейсбука.
В разгар этого скандала, в ноябре 2016 года, компания взяла на работу инженера по имени Кришна Гейд, ранее занимавшего руководящие должности в Пинтересте и Твиттере. Он стал главным специалистом по разработке новостной ленты и занялся системой ранжирования контента. В тот момент эта работа была крайне важна. “Возникло гораздо больше внутренних вопросов по поводу того, как работает эта лента”, – говорил мне Гейд. Он осознал гомогенизирующую силу ленты: “С помощью рекомендательных алгоритмов со временем вы получаете одно и то же. Как нам разрушить эти шаблоны?”
Сначала Гейд разработал внутренний инструмент отладки, чтобы понять, как именно функционирует алгоритм рекомендаций. Он мог определить, почему в данное время продвигается тот или иной фрагмент контента. К этим фрагментам начала прилагаться небольшая ссылка, которая показывала несколько причин его появления в ленте пользователя – переменные, которые заставили алгоритм зарегистрировать его. Скриншоты из ранних версий продукта демонстрировали такие объяснения, как нахождение в друзьях у автора поста, склонность чаще комментировать посты с фотографиями или популярность поста в определенной группе, членом которой является пользователь. Подобная простая логика в основном вращалась вокруг доминирующего показателя вовлеченности – то, что уже популярно, становится еще популярнее. Но эта функция хотя бы делала ленту более понятной. Если, конечно, вы удосуживались нажать на кнопку и получить эту информацию.
По мнению Гейда, эта функция крайне важна для надлежащей работы цифровой платформы. “У пользователей должно быть право спрашивать, что происходит”, – сказал он мне. Этот принцип получил название “алгоритмической прозрачности”; он утверждает, что
Поделиться книгой в соц сетях:
Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!