📚 Hub Books: Онлайн-чтение книгДомашняяВнутри Facebook. Голая правда - Шира Френкель

Внутри Facebook. Голая правда - Шира Френкель

Шрифт:

-
+

Интервал:

-
+
1 ... 47 48 49 50 51 52 53 54 55 ... 85
Перейти на страницу:

Но Шисслер и другие вскоре поняли, что стикеры повлекли за собой непредусмотренные последствия: алгоритмы Facebook учитывали их как еще один знак, что людям нравился пост. Вместо того чтобы уменьшить количество людей, увидевших материал, разжигающий ненависть, стикеры давали обратный эффект: они делали посты более популярными.

Шисслер был все более раздосадован отсутствием реакции со стороны компании и сократил свое участие в деятельности онлайн-группы. Однако он предпринял последнюю попытку достучаться до Facebook. В марте 2015 года он совместил личную поездку в Калифорнию с посещением Менло-Парка. В небольшом конференц-зале, где собралось около дюжины сотрудников Facebook, а остальные присоединились по видеосвязи, он представил презентацию в PowerPoint, которая документально подтверждала серьезность происходящего в Мьянме: риторика ненависти в Facebook вызвала реальное насилие в стране, и это привело к гибели людей.

Позже он встретился с небольшой группой сотрудников, которые были заинтересованы в продолжении дискуссии. Ближе к концу встречи одна из сотрудниц Facebook обратилась к нему с вопросом. Нахмурив брови, она попросила Шисслера предсказать, что произойдет в Мьянме в ближайшие месяцы или годы. «Возможно ли, – спросила она, – что люди преувеличивают масштабы насилия?» Она слышала, что уже произносится слово «геноцид», но считает ли Шисслер, что это действительно может произойти в Мьянме?

«В этом нет никаких сомнений, – ответил он. – Если Мьянма продолжит идти по своему нынешнему пути и антимусульманская риторика ненависти не прекратится, то геноцид вполне возможен». Никто не стал задавать дальнейших вопросов. После ухода Шисслера два сотрудника Facebook задержались в коридоре за дверью конференц-зала. «Он не может говорить это всерьез, – громко сказал один из них. – Это просто невозможно».

Корень проблемы дезинформации, конечно, лежал в технологиях. Facebook была создана для того, чтобы подливать масла в огонь любого высказывания, вызывающего эмоции, даже если это была риторика ненависти: алгоритмы отдавали приоритет сенсационности. Пользователь нажимал на ссылку из соображений любопытства, ужаса или заинтересованности – это было неважно; система видела, что сообщение часто читают, и продвигала его по страницам пользователей в Facebook. Ситуация в Мьянме стала смертельно опасным экспериментом того, что может произойти, когда интернет приходит в страну, где социальная сеть становится основным и пользующимся доверием источником новостей.

Facebook была прекрасно осведомлена о способности своей платформы манипулировать эмоциями людей, о чем весь мир узнал в начале июня 2014 года, когда стало известно о тайно проведенном компанией эксперименте. Эксперимент обнажил как возможности Facebook по проникновению в психику своих пользователей, так и его готовность проверять границы своих возможностей без ведома пользователей.

«Эмоциональные состояния могут передаваться другим людям посредством эмоционального заражения, что приводит к тому, что люди неосознанно испытывают те же эмоции», – пишут исследователи Facebook, изучающие данные, в научной статье, опубликованной в журнале Proceedings of the National Academy of Sciences. Они описали, как в течение одной недели в 2012 году они подменили то, что видели почти 700 000 пользователей Facebook при входе на платформу.

В ходе эксперимента одной группе пользователей Facebook показывали контент, который был по большей части радостным, а другой – грустным. Предметом радостного поста могло быть рождение детеныша панды в зоопарке. Грустный пост мог содержать гневную статью об иммиграции. Результаты впечатляли. Просмотр негативных постов побуждал пользователей выплескивать негатив в собственных публикациях. А чем больше позитивного контента видел пользователь, тем больше была вероятность того, что он будет распространять жизнерадостный контент.

По мнению авторов исследования, это означало, что Facebook продемонстрировал возможность эмоционального заражения без «прямого взаимодействия между людьми» (поскольку невольные подопытные видели только Ленту новостей друг друга). Это было сенсационное открытие.

Как только репортеры, пишущие о технологиях и науке, обнаружили эту работу, ее попадание в заголовки основных СМИ стало лишь вопросом времени. «Facebook обращается с вами как с лабораторной крысой», – гласила одна из статей CNN146. Эксперимент с настроением подтвердил утверждения критиков о способности компании влиять на идеи и вызывать возмущение: Facebook действовала за занавесом, как Волшебник страны Оз. Когда пресса и группы потребителей потребовали от компании объяснений, Сэндберг вместо этого выступила с заявлением, в котором извинилась за неудачный пиар Facebook. «Это было частью текущих исследований, которые компании проводят для тестирования различных продуктов, ничего более. Информация по этому вопросу была плохо организована. И за это мы приносим свои извинения. Мы не хотели вас расстраивать».

Но инженеры Facebook, которые не знали об эксперименте до публикации работы, признали, что она выявила нечто более гнусное в способности Ленты новостей влиять на людей. С годами алгоритмы платформы становились все более изощренными в определении наиболее привлекательных материалов для конкретных пользователей и отдавали им приоритет, помещая в верхнюю часть Ленты. Лента новостей работала как тонко настроенный циферблат, чувствительный к тому, что пользователь чуть дольше задержался на фотографии или потратил больше времени на чтение какой-нибудь статьи. Установив, что пользователь с большей вероятностью будет просматривать определенный тип контента, она выдавала ему как можно больше похожих материалов.

Инженеры видели, что назревает проблема, и неоднократно пытались поднять тревогу среди руководителей. В серии сообщений на Workplace они жаловались на сайты-приманки, которые регулярно выталкивались в топ Ленты, и спрашивали, не нужно ли пересмотреть алгоритм. Один из инженеров разместил ряд примеров ложных или сальных историй, которые становились популярными: некоторые из них, например, утверждали, что у президента Барака Обамы родился внебрачный ребенок или что заговор мировой элиты хранит волшебную сыворотку для вечной молодости. «Неужели это действительно первое, что люди должны видеть в своих Лентах?» – спросил он.

Осенью несколько сотрудников встретились с Коксом и попросили его донести их опасения до Цукерберга. Они настоятельно просили его объяснить генеральному директору, что в алгоритме что-то фундаментально нарушено. «Крис сказал нам, что понимает и тоже видит проблему, – вспоминает один из сотрудников. – Мы сравнили то, что подавалось в Ленте новостей, с нездоровой пищей. Это был напичканный сахаром фастфуд, и мы знали, что продолжать его продвигать – нездоровая идея для всех».

И все же Кокс стоял перед дилеммой. Пользователи Facebook проводили на платформе больше времени, чем когда-либо прежде, и это означало, что системы работают. Сладкий фастфуд вызывал привыкание, и все это знали. Кокс думал о долгосрочных преимуществах такой Ленты новостей.

Через несколько недель инженер вновь связался с Коксом. Тот заверил его, что компания серьезно относится к вопросу. В настоящее время разрабатываются изменения, которые повлияют на Ленту новостей.

1 ... 47 48 49 50 51 52 53 54 55 ... 85
Перейти на страницу:

Комментарии

Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!

Никто еще не прокомментировал. Хотите быть первым, кто выскажется?