📚 Hub Books: Онлайн-чтение книгДомашняяЭпоха надзорного капитализма. Битва за человеческое будущее на новых рубежах власти - Шошана Зубофф

Эпоха надзорного капитализма. Битва за человеческое будущее на новых рубежах власти - Шошана Зубофф

Шрифт:

-
+

Интервал:

-
+
1 ... 202 203 204 205 206 207 208 209 210 ... 224
Перейти на страницу:

На нашем языке информация, которую хотел получить Дайе, требовала доступа к «теневому тексту», включая, в частности, подробный анализ таргетинга, который определял рекламу, которую ему показывали в Facebook. Ответ корпорации указывает на то, что данные Hive являются частью этого эксклюзивного «второго текста», в котором поведенческий излишек стоит в очереди на изготовление прогнозных продуктов[1222]. Этот процесс полностью отделен от «первого текста», «который видят пользователи».

Facebook ясно дает понять, что теневой текст недоступен пользователям, несмотря на продвижение своих инструментов самообслуживания, которые должны предоставить пользователям доступ к их личным данным, хранящимся в компании. В самом деле, конкурентная динамика надзорного капитализма делает теневой текст важнейшим проприетарным преимуществом. Любая попытка взломать его содержание будет восприниматься как угроза жизненным интересам; ни один надзорный капиталист добровольно не предоставит данные из теневого текста. Только закон может бросить этот вызов патологическому разделению знания.

После скандала с Cambridge Analytica в марте 2018 года Facebook объявил, что расширит диапазон персональных данных, которые позволит выгружать пользователям, но даже эти данные целиком и полностью лежат в рамках первого текста, состоящего главным образом из информации, которую предоставили сами пользователи, включая информацию, которую они удалили, – друзья, фотографии, видео, рекламные объявления, по которым они кликнули, посещенные страницы, сообщения, местоположения и т. д. Эти данные не включают поведенческий излишек, прогнозные продукты и судьбу этих прогнозов, используемых для модификации поведения, покупаемых и продаваемых. Когда вы выгружаете свою «личную информацию», вы получаете доступ к сцене, а не к закулисью – к ширме, не к волшебнику[1223].

Ответ Facebook Дайе иллюстрирует еще одно важное последствие крайней асимметрии знания. Компания настаивала на том, что доступ к запрашиваемым данным требовал преодоления «огромных технических проблем». По мере того как потоки поведенческого излишка сливаются вместе в рамках основанных на машинном обучении производственных процессов, сам объем исходных данных и методов анализа начинает выходить за рамки человеческого понимания. Рассмотрим такую тривиальную вещь, как подбор машинами Instagram изображений для показа вам. Расчеты основаны на различных потоках поведенческого излишка от искомого пользователя, затем других потоков от сети друзей этого пользователя, затем идут потоки от действий людей, которые подписаны на те же учетные записи, что и искомый пользователь, затем данные и социальные связи этого пользователя в Facebook. Когда он, наконец, применяет логику ранжирования, чтобы предсказать, какие изображения пользователь захочет увидеть дальше, этот анализ также использует данные о прошлом поведении пользователя. В Instagram этим «обучением» занимаются машины, потому что люди на такое не способны[1224]. В более «судьбоносных» случаях операции будут, скорее всего, не менее, а более изощренными.

Это напоминает наш разговор о «движке прогнозирования» Facebook FBLearner Flow, где машины получают десятки тысяч точек данных, извлеченных из поведенческого излишка, ставя под сомнение само понятие права на оспаривание «автоматического принятия решений». Чтобы действительно оспорить алгоритм, потребуются новые серьезные полномочия и власть, в том числе машинные ресурсы и экспертиза, способные проникнуть в ключевые области машинного интеллекта и разработать альтернативные подходы, доступные для проверки, обсуждения и противодействия им. Действительно, один эксперт уже предложил создать правительственное агентство – аналог Управления по надзору за качеством пищевых продуктов и медикаментов, но для алгоритмов» – для надзора за разработкой, распространением, продажей и использованием сложных алгоритмов, утверждая, что существующие законы «окажутся не в силах решать сложнейшие загадки регулирования, которые ставят алгоритмы»[1225].

Опыт Дайе – это всего лишь одна из иллюстраций самоподдерживающегося характера патологического разделения знания и неподъемного бремени, которое ложится на людей, пытающихся оспорить его несправедливость. Дайе – активист, и его целью было не только получить доступ к данным, но и задокументировать трудность и даже абсурдность этого начинания. Учитывая эти реалии, он предполагает, что правила защиты данных сопоставимы с законами о свободе информации. Процедуры запроса и получения информации в соответствии с этими законами несовершенны и обременительны, и, как правило, их задействуют юристы, но тем не менее они необходимы для демократической свободы[1226]. Несмотря на то что для эффективного оспаривания потребуются решительные личности, один человек не сможет вынести бремя справедливости, так же как отдельный работник в первые годы XX века не мог нести бремя борьбы за справедливую заработную плату и условия труда. Эти проблемы XX века требовали коллективных действий, и сегодняшние требуют того же[1227].

1 ... 202 203 204 205 206 207 208 209 210 ... 224
Перейти на страницу:

Комментарии

Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!

Никто еще не прокомментировал. Хотите быть первым, кто выскажется?