📚 Hub Books: Онлайн-чтение книгРазная литератураМир-фильтр. Как алгоритмы уплощают культуру - Кайл Чейка

Мир-фильтр. Как алгоритмы уплощают культуру - Кайл Чейка

Шрифт:

-
+

Интервал:

-
+
1 ... 62 63 64 65 66 67 68 69 70 ... 96
Перейти на страницу:
переменные и весовые коэффициенты, входящие в состав алгоритмов, с которыми мы взаимодействуем, должны быть доступны и открыты – словно вы смотрите на шестеренки, приводящие в движение стрелки часов. В идеальной форме прозрачность – это “метод, позволяющий видеть, понимать и своевременно управлять сложными системами”, как сформулировали Майк Ананни и Кейт Кроуфорд в статье 2016 года в журнале New Media & Society. Знание того, как и почему вам рекомендовали тот или иной пост, способствует развеиванию атмосферы алгоритмической тревожности, которая окружает наш онлайн-опыт, поскольку мы могли бы выяснить, какие наши действия учитываются в рекомендациях. Тем не менее пользователи по-прежнему отвечают за себя: знать, как работает алгоритм, – не значит контролировать его. “Прозрачность сама по себе не может обеспечить подконтрольные системы”, – пишут Ананни и Кроуфорд.

В 2015 году Федеральная торговая комиссия создала Управление технологических исследований и расследований, в полномочия которого входило рассмотрение возможностей реализации алгоритмической прозрачности. Уже тогда было ясно, что алгоритмы играют все большую роль в жизни людей: “Потребители ежедневно взаимодействуют с алгоритмами, вне зависимости от того, знают они об этом или нет. На сегодняшний день у нас очень мало сведений о том, как работают эти алгоритмы, какие стимулы стоят за ними, какие данные используются и как они структурированы”, – сказал в 2015 году в интервью PC World Ашкан Солтани, занимавший в то время пост главного технологического специалиста FTC. Но особого прогресса в этом направлении достичь не удалось – особенно в контексте социальных сетей. Действия FTC чаще сосредоточены на регулировании цифровой рекламы, криптовалют и конфиденциальности, нежели на работе лент.

Внедрив несколько лет назад описанную функцию объяснения, дальше в сторону прозрачности Фейсбук не пошел. Когда я экспериментировал с этой функцией в течение нескольких месяцев в своей собственной ленте, она чаще всего выдавала мне сообщение, что этот пост “популярен по сравнению с другими постами, которые вы видели”. Но такое можно сказать о практически любом алгоритмически рекомендованном фрагменте контента, найденном на любой платформе.

Еще в 2021 году Ник Клегг, президент по международным отношениям материнской компании Фейсбука Meta (ранее он был заместителем премьер-министра Соединенного Королевства), все еще прогнозировал путь к большей прозрачности. “Вы должны иметь возможность общаться с алгоритмом и сознательно корректировать или игнорировать его прогнозы”, – написал он в посте на платформе Medium под названием “Вы и алгоритм: для танго нужны двое”. По мнению Клегга, у пользователя должна иметься возможность “изменить свой личный алгоритм при холодном свете дня – используя свободное пространство, встроенное в дизайн платформы”. Описание пространства, отделенного от рекомендаций, впечатляет, однако работодатель Клегга мало что из этого воплотил в жизнь. Один из немногих способов управления лентами, который Фейсбук предоставляет пользователям, – выбор аккаунтов и групп, которые получат повышенный приоритет, попав в категорию “Избранное” (это означает, что алгоритм будет продвигать их чаще), или пониженный приоритет с помощью функции Snooze (“Дремота”) (то есть какой-то конкретный аккаунт будет появляться реже, но лишь на время). Достаточно быстро алгоритм снова заявит о себе. Пользователь не может сбалансировать круг тем, выбрать настройку, чтобы видеть больше своих друзей, а не новости или ослабить политический надрыв в пользу позитивных новостей. Хотя лента каждого человека выглядит по-разному, подстраиваясь под наши интересы и привычки, все они работают по одному и тому же принципу, продиктованному корпорацией.

Гейд покинул Фейсбук в октябре 2018 года. Он решил заняться проблемой прозрачности алгоритмов самостоятельно, создав для этого новую компанию под названием Fiddler. Fiddler помогает своим клиентам анализировать модели машинного обучения и заглядывать внутрь них – например, выяснять, почему алгоритмический процесс в банке одному клиенту предлагает кредит автоматически, а другому отказывает или почему приложение с голосовым управлением (скажем, Alexa компании Amazon) постоянно неправильно интерпретирует то или иное слово. Это также может дать гораздо более глубокое представление о том, почему алгоритм рекомендаций Фейсбука продвигает определенный контент в ленте – если Фейсбук позволит компании Fiddler получить доступ к своим данным и моделям.

Fiddler создает панель с переменными и результатами, позволяя своим клиентам опытным путем настраивать их, а затем обновлять внутренние модели с учетом полученных результатов. Ее программное обеспечение также может заглянуть внутрь тех алгоритмических систем, которые так часто называют черными ящиками. Гейд сказал мне, что термин “черный ящик” – “это небольшое преувеличение”. В то время как машинное обучение разрабатывает абстрактные схемы, которые, возможно, непостижимы для человека, другие машины вполне могут разобраться в них. “Fiddler дает вам возможность взглянуть на структуру”, – заявил он.

Гейд продемонстрировал мне панели Fiddler в видеочате. После того как компания загружает свои модели и данные, программное обеспечение может “измерить справедливость”, протестировав их на конкретных примерах, например, на пользователях разных гендеров и рас, и убедиться, что результаты согласуются. Многие рекомендательные алгоритмы основаны на интерпретации контента, оценивая тексты (сообщения, подписи или отзывы пользователей), чтобы определить релевантность той или иной вещи. Но алгоритмы могут интерпретировать язык неправильно. Гейд показал мне случай, когда модель приписывала слову “гей” весьма негативную коннотацию, а это означает, что контент, содержащий это слово, не получал приоритета. Это может оказаться серьезной ошибкой, если это слово имеет положительное значение, – или, возможно, его следует интерпретировать как нейтральное. Если автоматические системы модерирования контента или рекомендательные системы неверно толкуют какое-то слово или поведение, “вы потенциально заглушите целую демографическую категорию”, – отмечает Гейд. Вот почему так важно иметь возможность видеть, что происходит вокруг того или иного алгоритмического решения.

Наглядным примером вреда непрозрачности стал Твиттер. Когда Илон Маск приобрел эту социальную сеть в 2022 году, появилась надежда на то, что предприниматель поможет этому медленно развивающемуся сервису реализовать свой потенциал. Однако дальше последовала череда случайных изменений и полумер, которые чаще всего ухудшали восприятие пользователей, особенно когда дело касалось ленты. Казалось, что все варианты ленты Твиттера – в мобильном приложении, на сайте или в программном обеспечении Tweetdeck – функционировали по-разному. Пользователь мог переключиться на ленту “Последнее” (предполагалось, что твиты при этом будут располагаться в хронологическом порядке), однако обнаруживал странные отклонения – например, группы твитов от аккаунтов, оплативших верификацию в Твиттере, и постоянные вставки рекомендуемых твитов. Я начал ощущать, что не могу доверять тому, как алгоритмическая лента функционирует в течение дня, не говоря уже о годах. Хотя я считал этот сервис полезным, подобное напомнило, что я никогда не знал, что происходит за кулисами. Не было ни прозрачности, ни тем более стабильности, потому что Твиттер не нес реальной ответственности перед своими пользователями.

Публикация или продвижение

Цифровые платформы не только не отвечают за объяснение своих

1 ... 62 63 64 65 66 67 68 69 70 ... 96
Перейти на страницу:

Комментарии

Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!

Никто еще не прокомментировал. Хотите быть первым, кто выскажется?