Мир-фильтр. Как алгоритмы уплощают культуру - Кайл Чейка
Шрифт:
Интервал:
Качество – понятие, конечно, субъективное, но настроение этого человека отражает ощущение пользователей, что алгоритмы неправильно понимают и неправильно оценивают ситуацию. “Это как экзамен, только вы не знаете, что будет на этом экзамене и как его успешно сдать”, – поясняет Джавер. И не только пользователи не знают, что происходит. Джавер продолжает: “В итоге даже люди, создающие алгоритмы, не могут объяснить вам, какой фактор отвечает за то или иное решение; сложность алгоритма настолько высока, что разделить факторы просто невозможно”.
Неудачное общение с алгоритмом может привести к немедленному падению доходов хозяев, в то время как они, как и все мы, рассчитывают на стабильный доход. (Непоследовательность алгоритмического продвижения заставляет нас заниматься им и нервничать по этому поводу еще сильнее – подобно тому, как мы многократно дергаем рычаг игрового автомата ради джекпота.) Платформы гиг-экономики[18], такие как Airbnb, давно обещали гибкий график работы и альтернативные способы заработка или дополнительного дохода, но они также создали новую форму труда, связанную с необходимостью отслеживать изменения алгоритмических приоритетов. Владельцы недвижимости беспокоятся о поисковом алгоритме Airbnb, художники – об алгоритме Инстаграма, а музыканты – об алгоритме Spotify. Исследователи обнаружили, что владельцы жилья отреагировали на подобную алгоритмическую тревожность созданием “народных поверий” – суеверных трюков, которые должны были способствовать более эффективному алгоритмическому продвижению и улучшению результатов поиска – так же, как я раньше размещал ссылки на свои статьи с фальшивыми свадебными объявлениями. Некоторые из этих стратегий включали в себя постоянное обновление календаря объявлений, изменение данных в профиле и даже более частое открытие сайта Airbnb в течение дня. Такие трюки напоминают уловку ребенка, который кладет ложку под подушку, чтобы вызвать снегопад, из-за которого отменят школу[19], и, надо думать, эффективны в той же степени. Как выяснили исследователи, хозяева “обычно сомневались в пригодности подобных теорий, но, несмотря на неуверенность, все равно совершали эти действия в попытке повлиять на алгоритм”.
Алгоритмическая тревожность – нечто вроде современной чумы. У многих пользователей она вызывает склонность (похожую на обсессивно-компульсивное расстройство) к повторению одних и тех же ритуалов, потому что, когда такие ритуалы “срабатывают”, эффект оказывается весьма убедительным, выраженным как в психологическом приливе дофамина от направленного внимания, так и в потенциальном экономическом вознаграждении, если ваше присутствие в Сети каким-то образом монетизируется. Это лежит в основе многих наших онлайн-действий: выбора правильной фотографии в профиле, создания привлекательной сетки снимков в аккаунте Инстаграма, подбора правильных ключевых слов в рыночном объявлении. Мы беспокоимся, что наши посты либо не увидят нужные люди, либо увидят слишком многие (если они завирусятся и выставят нас на обозрение чужакам). В этих поисках внимания мы испытываем эмоциональное потрясение: в итоге мы одновременно и перевозбуждаемся, и цепенеем, подобно игроку у автомата, с остекленевшим взглядом ожидающему выпадения одинаковых символов.
Алгоритмическая тревожность возникает из-за резко асимметричных отношений между пользователем и алгоритмом. Для отдельного пользователя пытаться предсказать или продиктовать результат работы алгоритма – все равно что пытаться управлять приливом. Продолжая эту метафору, можно сказать, что все, что может сделать пользователь, – оседлать уже образовавшуюся волну. У компаний нет особого стимула снижать эту тревожность, потому что замешательство пользователя может стать полезным для бизнеса. Когда продукт компании оказывается неэффективным или пользователь сталкивается с трудностями, в этом можно обвинить непрозрачную сущность “алгоритма”, который воспринимается как внешний объект относительно как пользователей, так и самой компании, поскольку уподобляется непрозрачным “черным ящикам”. Эксплуатация выдается за случайный сбой, а не за намеренную корпоративную политику. В действительности же такая компания, как Фейсбук, полностью контролирует свои алгоритмические системы и может менять их по своему усмотрению – или отключать.
Алгоритмическое беспокойство возлагает бремя действий на человека, а не на бизнес – именно пользователь должен изменить свое поведение, либо он рискует исчезнуть. Пользователи иногда жалуются на “теневую блокировку”, когда их посты или контент на платформе внезапно теряют прежний уровень интереса. Пользователи часто опасаются, что их аккаунт оказался заблокирован без предупреждения или обращения к какому-то лицу, принимающему решения; однако, возможно, просто без предупреждения изменились какие-то алгоритмические приоритеты, и нужный трафик больше не идет. Эффект возвращает нас к механическому турку: мы не всегда можем отличить работу технологии от иллюзии работы технологии, при этом восприятие может быть столь же убедительным, как и реальность.
В своей диссертации 2019 года под названием “Алгоритмическая тревожность в современном искусстве” Патрисия де Врис определила алгоритмическую тревожность как состояние, при котором “возможное «я» воспринимается ограниченным и управляемым алгоритмическими режимами”. Ее слова представляются потрясающе точными. Возможности, которые мы усматриваем для себя, – наши способы самовыражения и творчества – теперь существуют в рамках структур цифровых платформ. Последствия такого беспокойства – “алгоритмический детерминизм, фатализм, цинизм и нигилизм”, как пишет де Врис. Это приводит к ощущению того, что, поскольку мы, пользователи, не можем контролировать технологию, мы равным образом можем уступить ограничениям алгоритмической культуры и относиться к ней как к неизбежности. Многие пользователи, недовольные и неспособные представить себе альтернативу, уже впали в такое состояние отчаяния.
Де Врис стала наблюдать за этим культурным сдвигом еще в 2013 году, когда увидела несколько музейных выставок, где выставлялись работы художников, критически относящихся к автоматизированному надзору и сбору данных. Хотя алгоритмическая подача информации тогда только начала распространяться, алгоритмы попадали в заголовки новостей из-за таких событий, как резкий обвал индекса Доу Джонса 6 мая 2010 года, вызванный алгоритмической торговлей акциями, и из-за появления технологий наподобие распознавания лиц. Де Врис сказала мне, что к середине десятилетия, когда она приступала к своему исследованию, алгоритм стал “своего рода объектом нашего очарования”. Алгоритм оказался призраком, преследовавшим каждого, кто сталкивался с цифровыми платформами и их все более навязчивым присутствием в нашей жизни. Это не значит, что мы понимали, что именно делают алгоритмы: как заметила де Врис, “при страхе высоты дело не в высоте, и в алгоритмической тревожности дело не просто в алгоритмах”.
Чтобы двигаться дальше, мы должны отделить влияние алгоритмических рекомендаций как технологии от того, что мы привыкли принимать их в качестве основных контролеров нашего онлайн-общения. В конце концов, алгоритмы неотделимы от используемых ими данных, которые порождаются и постоянно обновляются людьми. Фактическое влияние сосуществует со страхом влияния, который в равной степени является манипулятивным. Алгоритмы вошли в нашу жизнь, обещая принимать за нас решения, предугадывать наши мысли и желания. Мир-фильтр представляет собой становление психического
Поделиться книгой в соц сетях:
Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!