Создатели искусственного гения. О бунтарях, которые наделили интеллектом Google, Facebook и весь мир - Кейд Метц
Шрифт:
Интервал:
На следующий день после того, как Померло объявил свой челлендж, компания Facebook, продолжавшая отрицать существование проблемы, провела круглый стол для прессы в своей корпоративной штаб-квартире в Менло-Парке545. Там был Ян Лекун546, и репортер спросил его, способен ли ИИ обнаруживать фальшивые новости547 и другой токсичный контент, который так стремительно распространяется по социальной сети, включая показы сцен насилия в прямом эфире. В частности, двумя месяцами ранее мужчина повесился в Бангкоке, и это все в режиме реального времени снималось и транслировалось через Facebook. Лекун сослался на этическую дилемму. «Где грань между фильтрацией и цензурой?548 Между свободой самовыражения и благопристойностью? – сказал он. – Технические возможности сами по себе либо уже существуют, либо могут быть созданы. Вопрос в другом: как правильно эти возможности использовать? А это уже не по моей части».
Внешнее давление на компанию продолжало нарастать, и Шрепфер начал перемещать больше ресурсов в группу прикладного машинного обучения в надежде на то, что она сумеет-таки очистить социальную сеть от токсичной активности, будь то порнография или фейковые аккаунты. К середине 2017 года обнаружение нежелательного контента занимало больше времени и внимания членов команды, чем любая другая задача. Шрепфер назвал эту задачу «безусловно главным приоритетом». В то же самое время компания продолжала расширять число внештатных подрядчиков, которые просматривали контент «вручную». Искусственный интеллект сам не справлялся.
Поэтому, когда Цукерберг давал показания перед Конгрессом после утечки данных, организованной Cambridge Analytica549, он вынужден был признать, что системы мониторинга Facebook все еще не обходятся без участия людей550. Искусственный интеллект может помечать определенные виды изображений и текста551, например фотографии обнаженного тела или лозунги террористов, но после этого в дело вступают люди – огромное количество модераторов, работающих по договорам, в основном из-за границы. Они должны просмотреть каждый помеченный пост и решить, следует ли его убрать. Какими бы точными ни были инструменты ИИ в определенных ситуациях, им все еще не хватало гибкости человеческого здравомыслия. Например, искусственному интеллекту трудно отличить порнографическое изображение от фотографии матери, кормящей ребенка грудью. Кроме того, сама ситуация, в которой искусственному интеллекту приходилось учиться, не была статичной: по мере того как компания Facebook создавала системы, способные идентифицировать все больше разновидностей токсичного контента, в социальной сети появлялись новые категории материалов, которые эти системы еще не умели идентифицировать. Когда сенатор-демократ от Калифорнии Дайэнн Файнстайн спросила Цукерберга, как он собирается помешать внешним силам552 вмешиваться в американские выборы, он снова указал на ИИ. Но он признал, что ситуация сложная. «Мы внедряем новые инструменты искусственного интеллекта553, которые лучше справляются с выявлением поддельных аккаунтов, пытающихся вмешиваться в выборы или распространять дезинформацию. Однако природа этих атак такова, что, как вы знаете, в России есть люди, чья работа как раз и заключается в том, чтобы использовать наши системы в своих интересах, – сказал он. – Но это же гонка вооружений, верно?»
* * *
В марте 2019 года, через год после того, как Цукерберг давал показания на Капитолийском холме, террорист убил пятьдесят одного человека в двух мечетях новозеландского Крайстчерча, ведя в Facebook прямую трансляцию нападения. Компании потребовался час, чтобы удалить видео из своей социальной сети, и за этот час оно распространилось по всему интернету. Несколько дней спустя Майк Шрепфер сидел с двумя журналистами в штаб-квартире Facebook554 и рассказывал им о том, какие усилия предпринимает компания по выявлению и удалению нежелательного контента с помощью искусственного интеллекта. На протяжении получаса, рисуя на доске схемы цветными маркерами, он показывал, как компания в автоматическом режиме выявляет рекламу марихуаны и экстази. Затем репортеры спросили о перестрелках в Крайстчерче. Он молчал целую минуту, и его глаза заблестели от слёз. «Мы работаем над этим прямо сейчас, – сказал он. – Такие проблемы в одночасье не решаются. Но я не хочу, чтобы этот наш разговор повторился через полгода».
На протяжении интервью он несколько раз был близок к тому, чтобы прослезиться, говоря о том, какого масштаба сложности стоят сейчас перед Facebook и какая ответственность лежит на компании. Несмотря на все это, он продолжал настаивать на том, что ИИ является хорошим ответом на все эти вопросы и вызовы, что со временем он облегчит сизифов труд компании и позволит вернуть ситуацию под контроль. Но под давлением журналистов, он признал, что эта проблема никогда не исчезнет полностью. «Я действительно думаю, что развязка когда-нибудь наступит, – сказал он. – Но вряд ли это будет в такой форме, что, дескать, ну вот все проблемы решены и можно собираться домой».
Искусственный интеллект создавался людьми, и многие его ошибки были результатом действия человеческого фактора. Когда видео из Крайстчерча появилось на Facebook, системы фильтрации не пометили его, потому что оно было совсем не похоже на то, что эти системы были обучены распознавать. Это было больше похоже на компьютерную игру-стрелялку от первого лица. Специалисты Facebook обучали системы ИИ распознавать сцены насилия на своем сайте, используя видео с собаками, нападающими на людей, с людьми, пинающими кошек или бьющими других людей бейсбольными битами. Но новозеландское видео было совсем иного рода. «Это видео совсем не похоже на наши учебные материалы», – сказал Шрепфер. Как и другие члены его команды, он смотрел видео несколько раз, пытаясь понять, как же все-таки научить систему, чтобы она могла автоматически распознавать что-то в этом роде. «Лучше бы я его не видел», – сказал он.
Когда в социальной сети стала появляться реклама марихуаны, Шрепфер и его команда создали системы,
Поделиться книгой в соц сетях:
Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!