📚 Hub Books: Онлайн-чтение книгРазная литератураНовые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта - Фрэнк Паскуале

Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта - Фрэнк Паскуале

Шрифт:

-
+

Интервал:

-
+
1 ... 32 33 34 35 36 37 38 39 40 ... 107
Перейти на страницу:
и пользовательским содержанием на Google-картах. Анонимные саботажники начали менять телефоны уважаемых реабилитационных клиник на номера лидогенераторов, которые затем отправляли клиентов в низкокачественные клиники[316]. Каковы бы ни были достоинства «толпы» в других контекстах, когда на кону серьезные деньги, системы, основанные на доверии, легко подорвать[317].

Флорида, уставшая от хитростей бессовестных реабилитационных центров, запретила их маркетинг, вводящий клиентов в заблуждение[318]. Не вполне ясно, насколько эффективным был этот запрет.

Практически в каждом штате в США есть закон о защите прав потребителей, и такие законы, вероятно, запрещали наиболее сомнительные практики лидогенераторов реабилитационных клиник, как и сами эти клиники, еще до того, как они попали в поле общественного внимания. У сотрудников правоохранительных органов просто недостаточно ресурсов, чтобы расследовать каждый подозрительный случай, особенно когда цифровые манипуляторы могут легко скрыть свою идентичность и перенести фирму, если расследование началось, в другое место. Крупные интернет-фирмы должны сами заниматься каким-то отсевом, иначе уязвимые группы населения станут жертвами хищников, пытающихся на них нажиться[319].

Справедливое и инклюзивное правление не может быть алгоритмическим

Когда Конгресс США вызвал Марка Цукерберга на слушания о неоднократно замеченной неспособности его социальной сети отсеивать фейковые новости, манипуляции избирателями и злоупотребления данными, гендиректор Facebook говорил одно и то же: чтобы решить эту проблему, мы работаем над искусственным интеллектом. Критики проявили скепсис. Был, к примеру, такой злой заголовок: «ИИ решит самые неприятные проблемы Facebook. Только не спрашивайте, когда и как» [320]. На телеконференции, посвященной финансовой деятельности компании, Цукерберг признал, что на определенных фронтах прогресс может оставаться довольно медленным: «Гораздо проще создать ИИ-систему, которая будет распознавать сосок, чем высказывания, разжигающие ненависть», – пояснил он. Другими словами, поскольку Facebook называет себя «ИИ-компанией», запрет определенных изображений обнаженного тела на платформе получил более высокий приоритет среди менеджеров, чем искоренение высказываний, разжигающих ненависть.

Это мимолетное замечание позволило замять важные споры о цензуре, ценностях и ответственности в сети. Есть совершенно разные взгляды на то, следует ли вообще запрещать изображения обнаженного тела в крупных социальных сетях, и что должно обладать более высоким приоритетом. Политика сайта не всегда последовательна и не исполняется автоматически. Одна из компаний Facebook, а именно Instagram, не позволяет пользователям публиковать фотографии обнаженных тел или их цифровые репрезентации, но допускает рисованные изображения такого рода[321]. Возможно, это различие обосновано стремлением защитить художественные изображения наготы, но запретить порнографические или эксплуатационные. Юридические нормы, определяющие непристойность, построены на подобных различиях; однако также они встроены в гораздо более обширную систему оценок. Вне такого контекста различие физического и цифрового не является надежным критерием различия эстетического и неэстетического: легко представить рисованную порнографию и цифровые рисунки или фотографии обнаженных тел, обладающие значительной художественной ценностью.

Однако различие цифрового и нецифрового очень полезно в другом отношении: намного проще представить будущую систему машинного зрения, которая легко определяет разницу между краской и пикселями, чем машину, которая бы уверенно отличала кадр из начала порнографического фильма от художественной фотографии, документирующей жизнь секс-работников. Первая – задача по простому распознаванию паттерна, и можно представить себе, как сотни тысяч изображений будут безо всяких проблем относиться к той или другой категории, например, силами работников платформы Mechanical Turk компании Amazon (или даже автономной системой машинного обучения)[322]. Вторая задача является предметом морального и эстетического суждения, и это суждение может не только меняться со временем, но также по-разному выноситься в разных местах. Мы не должны позволять ограничениям определенного инструмента (ИИ) задавать половинчатый или неуклюжий подход к сложному культурному и политическому вопросу (сколько изображений обнаженных тел может быть в социальных сетях, которые легко доступны детям)[323].

В хорошо выстроенной политической структуре общество обсуждает пределы непристойности, а регулирующие органы должны решать, что запрещать и что игнорировать, при этом суды могут вступиться за права тех, кто был несправедливо отсеян предубежденными или пристрастными людьми и организациями, принимающими решения. Даже если бы могли в принципе закодировать в 2020 г. суждения о том, какие типы изображений на платформах допустимы, а какие нет, какая ценность была бы у такого кода в 2030 г. или 2040 г.? Взгляды меняются, аудитория и цели платформ расширяются и сокращаются, о чем, к своему неудовольствию, узнали владельцы Tumblr после запрета в этой сети порнографии. Управление в такой ситуации – постоянная обязанность, которую нельзя механизировать раз и навсегда. Также не может быть простым решением и добровольный вклад пользователей, как выяснил Amazon, когда гомофобы отметили тысячи книг о гей-культуре меткой «только для взрослых», чтобы они автоматически скрывались из выдачи. Целеустремленные экстремисты, которым помогают боты и хакеры, могут легко пересилить крепкое большинство. Так называемые тенденции к демократизации в интернете столкнулись с циркулярной пилой монополистов, отказывающихся от своей ответственности, заинтересованных манипуляторов и автоматической «речи» ботов.

Убежденные технофилы готовы утверждать, что решение о том, является ли нагота эстетической или непристойной, заслуживающей или незаслуживающей внимания, – это вопрос исключительно вкуса. Обычно они считают, что вкус «ниже» машинного интеллекта, то есть это какое-то второсортное знание, поскольку его нельзя свести к алгоритму. Но эту иерархию легко перевернуть, отдав приоритет нестандартизируемым суждениям, а не тем, что определяются данными и правилами. Возможно, мы не хотим инвестировать ресурсы в то, чтобы такие решения принимались людьми, выносящими решения и спорящими. Но это должно быть специальное решение о распределении ресурсов, а не следствие диктата неизбежности прогрессивного развития по направлению к искусственному интеллекту.

Право быть забытым: испытание человечной автоматизации

Каждый раз, когда жертвы манипуляций предлагают те или иные меры регулирования, им предсказуемо возражает хор голосов, утверждающих, что, как бы плохо технологические фирмы ни справлялись с этой задачей, государственное вмешательство будет еще хуже. Однако у нас уже есть один важный пример успешной и человечной автоматизации публичной сферы: европейское регулирование автоматического поиска имен, известное как «право на забвение». Для понимания важности этого права представьте, что кто-то создал сайт о худшем, что с вами когда-либо случалось, или о вашем худшем поступке, и что этот сайт всегда выводится в топе результатов при поиске по вашему имени. В США вы в таком случае юридической помощи не найдете; корпоративные лоббисты и идеологи либертарианства выступили единым фронтом, чтобы сделать подобное регулирование политически неприемлемым. Но в Европе «право на забвение» гарантирует, что неумолимая логика чисто алгоритмического поиска не приклеит к человеку навечно «алую букву».

«Право на забвение» – хорошее испытание технологии управления, разделяющей ценности политического общества в целом (а не только тех, кому

1 ... 32 33 34 35 36 37 38 39 40 ... 107
Перейти на страницу:

Комментарии

Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!

Никто еще не прокомментировал. Хотите быть первым, кто выскажется?