Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта - Фрэнк Паскуале
Шрифт:
Интервал:
И это классическая стратегия оптимизации ИИ: значительное число соображений отбрасывается для того, чтобы сосредоточиться на более простых результатах (таких как рекламные доходы), которые может отследить и машина. Но если государство не должно пренебрегать интересами значительных групп людей, чтобы облегчить задачу законодателям и бюрократам, точно так же руководители и владельцы ИИ должны в полной мере учитывать проблематичность и размах их воздействия в мире[325]. Такие фирмы фактически управляют цифровыми репутациями, и действовать они должны соответственно.
Граждане ЕС могут удалить из поисковой выдачи информацию, которая является «неадекватной, нерелевантной, больше нерелевантной или чрезмерной», если только возможность найти такую информацию поиском по имени субъекта не является значительным общественным приоритетом[326]. И это стандарт, определить который на практике так же сложно, как и разницу между искусством и порнографией. Однако пользователи сети, поисковые машины и европейские чиновники приложили все силы к тому, чтобы найти баланс между частной заинтересованностью в приватности и общественным правом знать.
Рассмотрим, к примеру, историю женщины, муж которой был убит в 1990-х гг., а спустя десятилетия она выяснила, что, если ее погуглить, в результатах поиска обнаруживается эта история убийства.
Это классический пример потенциально избыточного влияния определенной информации на жизнь человека. Информация не является ложной, поэтому закон о клевете в этой женщине неприменим. Но вот «право на забвение» она могла использовать. Она подала прошение с требованием исключить эти материалы из поисковых результатов о ней. Работник Google согласился и исключил эти результаты. В этом случае не было никакой противостоящей такому решению общественной заинтересованности в доступности этой истории при любом поиске по имени вдовы[327].
Когда Суд Европейского союза объявил о «праве на забвение», защитники свободы слова (многие из которых финансировались Google) обличали его как атаку на свободу высказывания. Жалобы эти оказались несколько преувеличенными; «право на забвение» никак не влияет на источник проблематичной информации, и нет такого права на свободу слова, согласно которому негативную информацию из частной базы данных люди должны были бы видеть привязанной к имени определенного человека. Кроме того, Google и государственные органы довольно разумно подошли к одобрению поступивших запросов. Правовед Джулиа Поулс собрала некоторые ключевые решения по «праву на забвение», сравнив успешные и безуспешные запросы на исключение из поисковой выдачи[328]. Политикам, которых приговаривали к срокам за мошенничество, обычно отказывали в праве удалить новости об их делах из результатов поисков. Тогда как пациенты с ВИЧ, личность которых была раскрыта, удалили ссылки на материалы с упоминанием их имен. Замечательная работа Поулс показывает, как внимательное применение юридических и этических принципов способно подвести к тонким контекстуальным суждениям, которые позволяют возместить репутационный урон жертвам необоснованно заметных результатов, соблюдая при этом право общества на простой доступ к важным фактам о публичных фигурах или должностных лицах, которые пользуются доверием.
Споры о «праве на забвение» затрагивают многие щекотливые вопросы. Запросы педофилов в Европе также не были удовлетворены, хотя их преступления были совершены десятилетия назад; право общества знать перевесило в этом случае их право начать все с нуля. Японский Верховный суд взял за основу тот же принцип, когда отменил решение суда более низкой инстанции удовлетворить запрос на «право на забвение» одного преступника, совершившего сексуальное нападение[329]. Как показывает японская история, даже опытные юристы могут разойтись во мнениях относительно объема и силы такого права, как «право на забвение». С точки зрения тех, кто хочет создать алгоритмическое правосудие, которое будет вершиться с предсказуемостью и неумолимостью арифметических подсчетов, это доказательство ненадежности человеческого суждения. Но если учесть то, насколько тонким должно быть применение силы в новых цифровых областях, человеческая гибкость и креативность – это на самом деле преимущество[330]. Мы должны хорошенько подумать о том, на какой срок нужно стигматизировать определенных лиц и как технология может непреднамеренно удлинить реальный срок подобной стигматизации. Эксперты в области права, а также этики, культуры и технологии – все они должны участвовать в этом обсуждении[331].
Во многих случаях применения «права на забвение» было довольно сложно принять решение, но именно для такой оценки и такого решения и нужны работники-люди. Сегодня модераторы контента уже удаляют порнографические, содержащие сцены насилия или шокирующие изображения, хотя они получают низкую заработную плату и часто трудятся в нечеловеческих условиях[332]. Учитывая чрезвычайно высокую прибыльность ведущих технологических фирм, они могли бы создать для таких работников условия получше. Первым шагом стало бы признание модерации контента отдельной профессией с ее собственными независимыми стандартами профессионализма и охраной труда.
Страницы с результатами поиска – не какое-то первозданное отражение предзаданной цифровой реальности, о чем слишком хорошо известно жертвам несчастий, несправедливости или озлобленных толп. Такие страницы динамичны, и влияние на них оказывают оптимизаторы поисковых машин, инженеры Google, платные рекламные объявления, люди, проверяющие предлагаемые изменения в алгоритмах, и многие иные факторы. Никто не должен предполагать, что эти результаты непременно являются выражением истины, человеческого мнения, позиции компании или какого-то иного аспекта, который заслуживает надежной охраны свободы слова. Если цели приватности, отсутствия дискриминации и справедливых практик обработки данных и будут достигнуты в цифровую эпоху, статус поисковых машин как процессоров и контролеров, как они обычно сами себя характеризуют, должен быть выше статуса «защитников медиа», который они иногда оппортунистически примеривают. Алгоритмическое упорядочивание информации должно стать предметом дискуссии, основанной на общественных стандартах честности и точности. Иначе придется поставить быструю автоматическую коммуникацию выше человеческих ценностей, демократического формирования воли и надлежащей правовой процедуры.
Приручение автоматической публичной сферы
«Право на забвение» является подтверждением работоспособности самой идеи: даже самые обширные вычислительные процессы могут учитывать человеческие ценности. Другие юридические инициативы могли бы помочь бороться с дискриминацией, предубеждением и пропагандой, которые ныне слишком часто засоряют сетевые пространства (и даже заполоняют их). Государства могут потребовать, чтобы платформы отмечали поисковые результаты, связанные с разжиганием ненависти, и другие крайне оскорбительные материалы, следили за ними и разъясняли их.
Например, законодатели должны потребовать от Google и других крупнейших посредников не выводить ссылки на сайты, отрицающие Холокост, или, по крайней мере, существенно снизить их рейтинг. Есть такие идеологии, которые настолько опасны и дискредитированы, что они не заслуживают алгоритмически генерируемой публичности. По крайней мере государство должно потребовать предостерегающей
Поделиться книгой в соц сетях:
Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!