Конец индивидуума. Путешествие философа в страну искусственного интеллекта - Гаспар Кёниг
Шрифт:
Интервал:
Чтобы вернуть смысл ИИ, каждый должен был бы сформулировать собственную «первую директиву», заранее решив, какие нормы он хочет вменить алгоритмам, которые им управляют. Иначе говоря, надо иметь возможность применить свою моральную прерогативу, заранее определив приемлемый для себя nudge, сознательно и добровольно. Так можно вернуть способность к самостоятельному принятию решений, восстановить в себе свободного волителя. Но чтобы воспользоваться оптимизацией предпочтений при помощи ИИ, можно будет поместить свой выбор в глубины кода, как в подсознание, даже если время от времени придется к нему возвращаться. Каждый станет «понукателем» своих «понуканий», nudge: машине можно будет делегировать свои повседневные решения, но не процесс, который к ним привел…
Тотчас же исчезнет бо́льшая часть этических вопросов, встающих в связи с ИИ, которые казались неразрешимыми: дело в том, что они воспринимались как всеобщие, а их следует ставить перед каждым конкретным индивидом. Вернемся к примеру с беспилотными автомобилями, которые якобы должны «сами» выбирать, кем пожертвовать – водителем или пешеходом. Каждый при помощи персональной «первой директивы» мог бы проинформировать автопроизводителя о своем выборе. Эти фундаментальные параметры, прописанные ясно и добровольно, не смогут модифицироваться в процессе машинного обучения, даже если создают неоптимальные ситуации для самого человека или для всей группы. Общество научится, как всегда и происходило, учитывать ограничивающий фактор, каким является существование различных индивидов, более или менее доброжелательных, более или менее альтруистичных. Тогда человек будет принимать на себя моральные последствия своего выбора, будет жить с сознанием того, что он сбил или может сбить пешехода. В этом случае больше не понадобится признавать роботов юридическим лицом: ответственность за их действия естественным образом будет возлагаться на того, кто составил и подписал «первую директиву».
Закон же будет черпать легитимность в том, что определяет поле для маневра в моральном выборе. Например, можно будет, если уж на то пошло, выбирать между своей собственной смертью и смертью другого человека, как это происходит в нашем обществе 1.0, где мало кто из водителей добровольно бросится в кювет, чтобы избежать столкновения с пешеходом. Однако нельзя будет требовать от «первой директивы» разрешения умышленно их убивать. Хотя сегодня и кажется, что алгоритмы оставили далеко позади процесс коллективного урегулирования – «систему сдержек и противовесов», как его называет Гарри Клур, – в этом случае он возродится с новой силой. С одной стороны будут находиться ответственные индивиды, с другой – закон, который надо соблюдать, а между ними – свобода для действия в зависимости от моральных правил, которые каждый устанавливает для себя сам.
Та же самая логика может применяться и в случае медиков, которые бы заранее описывали свою концепцию оптимального лечения, позволяя ИИ комбинировать эту инструкцию с его собственным диагнозом. Когда речь идет о рынке труда, я мог бы четко определить свои предпочтения, прежде чем вручить судьбу алгоритмам ZipRecruiter. На сайтах знакомств все старались бы представить характеристики своего идеального партнера, пусть даже им не раз придется ошибаться. Мы бы вернули способность самостоятельно обдумывать свой выбор, взяв на себя всю ответственность и выразив нашу глубокую индивидуальность через концепцию «первой директивы». В этом случае процесс выработки решения, которым так дорожит Деннет, был бы соблюден. А затем мы позволили бы алгоритмам принимать за нас бытовые решения, возможно, менее эффективно, но с большим уважением к многообразию наших представлений о мире. Речь идет не о том, чтобы отказаться от вычислительной мощи ИИ, но о том, чтобы ее контролировать. Как Улисс, привязавший себя к мачте корабля, чтобы не поддаваться пению сирен, мы будем выполнять работу по делиберации, прежде чем пускаться в сотни ежедневных приключений. В какой-то мере речь о том, чтобы «предустановить» свободного волителя[196].
Разумеется, хитрость Улисса имеет смысл только тогда, когда он может себя отвязать. В «первую директиву» в любой момент можно будет внести изменения, но только при помощи подтвержденного действия ее автора, а не автоматически. Возьмем, например, выбор книг. Здесь следует избегать двух ловушек: с одной стороны, не стоит слепо следовать рекомендациям Amazon; с другой – нельзя довольствоваться лишь ограниченным выбором книг. Параметры, который я сам записал в «первой директиве», позволят мне следовать рекомендациям, сохраняя контроль над собственным вкусом. Поэтому их придется регулярно пересматривать, чтобы они не служили тормозом для моего личностного роста. Если однажды я проявил интерес к аналитической философии, у меня должна остаться возможность в любой момент дополнить его интересом к эротическим романам XVIII века. Однако ни в коем случае нельзя позволять машинному обучению Amazon производить эту модификацию за меня – если машина, например, заметит, что я зачастил на порносайты. Потому что я должен сам морально принять свой интерес к этому предмету (кстати, вполне простительный после перебора с философской литературой). Это условие, которое позволит мне избежать разбросанности «дивида», бездумно порхающего от одного наслаждения к другому, и сформироваться в качестве автономного индивида.
Идеал «первой директивы», таким образом, представляет собой триумф личного выбора над «коллективной полезностью», индивидуальной ответственности – над биохимическим фатализмом, Милля – над Бентамом. Это право на заблуждение, которое мы впишем в самое сердце ИИ.
В защиту права владения персональными данными
Остается узнать, какие инструменты нам нужны для введения в действие «первой директивы». Я бы довольствовался здесь простыми гипотезами: главное – утвердить на прочных философских основаниях ясное видение цели, которой нужно достичь. Специалисты по ИИ, вероятно, могут придумать другие решения.
Впрочем, есть вероятность, что технология сама принесет решение созданных ею проблем. Так, мы наблюдаем разработку методов машинного обучения, пытающихся ввести фактор серендипности. Значит, можно надеяться, что ИИ все-таки не обречен на утилитаризм. Это одно из направлений сегодняшних фундаментальных исследований. Кеннет Стенли, ученый, разоблачающий миф о целях и задачах, разработал процедуру «открытия нового», когда роботу дается единственная инструкция – попытаться произвести необычное действие, избегая любого целеполагания. Как ни удивительно, подобная инструкция может привести к появлению более эффективного поведения, чем в случае классического алгоритма, например при поиске выхода из лабиринта. Мало того, двуногий робот, отправленный искать новое, может в итоге сам научиться ходить! Менее радикальные методы «эволюционного обучения» нацелены на то, чтобы сохранить в новых поколениях алгоритмов 99 % самых эффективных черт предшествующих поколений, введя при этом 1 % произвольных характеристик[197]. Таким образом, как в биологической или социальной эволюции, улучшение может родиться из процесса, специально задуманного как неоптимальный.
Настоящим прорывом стало бы предоставление пользователю возможности самостоятельно воздействовать на параметры, управляющие ИИ. Когда я делюсь этой гипотезой с Александром Лебреном, бывшим руководителем исследований ИИ в Facebook Europe, он вспоминает «функцию оптимизации» – поставленную перед алгоритмом зашифрованную
Поделиться книгой в соц сетях:
Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!