Искусственный интеллект – надежды и опасения - Джон Брокман
Шрифт:
Интервал:
Даже Скотт Адамс, создатель Дилберта[201], обратился к этой теме после экспериментов в университете Эйндховена в 2005 году и отметил, насколько восприимчивы люди к типажу робота-жертвы (сразу вспоминаются опыты Милгрэм в Йельском университете в 1961 году). С учетом прав корпораций, в том числе права собственности, кажется, что другие машины должны получить схожие права и нас ожидает борьба за сохранение неравенства в правах по многоосевым градиентам интеллекта и эрзац-чувств.
Радикально различающиеся правила для людей, «нелюдей» и гибридов
Отмеченное выше разделение в правах внутри вида Homo Sapiens перерастает в открытый бунт неравенства, едва речь заходит о сущностях, которые добавляются (или скоро добавятся) к многообразию человечества. В программе Google Street View лица людей и номерные знаки автомобилей размываются. Видеоустройства во многих присутственных местах, скажем, в судах и залах парламентских заседаний, запрещены. Переносные общедоступные камеры с программным обеспечением для распознавания лиц балансируют на грани запрета. Должны ли люди с гипертимезией[202] или фотографической памятью подпадать под эти ограничения?
Разве людям с просопагнозией (синдром «неузнавания лиц») или забывчивостью не принесет пользу программное обеспечение для распознавания лиц и оптического распознавания символов? А чем эти люди лучше остальных? При наличии у каждого тех или иных инструментов разве не все вправе рассчитывать на некую выгоду?
Эти сценарии перекликаются с рассказом Курта Воннегута «Гаррисон Бержерон» (1981), по сюжету которого любая исключительная способность подавляется из уважения к посредственному общему знаменателю социума. Мысленные эксперименты наподобие «китайской комнаты» Джона Серла и «трех законов робототехники» Айзека Азимова[203] отсылают к тем проявлениям интуиции, которые изводят человека и которые описаны Дэниелем Канеманом, Амосом Тверски и другими психологами. Эксперимент с «китайской комнатой» показывает, что разум, состоящий из механических и человеческих частей, не может быть сознательным, сколь бы компетентен в умном (китайском) разговоре он ни был, если только человек не в состоянии выявить источник сознания и его «почувствовать». Насильственное предпочтение Первого и Второго законов Азимова ставит человеческий разум выше любого другого, права которого скромно охраняет Третий закон (самосохранение).
Если сознание роботов не является копией человеческого, то это предлог предоставить им урезанные права; помнится, мы уже где-то слышали, что другие племена и народы нельзя считать полноценными людьми. Роботы демонстрируют свободу воли? Они осознают себя? Роботы Qbo прошли зеркальный тест на самопознание, а роботы NAO[204] выдержали соответствующий тест на распознавание собственного голоса и сообщение о внутреннем состоянии, вслух или на экране.
Для свободы воли у нас есть алгоритмы, которые нельзя назвать ни полностью детерминированными, ни случайными, но которые направлены на почти оптимальное принятие вероятностных решений. Можно утверждать, что это практическое дарвиновское следствие теории игр. Для многих (не для всех) игр/задач полная предсказуемость и абсолютная случайность равнозначны поражению.
В чем же заключается привлекательность свободы воли? Исторически она позволяла нам грозить себе карами в контексте вознаграждения и наказания – на Земле или в загробной жизни. Наказание может подразумевать побуждение индивидуума к изменению приоритетов, дабы помочь выживанию вида. В предельных случаях это лишение свободы и другие ограничения, если позитивного/негативного подкрепления по Скиннеру[205] оказывается недостаточно для защиты общества. Очевидно, что такие инструменты могут применяться к свободе воли в широком смысле – к любой машине, поведением которой мы хотели бы управлять.
Мы можем спорить о том, действительно ли робот испытывает некие субъективные ощущения, связанные со свободой воли и самосознанием, но то же самое касается и человека. Откуда мы знаем, что социопат, пациент в коме, человек с синдромом Уильямса[206] или ребенок наделены той же свободой воли и тем же самосознанием, что и мы сами? И какое значение это имеет на практике? Если люди (любого типа) убедительно заявляют, что испытывают сознание, боль, экстаз, счастье, осознают амбиции и/или свою полезность для общества, должны ли мы лишать их прав, поскольку их гипотетические качества гипотетически отличаются от наших?
«Красные линии» запретов, которые нам категорически возбраняется пересекать, все чаще кажутся бессмысленными и заслуживающими стирания. Разрыв между человеком и машиной исчезает, ибо машины все больше похожи на людей, а люди становятся все более похожими на машины – и не только потому, что мы старательно следим за маршрутами, проложенными GPS, рефлекторно отвечаем на твиты и поддаемся на тщательно продуманные маркетинговые уловки, но и потому, что мы все лучше узнаем наше сознание и его механизмы и углубляемся в генетическое программирование. Инициатива BRAIN от Национального института здравоохранения (NIH BRAIN) стимулирует разработку и внедрение инновационных технологий для отслеживания ментальных связей мозга ради совершенствования электронного и синтетического нейробиологического оборудования.
Запреты отталкиваются от установок генетической исключительности, признающих гены постоянно наследуемыми (хотя обратимость процедуры доказана), зато всевозможные (и смертоносные) технологии, скажем, автомобили, признаются полезными и обязательными к применению вследствие влияния различных социальных и экономических сил. В рамках генетики «красные линии» побуждают нас запрещать или избегать генетически модифицированных продуктов питания, зато мы одобряем генетически модифицированные бактерии, вырабатывающие инсулин, и даже генетически модифицированных людей (вспомним митохондриальную терапию[207], которую в Европе прописывают взрослым и эмбрионам).
Это манипулирование зародышами выглядит менее разумным, чем обычная практика, сводящаяся к соображениям безопасности и эффективности. Брак двух (в остальном здоровых) носителей одного и того же генетического заболевания предлагает выбор: не заводить ребенка, рискнуть 25-процентной вероятностью гибели эмбриона в результате аборта (самопроизвольного или искусственного), 80-процентной вероятностью гибели эмбриона в результате оплодотворения in vitro[208] – или потенциально нулевыми шансами эмбриона на гибель при использовании генной инженерии. Кажется преждевременным объявлять последний вариант «недостойным».
Что касается «исследований на людях», мы ссылаемся на Хельсинкскую декларацию 1964 года, имея в виду эксперименты в Таскиги 1932–1972 годов – возможно, наиболее печальную страницу в биомедицинской истории США[209]. В 2015 году Проект по защите прав человека подал иск в Верховный суд штата Нью-Йорк от имени двух шимпанзе, оставленных для исследовательских целей в университете Стони Брук. Апелляционный суд постановил,
Поделиться книгой в соц сетях:
Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!