Бог, человек, животное, машина. Технология, метафора и поиск смысла - Меган О'Гиблин
Шрифт:
Интервал:
-
В итоге надежды Брукса на свои машины оказались чересчур оптимистичными. Несмотря на несколько новых моделей поведения, Cog так и не смог развить более сложные способности, на которые рассчитывал его создатель. Робот по-прежнему не мог выбирать между действиями - повернуться, чтобы посмотреть на лицо, или схватить предмет - и часто вел себя так, что казался растерянным или сбитым с толку. В какой-то момент Брукс признался, что роботу не хватает "связности", что неудивительно, учитывая, что он с самого начала разрабатывался без единого центрального управления. Даже самые совершенные роботы, созданные в Массачусетском технологическом институте, настолько изобиловали сбоями, настолько были склонны не справляться с базовыми задачами, что в 2007 году в статье New York Times утверждалось, что они "меньше похожи на мыслящих, автономных существ, чем на причудливых марионеток, которые часто ломаются".
Несмотря на все усилия Бреазала, Кисмет так и не научился говорить. В 2001 году Брукс утверждал, что робот смог произнести несколько английских слов, которые он выучил в ходе естественного процесса овладения языком. Но в том же году, когда технологический критик Шерри Теркл привела в лабораторию Массачусетского технологического института группу детей, Кисмет не смог с ними общаться. Дети представились роботу, вспоминает Теркл, и задали ему вопросы. Они обнимали и целовали его, показывали ему погремушки и другие игрушки. Робот смотрел им в глаза и лепетал свои бессмысленные слова, но так и не смог ответить на их вопросы или повторить слова, которым они пытались его научить.
В конце концов Брукс усомнился в уместности вычислительной метафоры, на которой он основывал свои теории. Он признал, что на протяжении всей истории люди сравнивали сознание со многими другими технологическими артефактами: часами, мельницами, ткацкими станками. Маловероятно, признавал он, что вычисления - это последнее слово. Но он никогда не терял веры в перспективность технологических аналогий. "Кажется маловероятным, что мы еще не поняли метафору правильно", - писал он. "Но нам нужно понять метафору".
Около двадцати лет спустя подход Брукса к воплощенному искусственному интеллекту все еще используется в лабораториях. Один из его бывших аспирантов, Джорджио Метта из Итальянского технологического института, помог создать iCub, человекоподобного робота, призванного имитировать когнитивные способности трехлетнего ребенка. Как и Cog и Kismet, iCub оснащен множеством датчиков и камер, которые наделяют робота сенсорными функциями и двигательными навыками. iCub приобрел ряд способностей - например, ползать на четвереньках, ходить, хватать предметы и направлять взгляд - просто взаимодействуя с окружающей средой. Теория, опять же, заключается в том, что эти сенсомоторные способности в конечном итоге приведут к более развитым когнитивным навыкам, таким как самоощущение или способность использовать язык, хотя пока этого не произошло.
За пределами лабораторий большинство коммерческих систем ИИ сегодня создаются не для достижения искусственного общего интеллекта (интеллекта, включающего все способности и компетенции человека), а для выполнения более узких и специфических задач: доставки еды в кампусах колледжей, управления автомобилями, проверки заявок на кредиты, уборки разливов в продуктовых магазинах. Многие из этих систем все еще наделены человеческими качествами, как, например, роботы в кампусах, которые приветствуют своих клиентов записанными голосами, или домашние помощники - Alexa, Siri-, которые говорят с нами женскими голосами из пустоты. Несмотря на то, что эти роботы часто выглядят убедительно, как люди, в их основе лежат непостижимо сложные алгоритмы - нейронные сети, глубокое обучение, - которые обрабатывают информацию так, что это совсем не похоже на человеческий интеллект. Их способность рассказывать шутки или иронично отвечать на наши вопросы - не свидетельство самосознания, а скорее результат умного программирования. Дэниел Деннетт отметил, что в последнее десятилетие вместо того, чтобы создавать действительно человекоподобных роботов, создатели ИИ оснащают свои машины "милыми гуманоидными штрихами, диснеевскими эффектами, которые очаровывают и обезоруживают непосвященных".
Деннетт утверждает, что главная опасность заключается не в том, что эти социальные роботы внезапно обгонят нас по интеллекту и станут злобными, как считалось раньше, а в том, что мы будем обмануты, преждевременно наделив их отличием человеческого сознания. Способность отказывать этим машинам в человечности, утверждает он, особенно трудно культивировать, поскольку современная политика так часто предостерегает нас от антропоцентризма. "Действительно, способность противостоять соблазну относиться к кажущемуся человеку как к человеку - это уродливый талант, воняющий расизмом или видоизменением", - пишет он. "Многие люди сочтут культивирование такого безжалостно-скептического подхода морально отвратительным, и мы можем предположить, что даже самые опытные пользователи систем время от времени будут поддаваться соблазну "подружиться" со своими инструментами, хотя бы для того, чтобы сгладить дискомфорт от выполнения своих обязанностей". Он утверждает, что нам нужны инструменты, а не коллеги или друзья. И все же технологические компании давно поняли, что их продукты гораздо привлекательнее и прибыльнее, когда людям удается подружиться с ними.
По мере того как роботы все чаще заменяют людей в сфере розничной торговли и общественного питания, эти гуманоидные прикосновения начинают казаться особенно зловещими. Walmart, одна из компаний, которая недавно начала использовать роботов в своих магазинах, уже реализует программы обучения, чтобы помочь своим сотрудникам перейти в другие отрасли, понимая, что количество вакансий в розничной торговле скоро сократится, поскольку их займут машины. Этот процесс происходит постепенно, чтобы предотвратить политические разногласия. Питер Хэнкок, профессор истории автоматизации в Университете Центральной Флориды, отмечает, что эти компании прекрасно понимают, что автоматизация может вызвать протест. "Если вы слишком сильно и слишком далеко надавите, люди перенесут свой гнев на технологию и взбунтуются", - сказал он в интервью New York Times в 2020 году. Важно, чтобы переход происходил поэтапно, чтобы роботы работали вместе с людьми. И особенно важно, чтобы роботы, которые ликвидируют эти рабочие места, выглядели симпатично и не угрожающе". "Это как Мэри Поппинс, - говорит Хэнкок. "Ложка сахара заставляет роботов идти на поправку".
Глава 7
Порой трудно вспомнить, что история современности, как ее часто рассказывают, началась не с открытия или изобретения, а с мысленного эксперимента. Однажды ночью, когда Декарт был один дома и писал в кресле у камина (не самое лучшее место для мысленных экспериментов), ему пришло в голову, что нет способа доказать, что он не спит. Бывало и так, что он был убежден, что находится на этом самом месте, "одетый и сидящий у огня, в то время как на самом деле я лежал в постели раздетым!". Это осознание запустило спираль новых ужасов. Что, если
Поделиться книгой в соц сетях:
Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!