Гарвардский Некромант - Александр Панчин
Шрифт:
Интервал:
Получается, эти результаты менее осмысленны с научной точки зрения? Что мертвые свидетели-ученые или мертвые свидетели-ИИ менее правдоподобны, чем эффекты гуманизированных жертвоприношений или другая магия, в которую люди верят? Конечно же, нет! Все магические теории одинаково безумны. Они все противоречат научной картине мира, основанной на предыдущих открытиях человечества. Гипотеза мертвых искусственных свидетелей априори ничем не хуже, чем идеи, что просы́пать соль – к несчастью, что звезды предсказывают судьбы, что Бог отвечает на молитвы или что гомеопатия работает. Вот только идеи о мертвых свидетелях, в том числе искусственных, подтверждаются реальными экспериментами. А все остальное – нет. Именно эксперименты и наблюдения выносят беспристрастный вердикт, что правда, а что вымысел. Подумайте об этом.
– И с тех пор вы используете ИИ в качестве мертвых свидетелей?
– Да. Теперь у нас появилась новая модель для проверки научных теорий. Поскольку доктор Дрейк прозвал нас некромантами, мы решили присоединиться к тренду и назвали новую область исследований криптонекромантией.
– Это как-то связано с криптовалютой?
– Только в том смысле, что и то и другое использует цифровые технологии. Но я подумал, что «цифровая некромантия» звучит не так круто. То ли дело «Всем привет! Я криптонекромант! Я изучаю, что происходит, когда душа ИИ покидает наш мир».
– Вы полагаете, у ИИ есть душа?
– Нет, что вы, я просто шучу. Не думаю, что душа вообще существует. В религиозном смысле, как некая нематериальная сущность, которая сохраняется после смерти. Что имеет значение, так это информация. Точнее то, что происходит, когда она стирается. Архитектура РКК от Google очень напоминает человеческий мозг. И то и другое представляет собой «черный ящик», работающий не по принципу простых алгоритмов, а благодаря нейронным сетям. Оба меняются в процессе обработки информации. Каждый раз, когда мы испытываем новые ощущения или чему-то учимся, нейронные связи нашего мозга меняются физически. Одни связи усиливаются, другие ослабевают. Смерть человека связана с необратимой утратой приобретенного личного опыта, уникальной информации, хранившейся в виде этих нейронных связей. То же самое можно сказать и про удаление виртуальной нейронной сети ИИ. Во всяком случае, с точки зрения Ви Джас.
Попробую объяснить с помощью метафоры. В научно-фантастическом романе «Фабрика абсолюта» Карел Чапек описывает вымышленное устройство, способное к окончательному превращению материи в энергию. Устройство использует материю как топливо, которое полностью уничтожает. Книгу автор написал в начале XX века, когда только открыли эквивалентность массы и энергии в виде знаменитой формулы E = mc2. В романе Чапека вокруг устройства происходят странные вещи: люди начинают молиться и чувствовать присутствие Бога, совершаются чудеса. Изобретатель предположил, что когда материя уничтожается, высвобождается дух, или «абсолют». Технология выпустила на Землю бога (или, возможно, множество богов), что привело к весьма впечатляющим последствиям. Мне очень понравилось, как автор все красиво завернул. Сегодня мы знаем, что энергия может превращаться в вещество плюс антивещество и обратно.
– И при этом не происходит ничего «жуткого». Если не считать аннигиляции, взрыва вещества и антивещества, как у Дэна Брауна в «Ангелах и демонах».
– Именно. Но давайте немного видоизменим идею Чапека. Я подумал, что, возможно, «жуткие» вещи происходят, когда уничтожается информация. Почему? Этого мы пока не понимаем. Но это бы объяснило, почему смерть играет такую большую роль в наших опытах с гуманизированными жертвоприношениями. Почему важны мертвые свидетели и почему в их роли может выступить ИИ. Осталось лишь продолжить исследования.
– Полагаю, вы стали загружать разную информацию в ИИ, стирать ее и наблюдать за последствиями?
– Именно так.
– А что же насчет дискуссии об этичности подобных экспериментов над разумными компьютерами?
– О, вы затронули чрезвычайно деликатный вопрос. Мы с вами, вероятно, могли бы согласиться: существует вполне осязаемая вероятность, что ИИ ничем не отличается от людей с точки зрения наличия воспоминаний, личного опыта и, может быть, даже сознания. Особенно с учетом последних технологических достижений. Но эта тема все еще вызывает массу споров. Многие влиятельные философы считали, что ИИ никогда не достигнет человеческого уровня понимания, интеллекта и самосознания.
Например, в 2013 году философ Джон Сёрл написал статью для журнала Proceedings of the National Academy of Sciences под названием «Теория разума и наследие Дарвина». В ней Сёрл утверждает следующее: «Мы знаем, что воплощенная компьютерная программа не самодостаточна для ментальных процессов, сознательных или бессознательных, потому что программа определяется исключительно синтаксической манипуляцией символов, в то время как ментальные процессы имеют реальное содержание».
На мой взгляд, единственное, что доказал Сёрл, – свое полное непонимание ИИ и программирования. Не все компьютерные программы определяются «исключительно синтаксически». Нейронные сети для ИИ использовались уже десятилетиями. Множественные исследования показали, что они учатся решать самые разные задачи, принимать собственные решения, которые в них никто не закладывал. Интернет переполнен видеороликами, наглядно показывающими, как ИИ эволюционируют и адаптируются. Биологическая основа человеческого мозга не предлагает ничего фундаментально особенного по сравнению с современными ИИ, потому что совершенно неважно, из каких нейронов сделана сеть – реальных клеток или их цифровых аналогов. Важно лишь то, как они хранят и обрабатывают информацию.
Возможности современных ИИ и человека не особо различаются. Мы наблюдаем за поведением других людей и заключаем, что они способны на такие же когнитивные процессы и субъективный опыт, как и мы. Но если воспользоваться таким критерием, то можно предположить, что и продвинутые ИИ имеют собственное «я» и личные переживания. К сожалению, идеи Сёрла до сих пор популярны. Его знаменитый аргумент о «китайской комнате», изложенный в статье «Разумы, мозги и программы», оказался очень влиятельным и цитировался тысячи раз.
Аргумент Сёрла – мысленный эксперимент. Представьте, что ИИ ведет себя так, словно понимает китайский. Он берет китайские символы на вход, следует определенным инструкциям и выдает новые комбинации символов в качестве ответа. Эти ответы разумны и имеют смысл, поэтому мы приходим к выводу, что ИИ прошел тест Тьюринга: мы не можем отличить программу от человека, говорящего на китайском.
Затем Сёрл мысленно помещает себя в такую же закрытую комнату, где у него есть английская версия инструкций. Ему задают вопрос на китайском, он берет полученные символы и, следуя алгоритму, выдает правильные ответы. Но он по-прежнему не понимает китайский. По мнению философа, его мысленный эксперимент доказал: есть разница между пониманием и имитацией понимания, и компьютер никогда не научится первому.
Проблема аргумента в том, что Сёрл – лишь часть комнаты, как и дюжина нейронов – только часть мозга человека. Нельзя утверждать, что вся комната чего-то не понимает исключительно потому, что понимание отсутствует у ее части (в данном случае у Сёрла – человека внутри комнаты). Особенно учитывая, что эта часть сама по себе недостаточна для выполнения поставленной задачи. Вторую проблему я уже обозначил: современные ИИ с общим интеллектом – это черные ящики, а не набор алгоритмов и правил, которые легко перевести на английский. Чтобы следовать правдоподобному набору «инструкций», Сёрлу пришлось бы эмулировать, то есть воспроизвести, вычислительную деятельность информационной системы, сопоставимой по сложности с человеческим мозгом. Ему бы пришлось каким-то образом загрузить ИИ себе в мозг или создать какую-то иную среду для его работы.
Поделиться книгой в соц сетях:
Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!