Мышление через кино. Занимаясь философией, смотреть фильмы - Damian Cox
Шрифт:
Интервал:
Серл, похоже, прав. Превращение Китайской комнаты в робота Китайской комнаты не позволит нам избежать его аргументации. Конечно, это может помочь нам избежать его. Идея о том, что взаимодействие с окружающей средой необходимо для того, чтобы система искусственного интеллекта обрела понимание, весьма правдоподобна. Утверждение, которое мы делаем здесь от имени Серла, заключается лишь в том, что добавление функции робототехники в Китайскую комнату не обеспечит вам в центре управления понимания того, чем занимается робот в Китайской комнате. Если исходный аргумент "Китайская комната" работает, то соответствующий аргумент "робот Китайской комнаты" должен работать так же хорошо.
Системный ответ
Ответ робота не устроит, но есть ответ получше. Вы застряли в Китайской комнате (или в центре управления роботом Китайской комнаты) и не понимаете, что делает система в целом. В этом нет ничего удивительного. Вы - не Китайская комната. Вы - исполнитель программы в системе. Вы выполняете хакерскую работу. Вы слепо следуете инструкциям. Вы похожи на процессор обычного компьютера. Компьютер - это гораздо больше, чем процессор. Система в целом включает в себя жесткий диск, оперативную память, кэш, видеокарту, операционную систему, программное обеспечение, всевозможные периферийные устройства и т.д. Если вы похожи на процессор китайской комнаты, то это не китайская комната. Вы даже не самая важная часть китайской комнаты. Мы можем вынуть вас и подключить кого-то другого, и система почти ничего не заметит, при условии, что ваша замена сможет выполнять инструкции так же хорошо, как и вы. Поскольку вы являетесь лишь небольшой и заменяемой частью "Китайской комнаты", неудивительно, что вы не понимаете, что делает система в целом. Если кто-то и понимает китайский язык в нашем мысленном эксперименте, то это вся система в целом. А вы - не вся система. Это и есть ответ системы на аргумент Серла.
Серл не впечатлен. Каким образом добавление мебели (картотеки, корзины с тильдами и т.д.) может превратить то, что не понимает (т.е. вас), в то, что понимает (т.е. в систему "Китайская комната")? Заманчиво ответить: "Просто так". Сам по себе картотечный шкаф не может понять: он просто инертная информация. Вы не можете понять: вы просто слепо следуете инструкциям. Но если сложить эти две вещи вместе, то получится нечто большее, чем просто сумма частей. Мы получаем активную и способную обрабатывать информацию систему, и Серл не сказал нам ничего, что доказывало бы, что такая система не может понимать мандаринский язык.
Серл повторяет попытку. Представьте себе, что вы находитесь в китайской комнате так долго, что очень хорошо знаете инструкции в картотеке. Представьте, что у вас потрясающая память и в конце концов вы запомнили все инструкции. Теперь, когда через входной слот поступает "тильда-квагга", Вам не нужно искать инструкцию в картотеке, чтобы понять, что с ней делать. Достаточно обратиться к своей памяти. В этом новом мысленном эксперименте, говорит Серл, вы действительно являетесь системой "Китайская комната", а не только ее тупой частью - процессором. И все равно вы не поймете, о чем говорит система "Китайская комната". Для вас это все равно будут какие-то загогулины. Это показывает - не так ли? - что система "Китайской комнаты" не может понять, о чем она говорит. Теперь вы сами являетесь этой системой - вы интериоризировали всю систему - и все равно не понимаете. Так как же компьютер может понять?
Двухсистемный ответ
Только что мы рассмотрели ответ на аргумент Сёрла (системный ответ) и ответ Сёрла на него. Настало время для последнего (на данный момент) ответа - ответа на две системы. Сёрл просит вас представить, что вы запомнили весь список инструкций китайской комнаты. Это невероятный подвиг - но в философских мысленных экспериментах допускаются невероятные вещи. Назовем человека с невероятной памятью "Пузырьком". На первый взгляд, Bubblehead - это просто вы с небольшим запасом памяти. Но внешность бывает обманчива. Может показаться, что запоминание программы "Китайская комната" не так уж сильно отличается от запоминания других вещей, например, расписания железных дорог в Северной Америке, но на самом деле это совсем другое. Отличие заключается в том, что Bubblehead использует память о программе Chinese Room совершенно особым образом. Когда вы используете свою память о железнодорожном расписании, чтобы успеть на поезд, вы используете связи между расписанием и остальными вашими знаниями. Вы знаете, как определить время и сколько осталось до 13:00. Вы знаете, что если вы придете в 14:00 к поезду, который должен был отправиться в 13:00, то, скорее всего, опоздаете. И так далее. Когда Bubblehead запоминает инструкции Chinese Room, такой интеграции не происходит. Компонент "Китайская комната" в Bubblehead не полностью интегрирован в остальную когнитивную систему Bubblehead. Более того, он вообще почти не интегрирован.
Похоже, что Bubblehead состоит из двух когнитивных систем. Одна из них - обычная система, позволяющая вовремя успевать на
Поделиться книгой в соц сетях:
Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!