Но у Серла есть убедительный ответ на ответ робота. Допустим, мы превратим Китайскую комнату в робота и поместим вас в центр управления. Робот из Китайской комнаты наделен восприятием. Он может видеть, слышать и осязать окружающее пространство. Но это не значит, что вы можете делать эти вещи. Нельзя установить камеру снаружи робота Chinese Room и передавать вам изображение внешнего мира. Что вы будете делать с этими изображениями? Мы воспринимаем мир не потому, что у нас в голове сидит маленький человечек и смотрит телевизор, а потому, что это не робот, и не робот "Китайской комнаты". Изображения поступают в центр управления в виде информации, и эта информация должна быть представлена таким образом, чтобы вы могли следовать правилам, указывающим, что с ней делать. Но вот в чем загвоздка. Если информация поступает в комнату в таком виде, то нет никакой гарантии, что вы сможете ее расшифровать. Для вас она может выглядеть просто как еще большее количество неинтерпретированных загогулин. Это не мешает Вам отличать одни тильды от других. Вы способны идентифицировать уникальную форму каждого типа тильды-кваглы и узнавать ее заново всякий раз, когда она появляется, причем вы можете делать это, не зная, что представляют собой тильды-кваглы. Такую структуру информации философы называют "синтаксической структурой". Серл указывает на то, что информация будет поступать в центр управления робота в виде неинтерпретированного синтаксиса. Вы знаете, что делать с синтаксически структурированной информацией, благодаря всем правилам, спрятанным в картотеке. Но вы не знаете, как интерпретировать синтаксис. Вы не знаете, что он означает. Таким образом, мы можем легко представить себе (ну да, мы можем представить) робота из китайской комнаты, который эффективно выполняет свою работу, а вы, находясь в центре управления, помогаете ему, оставаясь в неведении.
Серл, похоже, прав. Превращение Китайской комнаты в робота Китайской комнаты не позволит нам избежать его аргументации. Конечно, это может помочь нам избежать его. Идея о том, что взаимодействие с окружающей средой необходимо для того, чтобы система искусственного интеллекта обрела понимание, весьма правдоподобна. Утверждение, которое мы делаем здесь от имени Серла, заключается лишь в том, что добавление функции робототехники в Китайскую комнату не обеспечит вам в центре управления понимания того, чем занимается робот в Китайской комнате. Если исходный аргумент "Китайская комната" работает, то соответствующий аргумент "робот Китайской комнаты" должен работать так же хорошо.
Системный ответ
Ответ робота не устроит, но есть ответ получше. Вы застряли в Китайской комнате (или в центре управления роботом Китайской комнаты) и не понимаете, что делает система в целом. В этом нет ничего удивительного. Вы - не Китайская комната. Вы - исполнитель программы в системе. Вы выполняете хакерскую работу. Вы слепо следуете инструкциям. Вы похожи на процессор обычного компьютера. Компьютер - это гораздо больше, чем процессор. Система в целом включает в себя жесткий диск, оперативную память, кэш, видеокарту, операционную систему, программное обеспечение, всевозможные периферийные устройства и т.д. Если вы похожи на процессор китайской комнаты, то это не китайская комната. Вы даже не самая важная часть китайской комнаты. Мы можем вынуть вас и подключить кого-то другого, и система почти ничего не заметит, при условии, что ваша замена сможет выполнять инструкции так же хорошо, как и вы. Поскольку вы являетесь лишь небольшой и заменяемой частью "Китайской комнаты", неудивительно, что вы не понимаете, что делает система в целом. Если кто-то и понимает китайский язык в нашем мысленном эксперименте, то это вся система в целом. А вы - не вся система. Это и есть ответ системы на аргумент Серла.
Серл не впечатлен. Каким образом добавление мебели (картотеки, корзины с тильдами и т.д.) может превратить то, что не понимает (т.е. вас), в то, что понимает (т.е. в систему "Китайская комната")? Заманчиво ответить: "Просто так". Сам по себе картотечный шкаф не может понять: он просто инертная информация. Вы не можете понять: вы просто слепо следуете инструкциям. Но если сложить эти две вещи вместе, то получится нечто большее, чем просто сумма частей. Мы получаем активную и способную обрабатывать информацию систему, и Серл не сказал нам ничего, что доказывало бы, что такая система не может понимать мандаринский язык.