Серл повторяет попытку. Представьте себе, что вы находитесь в китайской комнате так долго, что очень хорошо знаете инструкции в картотеке. Представьте, что у вас потрясающая память и в конце концов вы запомнили все инструкции. Теперь, когда через входной слот поступает "тильда-квагга", Вам не нужно искать инструкцию в картотеке, чтобы понять, что с ней делать. Достаточно обратиться к своей памяти. В этом новом мысленном эксперименте, говорит Серл, вы действительно являетесь системой "Китайская комната", а не только ее тупой частью - процессором. И все равно вы не поймете, о чем говорит система "Китайская комната". Для вас это все равно будут какие-то загогулины. Это показывает - не так ли? - что система "Китайской комнаты" не может понять, о чем она говорит. Теперь вы сами являетесь этой системой - вы интериоризировали всю систему - и все равно не понимаете. Так как же компьютер может понять?
Двухсистемный ответ
Только что мы рассмотрели ответ на аргумент Сёрла (системный ответ) и ответ Сёрла на него. Настало время для последнего (на данный момент) ответа - ответа на две системы. Сёрл просит вас представить, что вы запомнили весь список инструкций китайской комнаты. Это невероятный подвиг - но в философских мысленных экспериментах допускаются невероятные вещи. Назовем человека с невероятной памятью "Пузырьком". На первый взгляд, Bubblehead - это просто вы с небольшим запасом памяти. Но внешность бывает обманчива. Может показаться, что запоминание программы "Китайская комната" не так уж сильно отличается от запоминания других вещей, например, расписания железных дорог в Северной Америке, но на самом деле это совсем другое. Отличие заключается в том, что Bubblehead использует память о программе Chinese Room совершенно особым образом. Когда вы используете свою память о железнодорожном расписании, чтобы успеть на поезд, вы используете связи между расписанием и остальными вашими знаниями. Вы знаете, как определить время и сколько осталось до 13:00. Вы знаете, что если вы придете в 14:00 к поезду, который должен был отправиться в 13:00, то, скорее всего, опоздаете. И так далее. Когда Bubblehead запоминает инструкции Chinese Room, такой интеграции не происходит. Компонент "Китайская комната" в Bubblehead не полностью интегрирован в остальную когнитивную систему Bubblehead. Более того, он вообще почти не интегрирован.
Похоже, что Bubblehead состоит из двух когнитивных систем. Одна из них - обычная система, позволяющая вовремя успевать на поезда. Другая - система "Китайская комната": система, позволяющая Bubblehead общаться с людьми, говорящими на мандаринском языке. Конечно, вам трудно идентифицировать компонент Chinese Room в Bubblehead. Она остается для вас загадкой, поскольку не интегрирована должным образом с остальными компонентами вашего сознания. Вы не понимаете, что он делает. Но это означает лишь то, что вы не являетесь Bubblehead. Пузырьковая голова состоит из двух систем, а вы - лишь одна из них. Эти две системы связаны между собой, но довольно странным образом. Ваша система выполняет функции исполнителя программ для системы Chinese Room. Без вашего вмешательства в выполнение инструкций система Chinese Room будет просто сидеть в памяти Bubblehead, ничего не достигая.
Теперь наш вопрос заключается в следующем. Понимает ли Пузырьков мандаринский язык? Вы не понимаете мандаринский язык. Но тогда вы не Bubblehead. Понимает ли Bubblehead мандаринский язык? Трудно сказать. Что мы не можем сказать, так это то, что Серл хотел бы, чтобы мы сказали: что Пузырьков не понимает мандаринского языка, потому что вы не понимаете мандаринского языка. Это несостоятельный аргумент, поскольку он ошибочно предполагает, что вы и Пузырьковая голова - это одна когнитивная система. Это не так. Система китайской комнаты в Bubblehead подобна инопланетному вторжению в ваш мозг: она сидит в вашей памяти как вирус, используя вашу привычку следовать инструкциям.
Аргумент Серла "Китайская комната" терпит неудачу. В конце концов, у него нет удовлетворительного ответа на ответ систем. Но это не означает, что его вывод неверен. Опровергая аргумент Сёрла, мы не показываем, что Китайская комната действительно понимает мандаринский язык. Мы лишь показываем, что не можем использовать аргумент Серла для доказательства того, что она не понимает мандаринский язык. Конечно, Bubblehead - очень странное существо; и у нас есть все основания сомневаться в том, что компонент Chinese Room действительно что-то понимает. Поскольку она не интегрирована должным образом в вашу когнитивную систему, она не разделяет вашего робототехнического мастерства. А без владения робототехникой, то есть без полного каузального погружения в окружающую среду, очень маловероятно, что он понимает содержание разговоров с носителями мандаринского языка. Для того чтобы идея системы искусственного интеллекта, понимающей, что она делает, стала хоть сколько-нибудь правдоподобной, нам необходимо объединить ответ робота с ответом системы.