Читаем Трудная проблема сознания полностью

Одним словом, Сёрл уверен, что превращение Китайской комнаты в Китайского робота ничего не меняет[116]: человек, исполняющий программу понимания китайского языка, все равно не понимает по — китайски. Однако с этим нельзя согласиться. Вдумаемся еще раз в условия нового мысленного эксперимента. Они не совпадают с условиями Китайской комнаты. В первом случае предполагалось, что человек полностью знаком с программой понимания китайского языка. Во втором — он не знает одного существенного компонента программы, а именно он не знает, почему символы, уходящие в устройство с телекамерой (при этом неважно, знает ли он, что там именно телекамера, он просто отсылает куда-то символы), порождают какие-то другие символы на выходе, которые он, в свою очередь, передает в качестве ответа на вопрос о том, что он видит вокруг себя.

Еще раз подчеркну: в самой программе эта связь должна быть прописана, в самой программе должно быть прописано, что такие-то данные телекамеры надо кодировать такими-то символами и т. п. Иными словами, в самой программе должен быть квазисемантический блок. Поскольку он неизвестен человеку, исполняющему программу, он, естественно, не понимает задаваемые ему вопросы. Но можно предположить, что их понимает весь робот, одним из механизмов которого оказывается человек внутри его. Кстати, одно из самых популярных в профессиональной философской среде возражений на Аргумент китайской комнаты состоит именно в том, что, хотя человек в ней не понимает китайского[117], его может понимать вся комната. Обычно оно вызывает смех в студенческой аудитории. И справедливо: если взять Китайскую комнату в ее, скажем так, изначальной обстановке, то это предположение просто нелепо. Изначальная программа китайской комнаты не имела квазисемантического блока. Человек в этой комнате знал всю программу — крайне ограниченную, напомним, по своим эмулятивным возможностям[118], и рассмотрение комнаты в целом ничего не меняет. Но в механизированной китайской комнате — в китайском роботе — ситуация изменилась, в его программе есть «семантическая» часть, и она неизвестна человеку. Если бы он имел к ней доступ, то, исполняя эту программу, он стал бы понимать китайский язык, что, собственно, и требовалось доказать[119]. Впрочем, это не означает, что сам робот реально понимает китайский. Пока это просто гипотеза, которая не может быть опровергнута средствами Китайской комнаты Сёрла.

Так или иначе, но, уяснив все эти обстоятельства, мы поймем, что Аргумент китайской комнаты показывает не совсем то или даже совсем не то, что думает Сёрл. Этот аргумент не разрушает «сильный ИИ», потому что такое разрушение подразумевает доказательство реальной возможности точных программных эмуляторов человеческого интеллекта, притом таких, которые не порождают осмысленное понимание: если эмулирующая его система заведомо не может проходить тест Тьюринга, нет ничего удивительного в том, что мы отказываем ей в понимании! Сёрл, разумеется, прав, различая синтаксис и семантику и говоря, что наличие чисто синтаксических эмуляторов не означало бы, что реализующие их системы что-то реально понимают. Но проблема в том, что, как мы только что убедились, он не доказывает невозможности того, что определенного рода синтаксические эмуляции с необходимостью генерируют по крайней мере некое подобие семантических отношений. Соответственно, он не доказывает и того, что в случае существования таких программ инсталлирующие их материальные системы не обладали бы реальным пониманием. Что же касается чисто синтаксических эмуляторов, не порождающих понимание (это Сёрл доказал), то мы увидели, что они невозможны, если говорить не о частных интеллектуальных задачах, а об интеллекте в целом. И мысленный эксперимент с Китайской комнатой помогает уяснить, почему дело обстоит именно так.

Именно поэтому Аргумент китайской комнаты может использоваться для опровержения «слабого ИИ», т. е. возможности точной синтаксической эмуляции разумного поведения человека, в том числе его речевого поведения. Но еще раз подчеркну: Сёрл не обладает ресурсами для ответа на вопрос, можно ли эмулировать такое поведение программами с «семантическими» блоками, т. е. такими программами, которые приспособлены для взаимодействия с реальностью и отражения ее характеристик, и если да, то будут ли машины, реализующие эти программы, обладать сознанием и, в частности, осознанным пониманием. Так что пора переходить к другим авторам.

Перейти на страницу:

Похожие книги