Где в этой системе понимание? Она принимает в качестве входных данных китайские символы, симулирует формальную структуру китайских синапсов и выдает другой набор китайских символов. Но человек явно не понимает китайского, так же, как не понимают его водопроводные трубы; если мы примем гипотезу, кажущуюся мне абсурдной, что каким-то образом человек
4. Комбинированный ответ (Беркли и Стэнфорд).
“Хотя сами по себе три предыдущих ответа не являются достаточно убедительным опровержением контрпримера китайской комнаты, взятые в совокупности, они весьма убедительны и решают дело. Представьте себе человекообразного робота с компьютером в виде мозга, расположенном в его черепной коробке, представьте, что программа этого компьютера в точности имитирует синапсы мозга, представьте, что поведение этого робота неотличимо от поведения человека. Теперь представьте все это как единую систему, а не как компьютер с входными и выходными данными. Безусловно, в таком случае вы должны будете согласиться с тем, что система имеет интенциональность”.Я совершенно согласен с тем, что в таком случае гипотеза о том, что робот обладает интенциональностью, кажется вполне рациональной — если мы больше ничего не знаем об этой системе. В действительности другие элементы этой комбинации, кроме внешнего вида и поведения, к делу не относятся. Если бы мы могли построить робота, чье поведение было бы в течение долгого времени неотличимо от человеческого поведения, мы могли бы приписать ему интенциональность. Нам вовсе не нужно было бы знать заранее, что его компьютерный мозг представляет собой формальную аналогию с человеческим мозгом.
Но я не вижу, как это может помочь утверждениям сторонников сильной версии ИИ. И вот почему: согласно этой версии формальная программа с правильными входными и выходными данными является достаточным условием и составной частью интенциональности. Как писал Ньюэлл (Newell, 1979), основой ментального является деятельность системы физических символов. Но наше признание интенциональности робота в этом примере не имеет ничего общего с формальными программами. Оно основано на предположении, что если робот выглядит и действует достаточно похоже на нас, то мы должны предположить, пока не доказано обратное, что у этого робота есть ментальные состояния, подобные нашим; что эти состояния обуславливают его поведение и им выражаются; что робот имеет некий внутренний механизм, способный производить эти состояния. Если бы мы знали, как иначе можно объяснить его поведение, мы бы не стали приписывать ему интенциональность, в особенности если бы мы знали о наличии у него формальной программы. И именно в этом — смысл моего предыдущего ответа на возражение II.
Представьте, что нам было бы известно, что поведение робота полностью определяется спрятанным внутри него человеком, который получает неинтерпретированные формальные символы от сенсорных рецепторов робота и посылает неинтерпретированные формальные символы его двигательному аппарату. Человек производит эти формальные манипуляции согласно неким правилам. Далее, представьте себе, что человеку ничего не известно о роботе — он знает лишь то, какое действие производить с данными бессмысленными символами. В этом случае мы рассматривали бы робота как хитроумное механическое приспособление. Гипотеза о том, что у этого приспособления есть разум, оказалась бы необоснованной и ненужной. У нас больше не было бы причины приписывать интенциональность роботу или системе, частью которой тот является (за исключением, разумеется, интенциональности человека, манипулирующего символами). Формальная манипуляция символами продолжается, входные данные соотносятся с выходными согласно правилам, но единственным реальным фокусом интенциональности является человек, и человек этот понятия не имеет ни о каком относящемся к делу интенциональном состоянии. Например, он не