А теперь представьте, что инструкция составлена таким образом, что мои «ответы» неотличимы от тех, которые бы дал человек, свободно владеющий китайским. В этом случае я прохожу тест Тьюринга. Однако мы-то с вами знаем, что я не понимаю китайский язык и никогда не смогу его выучить таким способом, потому что не существует способа, с помощью которого я мог бы понять значение этих иероглифов»[Цитируется по более поздней публикации «Is The Brain’s Mind a Computer Program?», опубликованной в Scientific American в январе 1990 года. Интересно, что эта статья тоже начинается с привычного вопроса: «Может ли машина мыслить?» В ней Серль отвечает на многочисленные возражения оппонентов и уточняет – точнее, ужесточает – свою точку зрения, отрицая принципиальную возможность создания работающей (то есть мыслящей) программной модели человеческого мозга].
Так, по Серлю, устроен и компьютер, оперирующий символами, но не понимающий их значения. Из синтаксиса невозможно вывести семантику. А значит, невозможно и построить мыслящую машину – по крайней мере, оставаясь в рамках формального подхода.
Несмотря на внешнюю простоту, аргумент Серля оказал очень сильное воздействие на сообщество разработчиков ИИ, и если сегодня страсти немного поутихли, то лишь потому, что приверженцы противоположных точек зрения уже обменялись всеми возможными аргументами; к тому же тех, кто верит в возможность создания машинного разума[Для этого направления разработок ИИ Серль ввел термин Strong AI – в противоположность Weak AI, где такая глобальная задача не ставится, а системы ИИ рассматриваются только как инструмент для выполнения определенных функций] и работает над решением этой задачи, сегодня не так уж много.
Джефф Хокинс в своей книге использует «китайскую комнату» для критики существующих подходов, однако полностью игнорирует расширенную аргументацию Серля [Что для человека, согласного с концепцией функционализма (см. интервью), довольно странно]: «Можно представить себе совершенную, до последнего синапса, компьютерную модель пептидов гипоталамуса. С тем же успехом мы можем вообразить симуляцию окисления углеводородов в автомобильном двигателе или симуляцию процесса переваривания пиццы. Эмуляция работы мозга ничуть не реальнее эмуляции двигателя или работы желудка. Вы не сможете заправить автомобиль „эмулированным“ бензином и не сможете переварить пиццу, запустив нужную программу. Очевидно, что и эмуляция процессов познания точно так же не воспроизведет сопутствующие нейробиологические эффекты»[«Is The Brain’s Mind a Computer Program?», Scientific American, 1990].
Философских школ, по-разному определяющих, что такое разум и сознание, сегодня немногим меньше, чем философов, однако все подходы можно классифицировать следующим образом: оптимистическая (в контексте Strong AI) точка зрения гласит, что наше мышление поддается алгоритмизации, тогда как пессимистическая предполагает, что деятельность человеческого разума ни к вычислениям, ни к алгоритмам свести нельзя, а значит, и нельзя «повторить» в компьютерном коде.
Аргументы в пользу пессимистической точки зрения могут быть самые разные – от полной метафизики до чистой математики, к которой прибег известный британский физик Роджер Пенроуз. Отталкиваясь от теоремы Гёделя о неполноте, Пенроуз заключил, что разум нельзя смоделировать алгоритмически, и предложил свою теорию, объясняющую, какие физические процессы стоят за мышлением (подробнее о теории Пенроуза см. статью Леонида Левковича-Маслюка «Физическая личность» в «КТ» #268). Согласно гипотезе Пенроуза-Хамероффа, неалгоритмизируемости процессов мышления мы обязаны квантовым эффектам, возникающим в микротрубках нейронов головного мозга. Экспериментального подтверждения эта теория пока не получила, зато вызвала шквал критики со всех сторон, поскольку не пришлась ко двору ни нейрофизиологам, ни физикам (один из них даже подсчитал, что предложенная квантовая модель разума будет работоспособна только при температуре, близкой кабсолютному нулю), ни уж тем более разработчикам ИИ.