Уже с момента появления первых компьютеров в середине XX века начались дебаты не только относительно предела их возможностей, но и относительно того, можно ли рассматривать человеческий мозг в качестве формы компьютера. Общепринятое мнение по последнему вопросу изменилось кардинально от идеи о том, что эти два обрабатывающих информацию «устройства» принципиально не различаются, к идее об их принципиальном различии. Итак, является ли наш мозг компьютером?
Когда в 1940-х гг. компьютеры впервые привлекли к себе внимание общественности, их тут же стали воспринимать в качестве мыслящих машин. Первый компьютер ENIAC[119], о создании которого было объявлено в 1946 г., пресса назвала «гигантским мозгом». По мере роста доступности компьютеров в последующие десятилетия их постоянно сравнивали с мозгом, который может делать то, чего не может обыкновенный биологический мозг.
Компьютерные программы быстро научили машины действовать в соответствии с этими рекламными заявлениями. «Общая программа для решения задач», созданная в 1959 г. Гербертом Саймоном, Дж. Клиффом Шоу и Алленом Ньюэллом в Университете Карнеги — Меллон, смогла доказать теорему, с которой не справились Бертран Рассел и Альфред Норт Уайтхед в своей знаменитой работе 1913 г. Principia Mathematica[120]. В последующие десятилетия стало ясно, что компьютеры значительно превосходят невооруженный человеческий мозг по способности решать математические задачи, диагностировать заболевания и играть в шахматы, однако робота трудно научить завязывать шнурки или понимать разговорную человеческую речь, которую запросто понимает пятилетний ребенок. С такими задачами компьютеры начинают справляться только в наши дни. Забавно, что эволюция компьютерного разума происходит в обратном направлении в сравнении с созреванием человеческого разума.
Реклама 1957 года, отражающая популярное видение компьютера как гигантского мозга.
Вопрос о том, являются ли человеческий мозг и компьютер эквивалентными на каком-то уровне, до сих пор остается открытым. Во введении я писал о том, что в Интернете можно найти миллионы ссылок, относящихся к сложности человеческого мозга. Аналогичным образом, если в Google запустить поиск на тему «мозг — не компьютер», вы тоже обнаружите миллионы ссылок. На мой взгляд, подобные формулировки аналогичны формулировке «яблочное пюре — не яблоко». Технически утверждение верно, но из яблока можно сделать яблочное пюре. Возможно, правильнее сказать: «Компьютеры — не текстовые процессоры». Правда, что компьютеры и текстовые процессоры существуют на разном понятийном уровне, но компьютер может стать текстовым процессором, если обладает соответствующей программой. Аналогичным образом, компьютер может стать мозгом, если снабжен программами мозга. Именно это и пытаются сделать такие ученые, как я.
Таким образом, вопрос заключается в следующем: сможем ли мы найти алгоритм, который превратит компьютер в эквивалент человеческого мозга? В конце концов, ввиду своей универсальности (ограниченной только мощностью) компьютер может следовать любому созданному нами алгоритму. Напротив, человеческий мозг действует лишь по специфическим алгоритмам. Эти методы разумны, так как обеспечивают значительную пластичность и возможность реструктуризации внутренних связей на основе пережитого опыта, но все эти функции можно имитировать с помощью компьютерных программ.
Идея об универсальности компьютерных вычислительных методов (идея о том, что компьютер общего назначения может использовать любой алгоритм) возникла одновременно с появлением первых настоящих компьютеров. Я назову четыре основных принципа, лежащих в основе универсальности и осуществимости компьютерных вычислений и их применимости к описанию нашего мышления. Эти принципы стоит упомянуть еще и по той причине, что человеческий мозг тоже их использует. Первый принцип заключается в способности передавать, запоминать и обрабатывать информацию. В 1940-х гг. под словом «компьютер» люди понимали аналоговую машину, в которой числовые данные представлялись в виде аналоговых физических переменных, таких как напряжение, а специализированные элементы могли выполнять арифметические действия, такие как сложение или умножение. Однако серьезным ограничением аналоговых компьютеров является недостаточная точность. Данные могут быть представлены с точностью около одного процента, а по мере увеличения числа арифметических операций точность данных еще больше снижается. При проведении большого числа вычислений результат становится столь неточным, что вообще теряет смысл.