Важный шаг вперед в этой области был сделан к 2011 году, когда компания Ай-би-эм построила компьютер “Ватсон” (размером с комнату), способный понимать человеческую речь и отвечать на широкий круг вопросов. “Ватсон” принял участие в телевикторине
Тем не менее, “Ватсон” и “Дип блю” поднимают интереснейший вопрос:
На этот вопрос пока нет однозначного ответа. Философ Джон Серль из Калифорнийского университета в Беркли полагает, что компьютерную программу, какой бы “умной” она ни была, нельзя приравнивать к человеческому разуму. Он предложил интересный мысленный эксперимент “Китайская комната”, демонстрирующий разницу между мышлением компьютерной системы, такой как “Дип блю” или “Ватсон”, и человеческого мозга.
Представим себе комнату, в которой сидит человек. У него имеется список правил, позволяющих находить соответствия между последовательностями символов из одного набора и последовательностями символов из другого набора. В данном случае это записанные иероглифами предложения на китайском языке. Предположим, что человек в комнате не знает китайского. Подбор соответствий между последовательностями из двух наборов для него будет делом чисто формальным – в том смысле, что будет зависеть исключительно от формы символов, а не от их значений. Знание китайского языка от него и не требуется. Представим себе, что этот человек хорошо научился работать с такими последовательностями в соответствии с имеющимся у него списком правил, и всякий раз, когда в комнату передают очередное предложение на китайском, он вскоре выдает в ответ другое предложение, также на китайском. Для человека снаружи, владеющего китайским, символы, передаваемые в комнату, представляют собой вопросы, а получаемые оттуда символы – ответы. Ответы соответствуют вопросам так же хорошо, как если бы в комнате сидел знаток китайского, дающий ответы осмысленно. Но человек в комнате не знает по-китайски ни слова. В комнате происходит лишь обработка последовательностей символов на основании их формы, то есть
Теперь представим, что вместо человека в “китайской комнате” компьютер, запрограммированный на подбор ответов в соответствии с тем же списком. Серль утверждает, что от этого ничего не изменится. Компьютер, как и человек, будет обрабатывать последовательности символов, исходя из их синтаксиса. Компьютер точно так же не понимает китайского, как и человек в комнате. Именно так, по-видимому, работают такие компьютеры, как “Ватсон”. Хотя он и способен отвечать на широчайший круг вопросов (о политике и поэзии, науке и спорте, даже о том, как готовить спагетти карбонара), нельзя сказать, что он понимает ответы на эти вопросы, точно так же как нельзя сказать, что человек в “китайской комнате” понимает китайский. Хотя “Ватсон”, отвечая на вопросы, демонстрировал такое же поведение, как и соперники, люди понимали, что именно они говорят, а компьютер – нет.
Многие работающие в области искусственного интеллекта и некоторые специалисты по когнитивной психологии, придерживающиеся вычислительной теории психики, полагают, что нельзя провести четкую грань между мышлением и вычислительной обработкой информации. Они считают, что аргументы Серля против вычислительной теории психики основаны не на фактах, а лишь на ощущении, что когда мы понимаем то или иное предложение, мы не просто обрабатываем последовательность символов, а делаем нечто большее. Поскольку Серль не предъявил убедительных экспериментальных данных, опровергающих вычислительную теорию психики, оппоненты утверждают, что его выводы построены на интуиции, а они нередко небезупречны и просто ошибочны.