– Да, мысленный эксперимент, описанный Джоном Сёрлем.
– Вы думаете, он не брал что-то подобное за прототип? А я считаю подобный мысленный эксперимент детищем древнекитайских мифотворцев.
– Даже если так, то почему мифотворцев? Он вполне несет практическую пользу. Это современное изобретение. Если его можно назвать изобретением. В общем, методика, при помощи которой Сёрл хотел показать неполную состоятельность моделирования человеческого понимания естественного языка, создания так называемого «реального искусственного интеллекта». По сути, является критикой теста Тьюринга.
– Критикой теста Тьюринга? Почему все именно на этом акцентируют внимание?
– Вы так не считаете?
– Насколько я помню, Сёрл описал свой эксперимент в статье «Является ли мозговое мышление компьютерной программой?». Опубликована она была, – я чуть задумался, – в восьмидесятых.
– Если вы помните, Сёрл описывает эксперимент следующим образом. Представим, что человека, не знающего китайский язык, поместили в отдельную комнату, в которой находятся кубики с иероглифами. Человек не знает иероглифов, но у него есть инструкция на своем языке, которая говорит, какой кубик надо брать и какой кубик надо выдавать в ответ на определенные запросы, приходящие извне.
Я поднял ладонь, жестом говоря «неужели вы думаете, что я не знаю».
– Безусловно, знаете. Все ж я завершу мысль. Скажем, вы делаете какой-то запрос, спрашиваете: «Сколько вам лет?» Человек смотрит в инструкцию на родном языке, в этой инструкции говорится о том, что необходимо взять определенный кубик и положить его в определенное место. Если человек успешно манипулирует этими кубиками, то на выходе мы будем получать ответы на китайском языке, то есть китаец, который будет наблюдать за этим экспериментом, увидит, что ответы получаются осмысленными. Но сам человек в этой комнате никогда не будет знать, что же он сказал, что он сделал: он по-прежнему не будет понимать китайский язык.
Кажется, будто «китайская комната» вместе с этим человеком понимает наши вопросы и дает осмысленные ответы. Но сам человек ничего не понимает.
– Я знаком в общих чертах с этим экспериментом, – сказал я.
– Не сомневаюсь. Я лишь хотел напомнить детали, потому как хочу подискутировать с вами… если провести параллель и брать вместо комнаты сам мозг, а вместо человека…
– Вы хотите сказать – Бога?
– Нет. Я не берусь точно утверждать… Но, подумайте, откуда же берутся мысли? Возможно, к нам в мозг попадает сигнал, он там отражается в виде ответа, именно от какой-то заранее предусмотренной ячейки. Ведь так оно и есть. Мы говорим «светло» – и в голове, то есть в мозге, отображается соответствующая мысль, ассоциация. Так ведь?
– Хм, даже не знаю, как сказать. Вы хотите когнитивную систему представить как механическую?
– Провожу аналогию.
– Вполне логично.
– По сути, если ответы правильные, то какая разница, кто их дает. А как оно там сложилось… – он опять задумался, – разве по-другому может быть? Мысль чья-либо к нам в мозг попадает посредством воспроизведения каких-то механических действий, – он опять замолчал, размышлял, что было понятно по подергиваниям лицевых мышц.
– Я теперь понял, почему вы считаете чтение мыслей возможным с помощью механических систем. Исследование МРТ тоже относится к механике.
– Я так понимаю, наши мнения только-только начали сонастраиваться.
– Да. А вот что касается критики теста Тьюринга, на этот счет у меня есть свое мнение. И я вам скажу так – именно с помощью этого теста или какой-нибудь его разновидности можно расшифровать мысли. Там ведь должна быть простая схема: вопрос – ответ.
– Вот смотрите… – он уже привычно застопорился.
Насколько я понял, собеседник решил дополнить пояснением свое умозаключение. Так и вышло.
– Кстати, Тьюринг опубликовал свой тест в статье, которую назвал «Вычислительные машины и разум».
Я слегка усмехнулся:
– Напомню, журнал был философского направления. Назывался… дай бог памяти… Mind. Это было в году так пятидесятом, если не ошибаюсь. И там он задался вопросом – может ли машина мыслить?
– Так вот, смотрите. Если исходить из стандартной схемы этого теста: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает – с человеком или компьютерной программой». То есть задача программы одна – убедить человека в том, что она тоже человек. Ввести в заблуждение, заставив сделать неверный выбор. Хотя нет, это неправильное определение. Если человек знает о том, что он говорит с компьютерной системой, и потом будет утверждать, что не верит в это, то… ну, не знаю. Подобное попахивает шизофренией.
Мы понимающе улыбнулись.
– Сходство и различие теста Тьюринга и «китайской комнаты» в объяснении, как работает интеллект.
Сняв очки, собеседник вопросительно посмотрел на меня, словно хотел, чтобы я лучше понял его выражение лица.