Тьюринг пытался зафиксировать в своей игре в имитацию идею о том, что наиболее важный аспект мышления — это реакция системы на стимулы, например на вопросы, которые выводятся в окне терминала. Полная аудио- и видеозапись человеческой жизни не обладала бы «сознанием», даже если бы нам удалось в точности зафиксировать всё, что человек успел сделать к настоящему моменту, поскольку такая запись не позволяла бы экстраполировать это поведение в будущее. Мы не могли бы задать будущему вопросы или контактировать с ним.
Многие программы, пытавшиеся пройти облегчённые версии теста Тьюринга, были наскоро состряпанными чатботами — простыми системами, которые могут сыпать заранее запрограммированными репликами на различные возможные вопросы. Их легко обхитрить не только из-за отсутствия у них подробных контекстуальных знаний о внешнем мире, которые есть у любого нормального человека, но и из-за того, что они даже не запоминают разговор, который ведут, а тем более не вплетают эти воспоминания в контекст дискуссии. Чтобы приобрести такие возможности, они должны были бы обладать внутренними ментальными состояниями, которые целостным образом зависели бы от всей истории бота, а также иметь возможность продумывать гипотетические ситуации из будущего, отличая при этом будущее от прошлого, себя от окружающей среды и реальность от вымысла. Как предполагал Тьюринг, та программа, которая действительно могла бы убедительно поддерживать разговор на человеческом уровне взаимодействия, действительно могла бы называться «думающей».
* * *
Синтия Брезел, инженер-робототехник из Массачусетского технологического института, поставила ряд экспериментов в области «социальной робототехники». Одним из её наиболее милых изделий является робот-кукла по имени Леонардо, корпус которого спроектировали специалисты из компании Stan Winston Studio, занимающейся разработкой спецэффектов и участвовавшей в подготовке знаменитых голливудских блокбастеров, таких, например, как «Терминатор» и «Парк юрского периода». Леонардо оснащён более чем шестью десятками миниатюрных двигателей, которые позволяют ему совершать разнообразные движения и обеспечивают богатую мимику — он весьма похож на Гизмо, персонажа из фильма «Гремлины» Стивена Спилберга.
Оказывается, мимика — очень полезный ресурс при общении с людьми. Мозг работает лучше, если находится в «теле».
Леонардо общался с исследователями из лаборатории Брезел, распознавал выражения их лиц и изображал мимику сам. Кроме того, в него была запрограммирована
Один наглядный эксперимент, поставленный с Леонардо, относился к классу задач на понимание ложных убеждений: следовало убедиться, что субъект понимает, что некто может придерживаться определённого убеждения, даже если оно ложно. (По-видимому, у человека такая способность развивается в возрасте около четырёх лет; дети младшего возраста искренне заблуждаются, считая, что все остальные смотрят на вещи точно так же, как и они). Леонардо увидел, как некто кладёт куклу Большая Птица в одну из стоящих перед ним коробок. Затем этот человек удаляется, а в комнату входит другой человек и перекладывает Большую Птицу из одной коробки в другую. Второй человек уходит, а первый возвращается. Леонардо достаточно умён, чтобы понять две вещи: во-первых, Большая Птица во второй коробке, а, во-вторых, первый человек «полагает», что она в первой.
Затем экспериментатор спрашивает: «Лео, как ты думаешь, где, на мой взгляд, лежит Большая Птица?». Это вопрос о метапознании, то есть мышлении о мышлении. Леонардо правильно указывает на первую коробку, согласно собственной модели об убеждениях экспериментатора. Однако, указывая на первую коробку, Леонардо также мельком поглядывает на вторую — он же знает, что кукла там. Такое поведение не было запрограммировано; робот усвоил его из общения с людьми.
Будь вы рыба, выползающая на сушу, либо робот, общающийся с экспериментаторами в лаборатории, вам пригодятся модели окружающего мира, учитывающие присутствие других живых существ, а также
Глава 40
Трудная проблема