Но осознает ли она его
Но мне не кажется, что машина готова. Чтобы доказать это, давайте спросим самого робота. Раз уже мы проводим мысленный эксперимент по конструированию мозга, то кто нам мешает встроить в него и лингвистический интерфейс, поисковик вроде Сири (на рис. А.1 он обозначен как когнитивно-лингвистический интерфейс). Он получает вопросы, ищет ответы по доступной внутри машины базе данных и сообщает результат поиска. Поскольку такой интерфейс вполне реально создать на основе сегодняшних технологий, нам “позволено” включить и его в нашу машину, хотя это новое для него применение.
Мы спрашиваем машину: “Что это?”
Машина: “Яблоко”.
Мы: “Какие у яблока свойства?”
Машина: “Оно круглое, красное, блестящее, сверху вмятина, лежит там-то”.
Робот может ответить на эти простые вопросы, поскольку содержит нужную информацию. Более того, его ответы насыщенны и гибки, потому что его знание о яблоке основано на модели, а модель, к которой он обращается, – обширное, если не полное, описание яблока. И вот у нас есть машина, которая в состоянии взглянуть на яблоко, обработать данные о нем и сделать конкретные касающиеся его утверждения. Такую машину еще вполне возможно построить в сегодняшних реалиях.
И тем не менее в качестве теории сознания рис. А.1 чего-то не хватает. Чтобы доказать это, зададим машине очевидный последний вопрос: “А ты осознаешь это яблоко?”
Поисковая система обращается к внутренней модели, но не находит ответа. Она находит кучу информации о яблоке и никаких данных об осознании – что это такое и есть ли у машины это загадочное свойство. У машины попросту нет данных о себе самой. Мы ведь ее спросили: “Осознаешь ли
Я принимаю это как постулат базовой логики: машина для обработки данных не может сделать утверждение – не может выдать информацию, – если в ней не содержится информация, которую она утверждает. Машина на рис. А.1 не содержит информации о том, что такое сознание, и уж подавно о том, что она что-то осознает. Нельзя наивно надеяться, что, вложив в машину сложность, мы получим от нее утверждение о сознании. Имея лишь те компоненты, из которых мы ее построили, машина не может содержать информацию о, скажем, зебрах, и поэтому не способна взять и заговорить о зебрах. С инженерной точки зрения лелеять надежду, что машина проснется и заявит: “Я сознаю” – это нарушение логики. Нам придется вложить в машину больше данных, чтобы расширить диапазон возможных ответов.
На рис. А.2 изображена следующая версия нашего проекта “создай мозг”. Сюда я добавил вторую внутреннюю модель: модель себя. Она тоже состоит из данных, которые собираются в мозге. Эта информация может описывать физическую форму и структуру тела – уже упоминавшуюся схему тела[265]
. Она способна включать в себя и автобиографические воспоминания, которые играют важную роль в любой психологической модели себя[266]. Нам известно, что человеческий мозг содержит что-то вроде модели себя – скорее всего, очень сложной и распределенной по многим его областям. Мы имеем право дать нашему роботу модель его самого, поскольку техническая возможность предоставить ему некий произвольный комплект информации вполне доступна.Теперь спросим улучшенную машину: “Кто ты? Расскажи о себе”.
Со своей новой внутренней моделью робот располагает необходимой для ответа информацией. Он скажет: “Я металлическая личность ростом 1 м 80 см, мои руки сгибаются в локтях и плечах, я родился в лаборатории, пять дней назад у меня был день рождения…” Поисковая система умеет обращаться к информации во внутренней модели себя и выдавать ее наружу. Некоторые данные могут касаться самой машины, а другие – описывать события в прошлом, которые помогают определить ее.