Представьте, что человека, совершенно не говорящего и не понимающего по-китайски, заперли в комнате, полной коробок с карточками, на которых изображены китайские иероглифы (своеобразная база данных), и книгой инструкций на его родном языке о том, что нужно делать с этими иероглифами (программа). Представьте также, что люди вне комнаты передают этому человеку другие карточки с китайскими иероглифами, которые на самом деле (он этого не знает) представляют собой вопросы на китайском языке (входной сигнал). И представьте еще, что, следуя инструкциям (программе), человек в комнате может передавать обратно карточки с китайскими иероглифами, представляющие собой верные ответы на эти вопросы (выходной сигнал).
Человек в комнате корректно отвечает на вопросы, так что люди снаружи считают, что он может общаться на китайском. Тем не менее на самом деле он не понимает по-китайски ни слова. Подобно этому человеку, заключает Сёрль, компьютер никогда не научится по-настоящему думать и понимать. В лучшем случае обратное проектирование мозга позволит как следует отладить мимику. ИИ-системы дадут тот же механический результат.
Сёрль не одинок во мнении о том, что компьютеры никогда не научатся думать и не обретут сознания. Но у него много критиков с самыми разными претензиями. Некоторые недоброжелатели приписывают ему компьютерофобию. Если рассматривать в целом, то все в китайской комнате, включая человека, складывается в систему, которая очень убедительно «понимает» китайский язык. С такой позиции аргументы Сёрля замыкаются: ни одна из частей комнаты (компьютера) не понимает по-китайски, следовательно, и сам компьютер не может понимать по-китайски.
Кроме того, аргументы Сёрля можно с той же легкостью применить и к человеку: у нас нет формального определения того, что представляет собой в реальности понимание языка — так как же мы можем утверждать, что человек «понимает» какой-то язык? Судя о том, имеется ли в данном случае понимание, мы можем опереться только на наблюдения. В точности как люди вне китайской комнаты Сёрля.
В любом случае что, собственно, такого выдающегося в мозговых процессах и даже в сознании? Тот факт, что сегодня мы не понимаем феномен сознания, не означает, что мы никогда его не поймем. Это не волшебство.
И все же я согласен и с Сёрлем, и с его критиками. Сёрль прав: машинный интеллект не будет похож на нас. Он будет полон вычислительных механизмов, которые никто как следует не понимает. К тому же компьютерные системы, созданные для ИИ человеческого уровня на основе так называемой «когнитивной архитектуры», могут оказаться слишком сложными, чтобы их мог понять один человек. Но критики Сёрля правы в том, что когда-нибудь УЧИ или ИСИ
Я не думаю, что до этого дойдет. Я считаю, что наше Ватерлоо состоится в обозримом будущем и участвовать в нем будет завтрашний ИИ и нарождающийся УЧИ, появление которого ожидается лет через десять-двадцать. Для выживания человечества, если оно возможно, необходимо, помимо всего прочего, при создании УЧИ встроить в него что-то похожее на совесть и человеческую отзывчивость, даже дружелюбие. Для этого необходимо как минимум до тонкостей понять умные машины, чтобы не было неожиданностей.
Вернемся ненадолго к одному известному определению так называемой «технологической сингулярности». В нем говорится о будущем, когда нам, людям, придется делить планету с другим, более мощным разумом. Рэй Курцвейл предполагает, что человечество сольется с машинами и таким образом уцелеет. Другие специалисты считают, что машины изменят и улучшат нашу жизнь, но сами мы останемся такими же, как прежде, просто людьми, а не человеко-машинными киборгами. Третьи, и я солидарен с ними, считают, что будущее принадлежит машинам.
Исследовательский институт машинного интеллекта был основан для того, чтобы сохранить наши человеческие ценности вне зависимости от формы, которую приобретут наследники.
Вассар в Сан-Франциско сказал мне:
На кону сейчас передача человеческих ценностей преемникам человечества. А через них — и Вселенной.