Все это говорит о том, что человек склонен признать существование чувств, только если речь идет о подобных ему самому существах, способных при этом каким-либо образом сообщить о своих переживаниях. Приведет ли дальнейшее развитие компьютеров к тому, что они станут подобны человеку? Мы уже сегодня с помощью относительно простых средств (скажем, изменив определенным образом программу) можем добиться от компьютера симуляции проявления чувств. Если какой-то из блоков компьютера оказывается перегружен, то машина может выдать нам эмоционально окрашенное сообщение о перегрузке — но будет ли это означать, что она и в самом деле испытывает те же чувства, что испытывал бы человек, перегруженный работой? На этот вопрос все мы, разумеется, ответили бы отрицательно. Жалоба машины на перегрузку — всего лишь реакция, запрограммированная человеком, а сам компьютер остается все той же бездушной железкой, какой представлялся нам до сих пор.
Но что произойдет, если у нас появятся машины, способные сами себя программировать и самостоятельно учиться, общаясь с окружающим их миром? К примеру, компьютеру-диагносту, который слышит от своих пациентов слово «боль» или — при случае — слово «радость», останется сделать всего лишь один шаг к установлению нужных связей, чтобы при отказе какого-то из своих элементов или при перегрузке использовать слово «боль». Но разве ему и в самом деле больно?
Становится ясно, что переходы от человеческого к машинному могут быть довольно плавными, и возможно, что в не столь отдаленном будущем возникнут «робоправо» или Закон о защите прав роботов, аналогичные существующему сегодня Закону о защите прав человека. Возможно также, что к этим законам о роботах люди будут относиться с большим почтением, чем к законам о правах самих людей (ведь роботы недешевы!). Сегодня это еще может показаться утопией, но вполне можно нарисовать картины такого будущего, в котором вопросы, касающиеся роботов, окажутся наиболее бурно обсуждаемыми как раз в связи с тем, что машины будут все больше и больше становиться похожи на людей. Не следует забывать, что уже сегодня существуют компьютеры, которые потрясают воображение людей несведущих — потрясают до такой степени, что те готовы обратиться к ним даже со своими душевными невзгодами. Здесь вспоминается сконструированный Йозефом Вайценбаумом компьютер Элиза, который «беседовал» с пациентами и с которым, по наблюдениям самого Вайценбаума, откровенничала даже его собственная секретарша. Образ действий компьютера был, в принципе, очень прост. К примеру, пользователь (чтобы не сказать «пациент») говорил: «У меня проблемы в общении с отцом», на что машина отвечала просьбой рассказать об этом подробнее. Основная задача компьютерной программы заключалась в том, чтобы побудить пациента как можно больше рассказать о себе. Элиза производила такое впечатление, что даже психотерапевты питали некоторые иллюзии касательно применения подобной машины в своей практике. «Отец» же Элизы, Йозеф Вайценбаум, никогда не имел в виду такого ее применения; напротив, он считал опасным доверять компьютерам задачи, которые требуют человеческой способности к суждениям, ведь даже наиумнейшая машина не способна иметь этических убеждений. Было бы глупо и безответственно предоставить машине решения тех проблем, которые корнями уходят в область этики или морали; в качестве примера можно привести такие радикальные вопросы, как, скажем, проблемы войны и мира.
Компьютеры и долгосрочное прогнозирование