Учитывая нашу высокую восприимчивость к любому намеку на присутствие характера в вещи, можно ожидать, что в будущем наше взаимодействие с техникой будет еще более имитировать человеческие отношения, мы будем устанавливать личные связи с компьютерами, даже если они не выполнены в традиции роботов-гуманоидов. Мы уже строим выводы о том, каков характер у множества неочеловеченных предметов — инструментов, игрушек, домашней утвари, машин, даже домов, — и видим в них улыбки, хмурые взгляды, проявления злобы или радости. Я думаю, нас ожидает множество новых решений, основанных на личных отношениях с машинами, — механические репетиторы, психоаналитики, тренеры; мы будем отправлять роботов за покупками и слушать их шутки.
Я расспрашивал Шерри Теркл о роботе из ее лаборатории по имени Kismet, созданном специально для исследований в области социальных роботов. Kismet обладает выразительными глазами с огромными зрачками, длинными ресницами, подвижными веками и взглядом, намеренно копирующим человеческий, а точнее — детский. Он следит за вашими глазами и смотрит на то, что привлекает ваше внимание. Эффект, по мнению Шерри, потрясающий. Сидя напротив Kismet, вы быстро к нему привязываетесь. Вам скоро начинает казаться, что вы читаете на его лице эмоции и намерения, угадываете его планы и чувствуете, что машина искренне заботится о вас.
Принцип взаимности
Подход к робототехнике, задействованный при создании Kismet, поднимает важный вопрос: какими будут последствия взаимодействия с очеловеченной технологией для нас? В социальной психологии (и с общепринятой точки зрения) принцип взаимности подразумевает, что наше отношение к посторонним влияет на то, как посторонние ведут себя с нами в ответ. Это краеугольный камень любых правил поведения в обществе. На добрый привет — добрый ответ. Однако применим ли принцип взаимности к роботам?
И снова у Клиффорда Насса из Стэнфорда находим пример в одном из его исследований. В 1996 г. он проводил эксперимент, в ходе которого пытался выяснить, как люди воспринимают роботов, способных на ответную реакцию. В ходе исследования испытуемые гораздо охотнее выполняли утомительное и сложное задание, если имели дело с компьютером, проявлявшим предупредительность. Результаты эксперимента подтверждают, что мы склонны строить свои отношения с машинами по образцу межличностных.
Исследователи пробовали и другие подходы к изучению природы взаимоотношений между роботами и людьми. Кристоф Бартнек, например, провел роботизированную версию знаменитого эксперимента Милгрэма. В изначальной версии испытуемые Милгрэма постепенно увеличивали напряжение в электрошокере, подсоединенном к незнакомому человеку. Его страдания (на самом деле ненастоящие, как и электрошокер) не останавливали испытуемых, если исследователь продолжал подталкивать их к увеличению напряжения. В эксперименте Бартнека вместо актера фигурировал робот-кошка. Испытуемым предлагалось сыграть в игру на компьютере, в то время как робот просто сидел рядом. Одной группе испытуемых достался робот, проявлявший некоторое участие, а другой группе — равнодушный. Как только игра заканчивалась, предлагалось выключить робота. Вся загвоздка заключалась в том, что робот не хотел, чтобы его выключали, и начинал молить о пощаде. Естественно, испытуемые заволновались. Им было, конечно же, неприятно, ведь у них было такое ощущение, будто им предлагается убить кошку. Особенно неохотно нажимали на кнопку «Выкл.» те, кому достался участливый робокот.
Падая в зловещую долину
Почему это важно? Особенности нашего отклика на неотению и то, с какой легкостью мы поддаемся очарованию вещей, обладающих хотя бы намеком на индивидуальность, подводят нас вплотную к основной проблеме социальной робототехники: теории «зловещей долины».
Многие из нас хоть раз мечтали об обладании двойником, допельгангером[10], нашей копией-роботом, но чем ближе мы подходим к воплощению этой мечты, тем менее привлекательной она становится. Если бы мы были в состоянии создать идеальную копию человека, обладающую всеми навыками общения, человеческой логикой, памятью и эмоциональными переживаниями, проблема взаимодействия человека с компьютером была бы решена. Нам даже не пришлось бы называть это интерфейсом типа «человек-компьютер», ведь конструируя такого допельгангера, мы бы фактически создавали интерфейс «человек-человек».