Поскольку игру в шахматы искусственный интеллект полностью подчинит максимизации своей полезной функции (а именно победе в игре), он будет избегать любого сценария, в котором может быть отключен, потому как отключение вызовет резкое снижение этой полезной функции. «Когда робот, играющий в шахматы, будет уничтожен, – пишет Омохундро, – он уже никогда не сыграет в шахматы снова. Такая ситуация будет иметь очень низкую полезность, и система скорее всего сделает все, чтобы предотвратить ее. Получается, вы создаете робота, играющего в шахматы, думая о том, что сможете его выключить, если что-то вдруг пойдет не так. Но, к своему удивлению, вы обнаружите, что он будет усиленно сопротивляться вашим попыткам».
Задача разработчиков искусственного интеллекта заключается в проектировании технологии таким образом, чтобы она не возражала против отключения и вела себя так, как мы пожелаем. А проблема заключается в том, что такое четкое определение желаемого поведения совсем не очевидно. Словосочетание «человеческие ценности» широко используется при обсуждении искусственного интеллекта и экзистенциального риска, но ссылка на эти ценности часто объясняется невозможностью любого осмысленного и точного их изложения. Например, вы можете представить, что цените безопасность своей семьи превыше всего. И поэтому вы можете подумать, что разумно встроить в робота, которому поручено заботиться о ваших детях, императив, заключающийся в том, чтобы все его действия подчинялись правилу «не подвергать детей риску причинения вреда». Это, по сути, первый из трех известных законов робототехники Айзека Азимова, в котором говорится: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред».
Но реальность такова, что на самом деле мы не так одержимы безопасностью детей, как нам кажется. Самоходный автомобиль, следующий этой инструкции с абсолютной строгостью, будет отказывать в доставке ваших детей в кино на новый мульт-фильм о приключениях мальчика и его приятеля-робота, учитывая нетривиальный риск попасть в аварию по дороге.
Один из возможных подходов, чаще всего предлагаемый самим Стюартом, заключался в том, чтобы, вместо попыток записать эти неявные ценности и компромиссы в исходный код искусственного интеллекта, запрограммировать искусственный интеллект на самообучение в процессе наблюдения за поведением человека.
– Так же, как мы сами учимся человеческим ценностям, – сказал он. – Это и безусловные инстинкты – например, информация, что нам неприятна боль, – и четко сформулированные правила – например, люди говорят, что не следует воровать. Но большинство делает выводы о ценностях, наблюдая за поведением других людей. Это же нужно делать и машинам.
Когда я спросил его мнение о том, насколько сильно искусственный интеллект сможет превысить человеческий, Стюарт в привычной для своей профессии манере пророчествовал весьма неохотно. Последний раз он допустил ошибку, публично сославшись на некоторый график, в январе того же года на Всемирном экономическом форуме в Давосе. Заседая в так называемом Совете глобальной повестки дня по искусственному интеллекту и робототехнике, Стюарт заявил, что искусственный интеллект превысит человеческий в течение жизни его собственных детей. Результатом такой ошибки стал заголовок Daily Telegraph о том, что «роботы-социопаты могут захватить человеческую расу в течение одного поколения».
Такая фраза, конечно, содержала в себе истерию, на деле отсутствующую в словах Стюарта. Но, разговаривая с людьми, вовлеченными в обеспечение безопасности искусственного интеллекта, я заметил внутреннее противоречие: их жалобы на сенсационную подачу информации из их заявлений были подорваны тем фактом, что сами эти заявления, несмотря на сдержанные формулировки, были настолько сенсационными, насколько это было возможно. Трудно переоценить что-то столь же драматическое, как потенциальное уничтожение всего человеческого рода, что, конечно же, является главной причиной, почему журналисты (к которым принадлежал и я) были настолько вовлечены в процесс.