Исследования в области ИИ быстро продвигаются, новые возможности появляются все чаще и привлекают новые инвестиции в исследования. В этой области не так много специалистов, считающих, что возможности машинного интеллекта ограниченны, и еще меньше тех, кто верит в его самоограничение. Поэтому следует предусмотрительно предполагать, что машины превзойдут человека. Как заявил Алан Тьюринг в 1951 году: «Если машина сможет думать, она будет делать это лучше нас… Этой новой угрозой… …определенно стоит обеспокоиться»{130}
.Пока самый распространенный способ создания машин, обладающих общим интеллектом, заключается в предоставлении им целей, которых нужно достичь, и алгоритмов, позволяющих искать способы достижения этих целей. (Вместо этого можно жестко запрограммировать поведение машины, но это будет означать, что всю умственную работу проделали люди, что противоречит концепции искусственного интеллекта и просто невозможно, даже для таких простых задач, как игра в шахматы.) К сожалению, как убедился царь Мидас на своем печальном опыте, мы не знаем, как формулировать желаемые цели достаточно полно и точно, чтобы машина не смогла найти нежелательный путь их достижения. Это проблема соответствия ценностей: если достаточно способной машине даны цели, не соответствующие тому, что мы в действительности хотим, или даже просто неполные, то получается, что мы играем с машиной в шахматы, где доска – это мир, а наши фигуры – человечество. Тьюринг в качестве возможного решения предлагал «отключать питание в стратегически важные моменты», но сверхинтеллектуальная машина наверняка предпримет действия, чтобы предотвратить это – не из-за инстинкта самосохранения, а потому что не сможет достичь поставленных перед ней целей, будучи мертвой.
Мы должны исходить из того, что достаточно способная система решит любую поставленную перед ней задачу, поэтому необходимо определять задачи так, чтобы найденное машиной решение было доказуемо выгодным для человека. Звучит как оксюморон, но в действительности это возможно. Основная идея в том, что цель машины должна заключаться в максимально полном достижении выгодных для человека целей, но изначально она не будет знать, что это за цели. Именно эта неопределенность позволяет избежать однобокого и потенциально катастрофического преследования неполных или ошибочных целей. Первоначальную неопределенность машина может постепенно исправлять, наблюдая за действиями людей, получая информацию о настоящих, основополагающих целях. Как минимум в некоторых случаях человеку будет лучше с такой машиной, чем без нее. Возможно даже убедить машину, чтобы она позволила отключить себя (так что Тьюринг, может, был и прав): рационально мыслящий человек сделает такое только в том случае, если высок риск совершения машиной чего-то противоречащего истинной цели человека, которая по определению является также целью машины, так что и машине в таком случае будет выгодно ее отключение.
Эти идеи дают слабую надежду на то, что мы выработаем инженерную дисциплину, позволяющую найти безопасный подход к извлечению пользы из систем на основе ИИ. Разумеется, есть определенные сложности: люди – своенравные, иррациональные, непоследовательные, слабовольные, не поддающиеся расчетам и не похожие друг на друга существа, так что изучать человеческие ценности, наблюдая за человеческим поведением, – сомнительное занятие. С другой стороны, ближайшие перспективы разработки, такие как интеллектуальные персональные помощники и домашние роботы, дают очень сильный стимул к тому, чтобы разобраться с ценностями: помощники, заказывающие гостиничные номера по 20 тыс. долларов за ночь, и роботы, готовящие на ужин блюда из домашних питомцев, вряд ли приобретут популярность.
ИИ скоро будет учиться в процессе работы
Исследования в области ИИ имеют свои трудности. В настоящее время эталоны для сравнения устанавливаются путем грубого перебора и сопоставления шаблонов, и незначительные изменения во входных сигналах могут полностью нарушить модели машинного обучения. Возможно, текущие подходы имеют недостаточную конструктивную прочность, чтобы научить ИИ справляться с самыми сложными задачами, такими как решение проблемы «здравого смысла» или воссоздание ситуативных моделей. Исследователи хотели бы, чтобы машины могли действовать, исходя из ситуативного контекста, и делать общие выводы, не проходя предварительное обучение на огромных наборах данных, но пока это невозможно. Вероятно, новые технологии, такие как квантовые вычисления, смогут изменить подходы ИИ к получению информации о проблемах и позволят ему учиться посредством получения обратной связи, а может, даже имитировать человеческие когнитивные функции познания мира. Если это произойдет, искусственный интеллект сможет приносить экономическую выгоду, работая без свойственных человеку ошибок и усталости.