Возможно, это был основополагающий постулат веры в сообществе исследователей искусственного интеллекта, мысль, лежащая в основе как блаженства сингулярности, так и ужаса перед катастрофической угрозой полного уничтожения. Этот постулат известен как интеллектуальный взрыв, понятие, впервые введенное британским статистиком Ирвингом Джоном Гудом, бывшим криптографом Блетчли-парка, который консультировал Стенли Кубрика по вопросам искусственного интеллекта для съемок «Космической Одиссеи 2001 года». В статье «Рассуждения о первой сверхразумной машине» (Speculations Concerning the First Ultraintelligent Machine), представленной на конференции НАСА в 1965 году, Гуд изложил перспективу странного и тревожного преобразования, которое, вероятно, произойдет при достижении искусственным интеллектом нашего уровня. «Дадим определение сверхразумной машине, – писал он, – как машине, которая намного превосходит любую интеллектуальную деятельность любого человека, каким бы умным он ни был. Поскольку проектирование машин является одной из таких интеллектуальных задач, сверхразумная машина смогла бы разрабатывать более совершенные машины; тогда, несомненно, случится «интеллектуальный взрыв», и разум человека останется далеко позади».
Мысль в том, что подобное творение будет последним инструментом, телеологическим концом нашего пути, начавшегося с броска первого копья. Оно будет «последним изобретением, которое человеку когда-либо нужно будет создать». Гуд верил, что такое изобретение будет необходимо для выживания нашего вида, а катастрофы удастся избежать, только если сделать машину «достаточно покорной, чтобы рассказать нам, как ее контролировать».
Этот механизм, покорный или нет, работал бы на интеллектуальном уровне, настолько превышающем уровень его человеческих прародителей, что его уловки, его загадочные пути мысли были бы для нас непостижимы – аналогично тому, как наши действия непонятны для крыс и обезьян, которых мы используем в научных экспериментах. И поэтому интеллектуальный взрыв станет завершением эпохи господства человека и, возможно, окончанием человеческого существования.
Как выразился Минский, «неразумно думать, что машины станут такими же умными, как мы, и остановятся на этом, или что мы всегда сможем тягаться с ними в остроумии или мудрости. Сможем ли мы сохранить контроль над этими машинами при условии, что он может нам понадобиться, когда основы деятельности или устремлений будут полностью изменены присутствием на Земле созданий, интеллектуально превосходящих человека».
Это, по сути, основная идея сингулярности и ее обратной стороны – катастрофического экзистенциального риска. Слово «сингулярность» – это прежде всего физический термин, характеризующий центр черной дыры с бесконечной плотностью материи, где не работают пространственно-временны́е законы.
– Очень сложно будет предсказать будущее, как только появится нечто умнее человека, – сказал Нейт. – Так же, как шимпанзе очень трудно предсказать, что случится, потому что многое вокруг выше его понимания. Так вот что такое сингулярность – это некий момент в прошлом, который вы ожидаете и который не сможете увидеть.
Несмотря на убеждение, что после появления искусственного интеллекта предсказать будущее станет сложнее, чем угадать, сколько цветов вырастет в саду, Нейт считал, что ситуация, в которой человечество будет просто выброшено в мусорную корзину истории, весьма вероятна.
Вот над чем он и его коллеги работали в МИРИ, в Институте будущего человечества, в Институте будущей жизни: они пытались предотвратить создание искусственного сверхинтеллекта, который смотрел бы на нас, своих создателей, как на сырье, которое можно переработать в более полезную форму (и совсем не обязательно в канцелярские скрепки). По тому, как Нейт говорил, становилось ясно, что, по его мнению, вероятность нашего провала непомерно высока.
– Поясню, – сказал Нейт. – Я думаю, это дерьмо убьет меня.
Я почему-то испугался его прямоты. Похоже, Нейт воспринимает эту угрозу так же серьезно, как и говорит о ней. Я достаточно хорошо понимал, что для таких людей, как он, это не просто интеллектуальное развлечение, и что они действительно видят такой вариант развития событий весьма реальным. И все же мысль о том, что Нейт предпочел бы умереть от рук гениальной компьютерной программы, а не от рака, болезни сердца или от старости, в конечном счете кажется безумной. Похоже, он пришел к этой позиции самым рациональным путем. Хотя я почти ничего не понимал в математических символах и логических схемах, которые он рисовал мне на доске, я принял их в качестве доказательства. И все же его позиция показалась мне настолько нерациональной, насколько это было возможно. Не в первый раз я был поражен тем, как абсолютный разум может служить абсолютному безумию. Но, опять же, возможно, это я был сумасшедшим или, по крайней мере, безнадежно необразованным тупицей, неспособным понять логику надвигающегося апокалипсиса.