Хотя поп-культура не показатель, меня огорчает, что сегодня сказочные и мифические истории в духе фэнтези занимают место научной фантастики. Взгляните на список бестселлеров в категории «Фантастика и фэнтези» на Amazon — и вы увидите, что по крайней мере первые 20 позиций занимают книги, посвященные вампирам, драконам и магам или всему сразу. В жанре фэнтези пишет много талантливых авторов, и сам я являюсь большим поклонником Толкина и Джоан Роулинг. Но я испытываю разочарование от того, что сложная и важная работа по прогнозированию будущего сегодня вдруг вышла из моды, как по мановению волшебной палочки.
Вместе с тем трудно не впасть в пессимизм по поводу завтрашнего дня после просмотра таких фильмов, как «Терминатор» Джеймса Кэмерона (1984) и «Матрица» Вачовски (1999). Обе истории основаны на том, как созданные людьми технологии обращаются против самих людей. Этот классический мотив становится как нельзя более актуальным на фоне того, что начиная с 1980-х мы живем в окружении компьютеров и искусственный интеллект стал горячей темой в исследованиях и общественных дискуссиях. В 2009 году на съезде Ассоциации по развитию искусственного интеллекта в Монтерее (Калифорния) всерьез обсуждался вопрос, существует ли вероятность того, что люди могут потерять контроль над суперинтеллектуальными компьютерами.
Представление, будто сверхумные машины могут превзойти своих создателей и объявить им войну, зародилось не сегодня. В своей лекции в 1951 году Алан Тьюринг предсказал, что машины «перещеголяют людей с их ничтожными способностями» и в итоге возьмут власть. Американский математик и писатель-фантаст Вернор Виндж популяризовал эту идею и в 1983 году выдвинул концепцию «технологической сингулярности». «В скором времени мы создадим разум более мощный, чем наш собственный. Когда это произойдет, человеческая история достигнет своего рода точки сингулярности — перехода, столь же непостижимого, как и искривление пространства-времени в центре черной дыры, — и мир выйдет за пределы нашего понимания»{95}
. Десять лет спустя он уточнил: «В течение ближайших 30 лет у нас появится техническая возможность создать сверхчеловеческий интеллект. Вскоре после этого человеческая эпоха будет завершена»{96}.Бостром принял эстафету и продолжил бег. Благодаря широчайшим знаниям и умению найти общий язык с массовой аудиторией он стал одним из ведущих проповедников, вещающих об опасностях суперинтеллектуальных машин. Его книга «Суперинтеллект» выходит за рамки обычных мрачных пророчеств и детально объясняет (подчас наводя ужас), как и почему мы можем создавать машины гораздо умнее нас и по какой причине те могут в конце концов перестать нуждаться в людях.
Плодовитый изобретатель и футуролог Рэй Курцвейл со своей концепцией суперинтеллектуальных машин бежит в противоположном направлении. Его книга «Сингулярность уже близко» (2005) стала бестселлером. Как и в случае со многими предсказаниями, понятие «близко» подразумевает будущее, которое наступит достаточно быстро, чтобы мы его опасались, но не настолько скоро, чтобы воспринимать его как реальность. Курцвейл рисует почти утопический мир, в котором биологическая природа человека и нанотехнологии объединяются в сингулярность и начинают служить людям, позволяя им достичь чрезвычайно высокого уровня мышления и продолжительности жизни.
Ноэля Шарки больше занимает практическая сторона вопроса. Он разрабатывает этические нормы для использования автономных машин, особенно тех, которые он прямо называет роботами-убийцами. Мы близки к созданию дронов, способных самостоятельно спускать курок, поэтому уже сегодня должны предусмотреть и предотвратить вероятность дистанционных убийств. Фонд ответственной робототехники Ноэля Шарки также пытается обратить наше внимание на социальные последствия автоматизации и ее влияние на человеческую природу. «Настало время остановиться и подумать, каким будет наше технологическое будущее, прежде чем оно подкрадется и обрушится на нас», — говорит профессор. Очень важно, что такие предостережения звучат из уст человека уровня Шарки — ведущего мирового эксперта в области робототехники и исследований ИИ, поскольку это свидетельствует о том, что не все, кто говорит о необходимости сделать паузу, — луддиты и паникеры.