Когда миром станет править искусственный интеллект, мы вполне можем этого точно так же не заметить. Мы ведь уже не можем осмыслить и проанализировать те объемы данных, которые сами же и производим, – и нам приходится доверяться компьютеру. Вы можете спросить у машины: можешь что-то предсказать на основе этих данных? Она ответит: да, конечно. Вы спросите: а как ты это делаешь? Она скажет: прости, но ты не поймешь.
И все это – уже реальность.
Мировое научное сообщество в последнее время активно вовлечено в обсуждение рисков создания искусственного интеллекта (ИИ), который может стать угрозой существованию человечества. Очередную волну «киберофобии» (боязни кибернетики) подняли высказывания знаменитого британского физика-теоретика Стивена Хокинга, пришедшего к выводу, что ИИ способен положить конец человеческому роду. Его выводы основываются на ограниченных физиологией возможностях человека – с одной стороны, и быстрым развитием искинов-роботов – с другой.
Интервью Хокинга
Полезный искусственный интеллект мог бы сосуществовать с людьми и увеличивать наши возможности. Но искусственный интеллект, вышедший из-под контроля, может оказаться трудно остановить. При разработке искусственного интеллекта необходимо обеспечить соблюдение требований этики и мер безопасности…
Появление полноценного искусственного интеллекта может стать концом человеческой расы.
Недавно, беседуя с легендарным американским журналистом Ларри Кингом, Хокинг сделал необычное заявление. По его словам, классические законы робототехники, введенные 75 лет назад Айзеком Азимовым[1]
, безнадежно устарели. В первую очередь это связано с военными проектами искинов-терминаторов, массово создаваемыми Пентагоном с помощью одиозного американского Агентства по перспективным оборонным научно-исследовательским разработкам (DARPA).Надо сказать, что некоторую ограниченность трех законов робототехники прекрасно понимал и сам Азимов. Об этом говорит «нулевой закон», сформулированный в одном из его романов, входящих в цикл «Основание», который рассказывает об очень далеком будущем галактической расы землян. В книге «Основание и роботы» (1985 год) говорится: «Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред».
Сегодня американские военные, бредящие возрождением рейгановских «звездных войн», пытаются всячески переформулировать этику законов робототехники, подстраивая ее под образ «великой американской мечты господства над всем миром». Так возникают чудовищные проекты «звезд смерти», населенных искинами и следящих за соблюдением «базовых принципов либеральной демократии» на нашей планете. Ну а если электронный мозг «звезды смерти» решит, что где-то на Земле нарушаются «принципы свободы и демократии» в понимании Белого дома, туда немедленно ударят все испепеляющие лучи гайзеров (рентгеновских лазеров). Варианты этого страшного оружия с «ядерной накачкой» были созданы еще в эпоху параноидальной рейгановской СОИ (Стратегической оборонной инициативы)…
Стивен Хокинг отмечал, что примитивные формы искусственного интеллекта, уже существующие на сегодняшний день, доказали свою полезность, но он опасался, что человечество создаст что-то такое, что превзойдет своего создателя.
Ученый предполагает, что такой разум очень быстро возьмет инициативу на себя и станет сам себя совершенствовать со все возрастающей скоростью. А если учесть, что возможности людей ограничены слишком медленной эволюцией, мы никак не сможем соревноваться со скоростью «мышления» машин.
Хокингу возражает молодой разработчик веб-приложения Cleverbot Ролло Карпентер, который доказывает, что мы еще долго останемся хозяевами даже самых продвинутых искинов, которые, в свою очередь, могут помочь нам решить многие мировые проблемы.