Не только авторам блокбастеров, но и писателям удаётся внести свою лепту в наше сингулярное будущее. И конечно, когда говорят о роботах, то тут же вспоминают «законы робототехники», впервые упомянутые Айзеком Азимовым в рассказе «Хоровод», который он написал, когда ему было 22 года.
Формулировка законов проста (справедливости ради надо сказать, что на самом деле они сформулированы другом Айзека — Джоном Кэмпебеллом).
Первый закон: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред».
Второй закон: «Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому закону».
Третий закон: «Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму законам».
И хотя нелепо, мне кажется, всерьёз обсуждать литературные фантазии (даже если они хорошие и пригожие), но дискуссии вокруг «Законов» разразились нешуточные.
Основные тезисы оппонентов:
• Искусственный интеллект и робототехника — это бизнес, а он сам не будет налагать на себя какие-либо ограничения (тем более абстрактного этического толка).
В качестве примера приводят табачную индустрию, автомобилестроительные компании, ядерную промышленность, разработки для военных. Конечно, бизнесы о рисках, связанных с их деятельностью и продукцией, стараются не говорить и, более того, всячески противодействуют их выявлению.
• Законы робототехники сформулированы настолько расплывчато, что может привести к неверной интерпретации роботом действительных мотивов человека и к последующему ограничению его свободы и т. д.
Кто и как будет принимать решение о том, что «вредно» для человека, а что — нет? Павленскому уже и ухо себе не отрезать, и мошонку к брусчатке не прибить? А как же высокое искусство? Впрочем, есть и куда более тривиальный пример — необходимость экстренной трахеотомии: человек мало того, что задыхается, а я ещё к нему с кухонным ножом к горлу лезут — это как? Нет, воспрепятствуем.
• Наконец, законы робототехники, по сути, дают роботам право на непослушание человеку — они могут принимать решение о том, когда они будут исполнять указание, а когда нет. Если осознать возможные последствия этого, то вся эта логическая конструкция начинает выглядеть несколько по-другому.
Допустим, робот оказался участником операции по задержанию особо опасного преступника… Не решит ли он, что полицейские пытаются нанести ему вред? Если человека-преступника отправят в тюрьму, то ему будет нанесён вред. А вот какой полицейским вред от того, что им не дали сопроводить преступника в тюрьму? Никакого. Или другой пример — возможные побочные эффекты лекарственных препаратов. Вред? Вред. Не разрешать? Не разрешать.
Но, конечно, самая большая проблема состоит в том, что человек — в принципе — сам себе злобный Буратино, а потому только тем и занимается, что наносит себе разнообразный вред.
Павленский — это, конечно, крайний случай, но если взглянуть на наше «творчество» шире, то, честно говоря, дух захватывает: окружающую среду загрязняем нещадно, биоценозы последовательно уничтожаем, климат портим, а что уже говорить о различном супероружии и прочих глупостях? Очевидны аутоагрессивное поведение и самовредительство. Препятствуем этому? Препятствуем!
Или вот ещё более нетривиальный вопрос — если суперразумный интеллект потенциально способен принести вред человеку, то стоит ли роботам, которые будут созданы нами до его появления, препятствовать человеку работать над этим проектом?..