В ближайшие десятилетия технологии ИИ и робототехника продолжат активно развиваться. Возникает вопрос: какие законы нам предстоит разработать, чтобы наши новые творения не причиняли вред людям? В 1942 г. писатель и популяризатор науки Айзек Азимов (1920–1992) в рассказе «Хоровод», повествующем о взаимоотношениях умного робота с людьми, сформулировал знаменитые три закона робототехники: 1) робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред; 2) робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат первому закону; 3) робот должен заботиться о своей безопасности в той мере, в какой это не противоречит первому или второму закону.
Позднее писатель предложил дополнительный «нулевой» закон: «Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред». Законы Азимова оказали большое влияние не только на писателей-фантастов, но и на экспертов в области ИИ. Знаменитый ученый Марвин Мински (1927–2016) отметил, что после знакомства с законами робототехники он «не переставал думать о том, как может работать сознание. Когда-нибудь мы создадим думающих роботов. Но как и о чем они будут думать? Для достижения одних целей достаточно логики, однако для других ее мало. Как создать роботов, обладающих здравым смыслом, интуицией, сознанием и эмоциями? И как со всем этим справляется наш мозг?»
Три закона робототехники полезны тем, что поднимают бесконечное количество вопросов. Какими еще законами можно дополнить триаду Азимова? Имеют ли роботы право притворяться людьми? Должны ли роботы «знать», что они роботы, и уметь объяснить, почему поступили так, а не иначе? Что, если некий террорист использует нескольких роботов, чтобы причинить вред людям, но ни один робот не будет в курсе всего плана и потому не нарушит первый закон? Как эти законы повлияют на действия армейских медицинских роботов, которым в силу невозможности помочь всем сразу придется сортировать раненых? Или на поведение беспилотного автомобиля, который должен будет решить, врезаться ли ему в играющих на дороге детей или свернуть в сторону и убить пассажира? Наконец, способен ли робот определить, что значит «причинить вред человечеству», если последствия его действий проявятся через много лет?
СМ. ТАКЖЕ Смертоносные боевые роботы (1942), Этика искусственного интеллекта (1976), «Бегущий по лезвию» (1982), Беспилотные автомобили (1984)
Писатель Айзек Азимов, сформулировавший три закона робототехники, на обложке своего научно-фантастического журнала (1977). В этом журнале был опубликован рассказ Азимова «Думай!», где автор развивает идею искусственного интеллекта.
Смертоносные боевые роботы. 1942
В ХХ в. роботов нередко применяли в военных операциях. Один из примеров – немецкая самоходная гусеничная мина «Голиаф», которую вермахт начиная с 1942 г. использовал на всех фронтах Второй мировой. «Голиафы» управлялись дистанционно с помощью соединительного кабеля и несли на себе взрывчатку; сами машины взрывались вместе с намеченными целями.
В наше время в качестве эффективных систем вооружения используются дроны (беспилотные летательные аппараты), оснащенные ракетами. Однако для их применения обычно требуется дистанционное участие человека: машины запрашивают «разрешение», прежде чем уничтожить цель. Первые в истории смертельные авиаудары беспилотника (
У военных роботов есть множество преимуществ: они не устают и не испытывают страха; они способны быстро выполнять маневры, опасные для живых пилотов; теоретически они могут сохранять жизни солдат и сокращать ущерб и число жертв среди мирного населения. Можно включить в программу робота ряд правил, например запрет на стрельбу, если точно не установлено, является ли цель вражеским бойцом, а не мирным жителем. Для большей точности можно использовать технологии распознавания лиц. Военные роботы могли бы работать плечом к плечу с солдатами, расширяя их возможности, – подобно тому как программное обеспечение и робототехника уже используются при проведении медицинских операций. Но насколько самостоятельными должны быть боевые машины? Кто будет виноват, если робот случайно атакует школу?