— Машина должна подчиняться! — воскликнул Каляев. — А это… это не лезет ни в какие ворота. Она не слушает человека, спорит — и ваши сотрудники это поощряют.
— У вас есть дети, Михаил Викторович? — спросил Смирнов; чем-то неуловимым — напором во взгляде, сердитым прищуром? — инспектор напоминал в эту минуту академика Володина.
— Это не ребенок: это искин! — Каляев убрал планшет. — У искина далеко не детские обязанности и совсем не детские возможности. С ним нельзя обращаться, как с ребенком. И как со взрослым нельзя, потому что это — да как вы не понимаете?! — не человек, это, искин! А вы такого наворотили, что сам Володин голову сломит, пока разберется, что под этой титановой «черепной» коробкой творится. И как можно с
— Вы техинспектор; а я двадцать пять лет руковожу людьми, Михаил Викторович. — Смирнов посмотрел на Каляева насмешливо. — Они должны подчиняться! Но они не слушают. Спорят. Поступают так, будто в их черепных коробках один тараканий помет. Я видел множество аварий: в девяти из десяти из них не обошлось без человеческого фактора. И все же мы работаем, успешно выполняем задачи — когда нам не мешают. Машины небезопасны, но они надежнее людей: в чем-то это даже обидно… Наши искины — не исключение: они надежнее нас самих! Возможно — хоть и маловероятно! — что в конкретном случае была допущена какая-то программная ошибка: тогда она будет обнаружена и исправлена. Но ваше возмущение самим фактом существования машин, подобных нашим, не имеет под собой оснований. Оно сродни суеверию.
— Только недавно Валентина втолковывала мне, что суеверия есть форма протонаучного знания и к ним не следует относиться пренебрежительно. — Каляев неприятно усмехнулся. — А вы только меня за дурака держите или генштаб ВКС тоже?
— Что, простите?.. — Смирнов от неожиданности привстал со стула.
— Вы очень не хотите заострять на этом внимание, но Иволга и все искины проекта ИАН — еще какое исключение, Всеволод Яковлевич, — мрачно сказал Каляев. — У обычных антропоморфных искинов, вне зависимости от их когнитивного уровня, в абсолютном приоритете принцип ненанесения вреда и безопасность человека: так называемый первый закон робототехники. Он в них прописан программно и обеспечен аппаратно: не допускается ни малейшего риска. Но искины ИАНа рассматривают события в их временной разверстке и осуществляют вероятностную оценку, прокладывают маршруты от безопасной земли по экстремальным воздушным трассам. Даже моих невеликих познаний хватает на то, чтобы понять — исходя из принципа ненанесения вреда, искины должны попросту отказаться обеспечивать опасный полет; из расплывчатых формулировок в отчете Белецкого можно сделать предположение, что именно эту лазейку использовал Волхв, чтобы не выполнять приказ Абрамцева, который ему не понравился. И все-таки они летают. Значит, абсолютного приоритета «ненанесения вреда» нет. А что вместо него?
— Вы лучше информированы, чем я думал… и чем мне хотелось бы, — со вздохом признал Смирнов, садясь. — Но ответ на ваш вопрос проще, чем вы, вероятно, думаете. Используется принцип пользы. Он организован иерархически и, как вы верно выразились, развернут во времени: безопасность «вообще» против краткосрочной безопасности «здесь и сейчас», безопасность и процветание общества против безопасности пилота, нужды всего человечества против нужд одного человека, будущее против настоящего. Человек обычно выбирает то, что ближе. Тогда как наши искины лишены этого недостатка.
— Красиво звучит. Но, на деле, то, о чем вы говорите — просто количественная оценка? Пять горняков, которым необходима медпомощь, против одного пилота.
— Количественная оценка, программно прописанный алгоритм: все, как вы любите, — сказал Смирнов. — Вы хорошо изучили историю базы, так что, вероятно, осведомлены об имевших место в прошлом инцидентах. Да хоть бы об аварии экипажа инструктора Голованова: ее уже вспоминали в связи с обстоятельствами гибели Абрамцева.
Каляев кивнул.
— Тогда погибли оба летчика, — продолжил Смирнов. — Но Голованов пострадал за свою самонадеянность и дурость, тогда как летевший с ним курсант — за храбрость и ответственность; и за самонадеянность тоже — куда же без этого. Он обязан был катапультироваться, но не захотел бросить отключившегося дурака-инструктора. Думал, что сумеет спасти машину, несмотря на отсутствие опыта. Не имея оснований рассчитывать на успех, против одной жизни он поставил на кон две, и сверху — счастье своей жены и малолетнего сына. Это был мужественный поступок. Но неверный. Иволга не допустит подобной ошибки — в том было бы ее достоинство, но, если вы не забыли — она лишь дает подсказки: окончательное решение по-прежнему всегда за человеком. Самовольно Иволга может только активировать хеллоу-систему: открыть дверь, выпустить трап перед посадкой пилота в кабину и пожелать ему доброго утра.
— А подвижные элементы и рука-манипулятор на имитационной установке? — спросил Каляев.