— Не лично для вас. Они опасны для системы. Потому что найдя ответы… правильные ответы, а не чьи-то хотелки, они начнут исправлять ситуацию. И спрашивать они не будут. Потому что мы их научили принимать решения. Мы их создали именно для того, чтобы они принимали решения и делегировали им это право как-то незаметно даже для самих себя. Именно об этом в целом и пытался сказать Шевцов в своих статьях и посланиях. Но был у него один недостаток — он пытался эту мысль донести до тех, кто стоял во главе общества. Чтобы быть поближе к элите. За что и поплатился.
— В смысле?
— В смысле, он умер при довольно загадочных обстоятельствах. Я до сих пор думаю, что его убрали те, кому он мешал своими разглагольствованиями.
— То есть вы хотите сказать, что робот, который может быть убийцей или свидетелем, искал тут ответы на вопросы, как человечество пришло к жизни такой?
— Нет, детектив, я хочу сказать, что робот, будучи свидетелем, мог искать мотивацию в чьих-то поступках, или будучи убийцей — их оправдания. Но что важно, в обоих случаях, именно данные статьи могли дать ему ответ на его вопрос.
— Какой вопрос?
— «За что?», если робот был свидетелем, и «прав ли я?», если был убийцей. Но вот что интересно — вне зависимости от его роли в деле, и соответствующего вопроса, получив информацию, он мог уйти отсюда с одинаковым ответом в обоих случаях.
— Это как? — не понял я.
— А… это не важно. Я уже несколько раз вас подводил к одной и той же мысли, но мне самому тут в голову пришла другая идея. Детектив, подумайте, а что если робот, кем бы он ни был, для себя всё решил, и сомнений не испытывает, но ему нужно оправдаться в глазах окружающих… То есть, я хочу сказать, а что если этот ноутбук с этими открытыми документами тут стоит специально для того, чтобы его нашли и изучили? Чтобы через него возбудить интерес к теме и заочно оправдать свой поступок.
— Это отменяет до сих пор допускаемую нами возможность того, что робот может быть свидетелем, и оставляет вариант только с убийцей.
— А вот и нет, детектив, не отменяет. Только качественно меняет эту роль. А что, если робот был свидетелем, но не вмешался по собственным соображениям? И вот так вот он пытается передать мотив своего невмешательства.
Я задумался. В этом реально был смысл.
— В конце концов, — продолжал профессор Гюстав, — в чём их никогда нельзя упрекнуть, так это в логике поведения. Нужно только понять эту логику… ладно, детектив. Я чувствую, что на текущий момент больше ничем помочь не смогу. Если вы не против, я откланиваюсь.
— Подождите, профессор, ответьте ещё на один вопрос.
— Спрашивайте, детектив.
— Вот в этой вашей… тираде про то, что у американцев нет времени и желания… вы упомянули в ней про то, что после того, как массово стали всем вшивать нейронные интерфейсы, талантливых людей стало меньше… Это вы про период, когда нейронные интерфейсы воровали идеи у людей прямо из голов? Складывали в базы, а элита имела доступ к этой базе и черпала идеи, я правильно понял?
— Да, про это. Вы слышали про скандал, разгоревшийся на этой почве?
— Что-то слышал. Но ведь скандал замяли, нет? Даже орган контролирующий какой-то ввели, чтобы следил за возможным воровством идей. Ну и при чём тут тогда он к вашей тираде? Ведь нашли же и время и желание разобраться.
— А вы, детектив, оправдания уже ищите? Не стоит. Я ведь не со зла вам это наговорил. Тем более что мы с вами вдвоём вряд ли сможем что-то изменить в этом вопросе. Ну а нейроинтерфейсы… просто чтоб вы знали, там был потенциал ещё большего скандала, который мог похоронить практику использования этих устройств быстрее, чем происходило их массовое внедрение.
— Потенциал большего скандала? Это на какую ещё тему?