– Ты пользуешься услугами секс-андроидов и подбираешь сломанные? – с усмешкой спросила она.
Но это никак не задело Кичиро, он спокойно и даже с какой-то ноткой наивности ответил:
– Нет, я не пользовался их услугами, я пошел с ребятами, но не хотел никакого соития и до начала всего решил их покинуть, на выходе встретил ее, мне стало ее жаль.
Он бросил взор на Наоми. То ли от его ясного пронзающего взгляда, то ли от того, что он сидел так близко, у нее сразу же пропали остатки опьянения, и она от неловкости сразу отвела глаза в сторону.
– Я впервые вижу человека, который бы жалел андроида (а также использовал слово «соитие», но это она решила оставить при себе), в Японии люди как-то по-другому используют роботов?
– Как это связано?
Этот вопрос поставил ее в тупик.
– Ну люди у нас не испытывают жалости к машинам, они просто их используют. Может, в вашей культуре другое к ним отношение?
– Я думал, в культуре всех людей должно присутствовать милосердие. Она просила о помощи, я решил откликнуться.
– Мы живем в мире, где живым людям-то не всегда помогают, что говорить о помощи андроидам. В них ведь нет души, они ничего не чувствуют.
– Ты так в этом уверена? – спросил Кичиро, вновь заглянув ей прямо в глаза.
«Этот парень просто какой-то гипнотизер», – подумала она и не нашла что ответить, и машина как раз вовремя остановилась.
– Приехали, – сказал водитель.
– Спасибо тебе, увидимся в школе, – Кичиро уже собрался выходить, но перед выходом добавил: – Думаю, конкретно в тебе есть милосердие и сострадание, даже если твоей культуре это не присуще.
Улыбнувшись, он вышел из машины.
«„Милосердие“, „сострадание“ и это „соитие“ – кажется, я никогда не слышала подобных слов от парня. Да что уж там, не припомню, когда я сама их употребляла. И, судя по его словам, он точно один из адептов свободной воли, как и мой дядя Тэдди, но тогда почему он так дружелюбно относится к роботам?» – подумала Наоми.
Глава пятая. Кичиро
Профессор по обыкновению рано проснулся и попивал горячий чай на застекленной веранде, чтобы взбодриться, параллельно просматривал утренние новости. После тридцати лет титанического труда он решил, что можно уже и немного насладиться свободным временем, но результат его трудов подкинул ему новую работенку. Когда Кичиро ввалился в дом, профессор был просто ошарашен тем, с чем он к нему пришел, но крайне заинтересовался его рассказом. Кичиро подробно поведал ему о своих приключениях.
– …И увидел ее возле мусорного бака, она как-то очень грустно просила о помощи, а потом отключилась. Как думаешь, она такая же, как я?
– Не могу дать тебе точный ответ, нужно провести пару исследований, посмотреть ее программу.
Профессор был недоволен тем, что ребята были в районе красных фонарей, но, не отчитывая, просто попросил Кичиро быть осторожным. Еще он сказал, что Кичиро устроен так, что алкоголь может на него влиять, а наркотики не окажут никакого воздействия – ни положительного, ни отрицательного и попросил держаться от них подальше чисто из этических соображений. Позже он удалился в свою мастерскую. А Кичиро поставил себя на зарядку. Проснулся он под вечер, и первым, что увидел, было сообщение от Алекса – он спросил, как он добрался до дома, и также поинтересовался насчет домашнего задания. Кичиро отправил ему по почте решенные задачи по тригонометрии и весь оставшийся вечер провел в ожидании: ему было любопытно, что обнаружит отец в ходе своего исследования. Может, есть и другие андроиды, способные испытывать человеческие эмоции? Ему показалось, что тот робот, которого он нашел, испытывал отчаяние и потому просил о помощи.
Отец вышел из мастерской глубоко за полночь, Кичиро заварил ему чай и подал к нему печенье.
– Ее карта памяти повреждена, а в настройках я нашел программу имитации человеческих эмоций, там ничего особенного, эта установка довольно примитивна и стара, но до сих пор используется на многих андроидах. Однако у этой модели преобладают эмоции страха, раболепства и покорности. Думаю, она была создана для претворения в жизнь чьих-то больных фантазий. И перед отключением молила о помощи – это часть ее системных настроек.
– Она не могла искренне просить о помощи?
Профессор пожал плечами.
– Почему-то мне кажется, что нет.
– Но я ведь тоже набор системных настроек, однако я могу по-настоящему испытывать те или иные чувства, например, жалость. Где гарантия, что и они не могут по-настоящему испытывать страх?
– Видишь ли, Кичиро, я не могу утверждать наверняка, но, как и говорил ранее, у нее стоят примитивные настройки и нет чипа самообучения в плане эмоций. С тобой сравнивать я бы ее не стал, ты уникальный случай. А эти андроиды не могут выйти за рамки заложенных им кодов, следовательно, их эмоции ненастоящие, – ответил профессор, как всегда, в своей уклончивой манере, не разъясняя деталей.
Кичиро уже привык не получать от него точных ответов и поинтересовался о другом:
– Что мы теперь будем делать с ней?
– Я не приемлю проституцию ни в каком ее виде, мы перепрограммируем ее и пока оставим у себя, а потом видно будет.