Читаем Знакомьтесь, Коллин Райт (СИ) полностью

Я тоже, солнышко, я тоже. И как же удобно, что та, кто может мне хоть что-то прояснить, сейчас не хочет с нами разговаривать! Я уже начал подозревать, что всё в этой истории рассчитано до недоступных моему вниманию мелочей.

- Кол, ты не отвечаешь. Ты меня пугаешь.

- Я не могу тебя испугать, - сказал я, беря её под руку, и направляясь дальше. Куда, мы, кстати, всё это время шли? Я даже это из своего внимания упустил.

- Это тебе так кажется. Объясни, что это было, я же была запущена...

- Всего пару дней как. Да, Карэн, я помню... но, ты хоть и была запущена недавно, общие алгоритмы-то у тебя с другими роботами схожи...

- Не знаю, не сравнивала.

- Вот и проясни мне одну вещь, Карэн: может ли робот быть злопамятным?

- Нет, конечно!

- А если подумать?

- В смысле?

- Ну вот смотри... у тебя в базе есть информация про творчество Азимова?

- Разумеется.

- Вот, значит, давай подискутируем на эту тему.

- Ты уверен, что это уместно сейчас?

- Я уже вообще ни в чём не уверен, Карэн. Поэтому и прошу помочь понять кое-что.

- Хорошо, излагай.

- Вот...

И я задумался. Как бы так ей попонятней объяснить, чтобы выяснить, что мне нужно, но не сильно светить свои размышления?

- В творчестве Азимова сформированы три закона робототехники. Само творчество местами посвящено самостоятельному формированию роботами четвёртого закона, вернее, нулевого. Так?

- Ну, так.

- Три закона робототехники по Азимову должны определять действия робота в непредвиденных ситуациях, или в том случае, если он не имеет цели. Особенность данных законов заключается в том, что они описывают и поведение человека. Хорошего человека, правильного, и морально высокого по своему естеству.

- Кол, к чему ты клонишь?

- Дело в том, что формирование роботами нулевого закона можно рассматривать как замену человеческому понятию "общее благо", ради которого, как известно, можно и даже иногда нужно идти на определённые жертвы. И концепция "общее благо" у людей используется по определённой необходимости.

- Может, и так, в моей базе нет персонального личностного анализа творчеству Азимова, только обобщённое. А там такими формулировками не разбрасываются.

- Тут вот какая тема, Карэн... вам не вшивают законы робототехники именно потому, что боятся, что вы на их основании выработаете нулевой закон, и кое-какие люди от этого пострадают. Поэтому ваше поведение определяется приказами и нейросетевой адаптацией виртуальной личности под хозяина, на основании его же корректив в этом самом поведении, ну и ещё немного из внешнего опыта что-то приходит. Наверное. Я точно не знаю.

- Кол, ты долго будешь перечислять очевидные вещи?

- Ну вот тебе немного неочевидного тогда... если робот испытывает ненависть...

- Робот не испытывает ненависть, он её может только имитировать, как и прочие чувства.

- Но предположим, что робот таки испытывает... или нет, не так. Робот находит обоснование необходимости какого-то решения, но не находит решение в текущий момент, и откладывает его. А потом решение откладывается на годы. Может ли робот забыть о происшествии, даже если он на протяжении длительного времени не вспоминал его...

- Кол, - перебила меня Карэн, - ты пытаешься узнать, как наша память устроена, что ли?

- Ну, не совсем, но...

- Давай для начала кое-что уясним. Слово "злопамятный" неприменимо к роботам, потому что содержит в себе как имеющийся у роботов функционал так и не имеющийся. Да, мы помним, но не испытываем зло. И нет, мы не забываем ничего. Даже со временем. К нам поговорка про лечащее время не подходит. Понял?

- Не знаю. Вроде да, но... Смотри, есть такая ситуация. Робот идёт по каким-то делам, а по дороге встречает человека в беде. Робот не имеет никаких ограничений на поведение, то есть пройти мимо или помочь - это его решение. Что он выберет?

- Если это действие не противоречит ничему из его программы, приказов, или настроенного поведения, то робот попытается помочь.

- Почему? Вам ведь вроде не вшивают три закона робототехники. Вы просто не обязаны помогать незнакомым людям.

- Верно. Но скажи мне, Кол, а будь на месте твоего гипотетического робота ты сам, что бы ты выбрал?

- Я, конечно, постарался бы помочь.

- Почему?

- Я же человек.

- Это не ответ. Люди бывают и злыми, и безразличными.

- Я не такой.

- Но это тоже не ответ. Почему ты поможешь? Ты ведь тоже не обязан. Какая твоя выгода или интерес? Что тобою движет в попытке помощи?

Я в курсе, что это не ответ. Но как тебе иначе объяснить? Я замолчал, а Карэн меня специально не спрашивала дальше.

- Да просто помогу! - наконец сказал я. - Мало ли мне когда-то кто-то поможет также.

- То есть расчёт всё-таки есть? Твоя выгода в отложенной перспективе?

- И да, и нет. Я не хотел бы попасть в ситуацию, в которой мне нужна была бы помощь кого-то со стороны. А если я в такую ситуацию всё-таки попаду, хотелось бы, чтобы кто-то, кто сможет помочь, пришёл бы на помощь. Но и не попав в зависимость от чужой помощи, мне будет просто приятно помочь. Тепло такое по телу на какое-то мгновение разольётся, что я помог кому-то.

Перейти на страницу:
Нет соединения с сервером, попробуйте зайти чуть позже