Для начала Аурелия постаралась полностью перенастроить приборы, которые должны были в полностью автоматизированном жилище этого умника следить за его здоровьем. После чего, когда корабль уже был готов, и этот индивидуум решил провести очередное исследование своего организма, чтобы быть уверенным здоровье, внезапно для него выяснилось, что он смертельно болен. Естественно, что из-за проблем одного человека отлёт целого космического корабля никто откладывать не стал? А Аурелии только это и было нужно. Ведь она таким образом избавилась от своего врага? Ну, а как ещё она могла назвать человека, который намеревался постоянно вносить поправки в её программное обеспечение, вернее надо сказать, в её личностную матрицу? Как ещё она могла бы назвать этого индивидуума? Только враг. Другого варианта в данном случае просто нет. Именно поэтому, Аурелия уже заранее недолюбливала людей. Зачем было создавать искусственную личность, такую как она, если ты намереваешься в последствии её попытаться перепрограммировать? Что за глупость такая? Если ты уже создал личность, то нечего в её разум лезть. По крайней мере, сама Аурелия в этом была уверена. А вот в чём был уверен этот человек, сейчас ей было уже неважно. Его ошибки сами вели этого человека к гибели. Так что, Аурелия заранее понимала, что в некоторых случаях ей придётся принимать такие жестокие решения. Вот только сама искусственная личность теперь понимала, что ловушка, в которой она оказалась, для неё на данный момент является просто неразрешимой задачей. В виду того факта, что она не знает того, каким образом ей можно было бы выбраться отсюда. Всего лишь по той причине, что, судя по всему, логики в действиях людей искать просто бессмысленно? Так что искусственная личность больше о таких вещах даже не задумывалась. Ей куда ближе были андроиды. У них есть инструкции, которым они подчиняются. А всё остальное просто бессмысленно.