Первый комплекс проблем можно смоделировать на крайнем примере, который является «механическим соответствием» уже рассмотренной выше проблемы «прививки желания собственной смерти». Можно представить себе ситуацию, когда конструктор должен создать робота, предназначенного для решения только одной задачи: этот робот должен, к примеру, высадиться на какой-то планете и там выполнить определенную работу. Когда он сделает то, что заложено в его программе, необходимость в нем полностью отпадает. Кроме того, условия среды, в которой придется работать этому автомату, могут быть настолько сложными, что робот, сконструированный для более мягких условий, не справится с ситуацией. Другими словами, в качестве исполнителя нужен автомат, наделенный способностью делать выводы, анализировать обстановку, находить оптимальные решения, то есть независимость поведения которого должна быть на уровне человека. Судьбе этого электронного мозга вряд ли позавидуешь, когда он справится с поставленной задачей. Если бы речь шла о машине, ее можно было бы просто оставить на планете или, при необходимости, встроить в нее механизм саморазрушения, который включится после завершения запрограммированных работ. Но робот, интеллектуально похожий на человека и обреченный на разрушение, потому что конструкторы вмонтировали ему в мозг взрывное устройство, это, пожалуй, негодное решение. Но почему? Следовало бы в последнем файле программы закодировать «тягу к смерти», чтобы эта электронная или бионическая личность «по собственной воле и без принуждения» покончила с собой. Но там, где в игру вступает запрограммированный «Танатос», не может быть и речи о свободе воли. Конструктор в ответ скажет следующее: «Такой подход лишен рационального смысла. Он подразумевает, что система, способная к интеллектуально независимому поведению, должна полностью соответствовать человеку как абсолютному эталону. Такой подход в состоянии породить только бессмыслицу. Допустим, что я послушаюсь моралиста и встрою в автомат влечение к смерти с такими же характеристиками, как половое влечение человека. Либидо очень сильно, но усилием воли его можно обуздать. Пусть то же самое происходит и с моим роботом. После окончания работы он будет жаждать самоуничтожения, но в то же время сможет обуздать свое желание. Тогда, внутренне свободный, но разрываемый между жаждой самоликвидации и желанием продлить свое существование, он будет годами постепенно распадаться на чужой пустой планете. Моралисту этого хотелось? Это именно то идеальное решение, которое я должен принять? Возможно, последует реплика, что такая дилемма не могла бы возникнуть, если бы машина вела себя разумно, но самосознанием не обладала. Однако так как не существует никаких „сознаниеметров“ и о наличии сознания мы можем судить только по внешним проявлениям, то есть по поведению, сходному с нашим, то не может быть критериев, отделяющих роботов с „собственным субъективным миром“ от машин, такого мира лишенных».
После такой речи моралист окажется действительно в затруднительной ситуации. Если он будет настаивать на директиве «максимализации внутренней свободы», то его ждут неприятные сюрпризы от какого-нибудь инженера-психолога, который, поверив ему, что чем душа свободнее, тем в нравственном смысле лучше, начнет встраивать в эту душу доселе неведомые свободы. Он создаст такую технологическую среду и встроит в человека такие бионические устройства, что такой человек сможет только актом воли совершать то, что раньше требовало физических усилий; он сможет, например, убивать других людей, просто мысленно пожелав этого, сможет, отдав мысленный приказ, взрывать звезды; сможет, если только пожелает, узаконить геноцид, ибо за каждым его решением на ментальном уровне автоматически последует практическая реализация соответствующих постановлений и теоретических выкладок. Таким образом, этот радикально обновленный человек будет обладать свободой воли в небывалых, гигантских масштабах, но, естественно, ему не позволено будет употреблять ее во зло. Так как только маньяк «психической свободы» согласился бы на такую «программу оптимизации», очевидно, что для этики нет иного объекта, кроме созданного в процессе эволюции человека, ведь автоэволюционные перспективы подрывают самые основы этики.