Но обратный процесс дублирования компьютерной познавательной нервной сети в нервную сеть мозга клона прототипа столкнется с очевидными трудностями. Если цель дублирования заключатся в создании клона, который будет идентичной интеллектуальной копией прототипа, тогда неясно, как будут преодолеваться связанные с этим проблемы.
Главная из них – эффективность усвоения знаний, которая существенно зависит от возраста человека. Например, известно, что детей, которых в младенчестве выкрадывают обезьяны и затем воспитывают в стае, невозможно уже во взрослом возрасте научить человеческому языку. Отсюда очевидное противоречие. Если интеллект взрослого прототипа будет скопирован его клону-ребенку, тогда разовьется серьезный психологический конфликт связанный с внедрением психики взрослого в детский организм. А если блокировать органы чувств до тех пор, пока не разовьется взрослый клон прототипа, тогда взрослый клон не сможет воспринять знания, которые должны быть усвоены развивающимся мозгом в детстве. Если «загружать» мозг клона знаниями прототипа постепенно, в процессе взросления, тогда появление их в мозге тут же активизирует взаимодействия интеллекта клона с внешней средой. Но такое взаимодействие будет изменять интеллект прототипа и копии не получится. Итак, нужно будет находить обходные пути полноценного внедрения знаний прототипа взрослому клону, снимая, каким-то образом, блокировку способности к обучению с возрастом, свойственную человеку. Например, загружать в мозг клона интеллект прототипа постепенно, в соответствии с возрастом клона, но при этом блокировать активацию этих знаний до тех пор, пока организм клона не достигнет возраста прототипа. При этом до процесса активации интеллекта клон будет находиться в состоянии «овоща»: взаимодействие с внешней средой будет сведено исключительно к питанию.
5.4. Искусственная личность и моральные проблемы ее Творца
Формирование ИИ, как по методу «пустой» компьютерной копии нервной познавательной сети, так и по методу полной компьютерной копии интеллекта человека, в конечном счете, ведет к созданию
Очевидно, что пустая компьютерная познавательная нервная сеть может использоваться как полигон для экспериментов с ИИ. Нагружая одну и ту же сеть разными знаниями, можно изучить законы познавательной деятельности человека, точнее, обнаружить связь между обучением, творчеством и структурой нервной сети. Но кто позволит проводить эти иезуитские исследования? Одно дело получить неактивированную копию познавательной нервной сети человека, а другое, предоставить этой сети возможность размышлять, чувствовать и, в конечном счете, прийти к осознанию своего положения.
Как только ИИ осознает, что он является копией мозга человека, которая помещена в неживой объект (компьютер), у ИИ обязательно возникнет тяжелейший психологический шок. «Голова профессора Доуэля» оказалась лишенной даже своей головы! Известно, например, что человек с ампутированной конечностью постоянно ее ощущает так, как будто никакой ампутации и не произошло. У ИИ, скопированного с человеческого, должно быть ощущение ампутации всего организма: ему будет казаться, что он в теле, а на самом деле он будет осознавать, что замурован внутри машины, компьютера, без каких-либо перспектив на освобождение
Более того, очевидно, что научные эксперименты с таким ИИ будут подобны самым изощренным пыткам. Сознание человека, оказалось, с одной стороны, практически бессмертным, так как ИИ, в качестве компьютерной познавательной нервной сети, может многократно копироваться и хранится в существенно менее подверженных старению носителях, чем человеческих организм. С другой стороны, сознание человека, оказывается в качестве ИИ в полной и вечной зависимости от исследователя-компьютерщика, а фактически, палача. Исследователь, вмешиваясь в функционирование компьютерной нервной познавательной сети, о деятельности которой у него нет достаточных представлений, может вызвать у ИИ совершенно невообразимые страдания. Такое вмешательство исследователя может восприниматься ИИ как болезненное и длительное разрушение виртуальных (а для ИИ реальных) частей тела, например, раковым процессом или того хуже. «Перезагрузка» ИИ наверняка будет восприниматься как смерть, причем не обязательно мгновенная и не мучительная
Допустимо ли исследователю многократно умерщвлять ИИ, особенно если ИИ является совершенной интеллектуальной копией реального живого человека? Правильно ли допускать прототипу такие издевательства над своей интеллектуальной копией, которая обладает тем же набором чувств, что и прототип?