«относительно легко достичь уровня взрослого человека в таких задачах как тест на интеллект или игра в шашки, однако сложно или невозможно достичь навыков годовалого ребенка в задачах восприятия и мобильности … В больших, высокоразвитых сенсорных и моторных частях человеческого мозга закодирован миллиард лет опыта о природе мира и о том, как в нем выжить. Я считаю, что тот произвольный процесс, который мы называем рассуждением, есть тончайший поверхностный слой человеческого мышления, и эффективен он только потому, что его поддерживает гораздо более старое и гораздо более мощное, хотя обычно и бессознательное, сенсомоторное знание. Мы все выдающиеся олимпийцы в области восприятия и моторики, мы настолько хороши в этом, что трудное выглядит легким. А абстрактное мышление — это новый трюк, которому, возможно, менее 100 тысяч лет. Мы еще не освоили его. Он не так уж и сложен, он лишь кажется сложным, когда мы его делаем» (Moravec 1988, p. 15–16).
Эволюция человека шла от инстинктивных сенсомоторных действий через деятельность, основанную на обучении и практиках, к разумным операциям, а эволюция искусственного интеллекта протекает, так сказать, в обратном направлении: от решения рассудочных задач (игры) через практики (машинное обучение) к машинным инстинктам (механическое движение).
Эволюция ИИ является задачей, но вместе с тем проблемой. В своей работе 1969 года «Искусственный разум» Николай Амосов писал, что когда у искусственного интеллекта появится способность к самовоспроизводству, к самоорганизации, он неизбежно превратится в
«
Пределы независимости личности, границы ее возможного отличия от первоначально заданных программ — эти понятия имеют количественное выражение. Поведение одних людей остается в пределах преподанных воспитанием норм, другие люди выходят за эти границы — вплоть до преступлений против общества. Многое зависит от прочности воспитания и “воспитуемости” — индивидуальных свойств коры головного мозга и подкорки. Все эти качества будут задаваться и искусственному разуму, с тем чтобы они служили некоторой гарантией “лояльного” поведения в отношении людей (вспомним «Законы роботехники» А. Азимова!). Правда, гарантии относительные, и они тем меньше, чем выше уровень самоорганизации. В то же время поведение искусственной личности, даже если она будет умна, не обещает быть всегда “разумным”. Вероятность ошибок остается, поскольку сохранится ограниченность познавательных возможностей и субъективность суждений. Так возникает опасность не только ошибочного, но и злонамеренного поведения разумных машин в отношении людей. Опасность велика, если это касается машин, принимающих участие в управлении обществом даже в сфере чистой экономики. Смогут ли люди ограничить развитие систем искусственного разума или, по крайней мере, держать их под контролем? Боюсь, что ни то, ни другое невозможно» (Амосов 1969, с. 152–153).Почему люди опасаются сильного ИИ? Потому что среди самих людей нет общепринятых норм, они не знают, как поведет себя другой человек. Тем более они боятся искусственного интеллекта, который обладает большими способностями, и также пренебрегает нормами. Может быть, супернормы смогут дать решение для проблемы сильного ИИ? Сильный ИИ, следующий супернормам, останется частью человеческого общества. Это дает подсказку к созданию сильного ИИ. Все нынешние попытки сконструировать ИИ сводятся к созданию только одного блока, основанного на смыслах существования, на эффективности и пользе. Однако если мы хотим создать «искусственного человека», то мы должны заложить в ИИ не один, а
«Подводя итог, я считаю, что программный пакет, который может дать мыслящему устройству преимущества свободы воли, будет состоять как минимум из трех частей: причинной модели мира; причинной модели собственного программного обеспечения, пусть и поверхностной; и памяти, которая записывает, как намерения в уме устройства соответствуют событиям во внешнем мире» (Pearl and Mackenzie 2018, p. 367).