Вместе с тем в последнее время всё активнее разрабатывается агентный подход к построению искусственного интеллекта. В рамках этого подхода изменена точка зрения на цель построения интеллектуальной системы и считается, что построить нужно систему не с разумным поведением, а с рациональным. С одной стороны, это серьёзно облегчает задачу, поскольку, в отличие от понятий «разум» или «интеллект», понятия «рациональность» и «рациональное поведение» можно строго формализовать (например, рациональное поведение – это выбор и достижение оптимальной цели с минимизацией затраченных на это ресурсов). С другой стороны, для демонстрации рационального поведения агент должен обладать достаточной «разумностью», чтобы определить цель, составить стратегию её достижения и выполнить её.
Каждый агент – это полноценная кибернетическая машина, которая имеет систему управления, непрерывно получающую информацию с сенсорных систем агента и воздействующую на окружающую среду при помощи исполнительных устройств (или
Общая схема агента и его взаимодействия со средой
Агентный подход интересен тем, что в его рамках можно использовать эволюционные алгоритмы, которые подбирают интеллектуальных агентов, исходя из степени их приспособленности к достижению цели. Во время взаимодействия агентов осуществляется отбор наиболее успешных, которые затем используются для генерации нового поколения агентов, среди которых опять применяются те же самые процедуры оценки и отбора. В итоге наиболее успешное поколение решает задачи и достигает целей наиболее эффективным образом. Это идеальный вариант, который сегодня сложно достижим, но стремиться к нему интересно. Также агентный подход лежит в основе так называемых многоагентных систем, в рамках которых осуществляется общее целеполагание, после чего каждому индивидуальному агенту даётся свобода действий в определённых рамках, где он имеет возможности и альтернативы по разработке и реализации различных стратегий достижения своей частной цели. В процессе этого агенты взаимодействуют друг с другом и со средой, обмениваясь информацией и выполняя запросы других агентов. Кроме того, вполне может быть использована идея так называемого «роевого интеллекта», когда каждая отдельная «особь» (то есть агент) интеллектом не обладает, но в целом «рой» (множество агентов, многоагентная система) обладает определёнными интеллектуальными способностями. Надо отметить, что всё перечисленное является одним из наиболее перспективных направлений исследований по искусственному интеллекту.
Итак, философия сознания, начавшаяся развиваться вместе с более «взрослым» пониманием задач и проблем искусственного интеллекта, выделяет два крупных подхода к построению интеллектуальных систем и искусственных разумных существ: чистый (нисходящий) и грязный (восходящий). Чистый подход объединяет такие технологии, как экспертные системы, универсальные машины вывода, семиотические базы знаний. Самым выдающимся и далеко продвинувшимся направлением в рамках этого подхода является направление символьных вычислений, которое основано на логике манипулирования символами. Грязный подход объединяет такие технологии, как искусственные нейронные сети, эволюционные вычисления и биокомпьютинг. Грязный подход моделирует биологические основы разума у человека, в то время как чистый подход имитирует высокоуровневые психические и когнитивные процессы: мышление, рассуждение, речь, эмоции, творчество и т. д.
Однако, как уже было описано выше, и чистый, и грязный подходы имеют как достоинства, так и свои недостатки. В частности, нейронные сети и все смежные технологии обладают очень существенными ограничениями.
1. Наука до сих пор не обладает полным пониманием того, как обучается нейронная сеть. Теоретический математический аппарат, конечно, имеется, однако при переходе в практическое русло вычислительная сложность интерпретации того, как и, главное, почему нейросеть настроила свои весовые коэффициенты так, а не иначе, нелинейно возрастает до космических величин. И в итоге получается чёрный ящик в качестве модели чёрного ящика. Это совсем не то, что нужно.
2. Часто в нейронную сеть для обучения попадают некорректные данные, которые выглядят как валидные. Например, в медицинской проблемной области нередко случается так, что диагнозы ставятся неверно, лекарственные средства назначаются неадекватно, а потому нет никакой гарантии того, что при обучении нейросети ей не «скармливаются» такие некорректные данные. Принцип GIGO никто не отменял. Кто даст гарантию того, что обученная на некорректных данных нейросеть даст правильное заключение, а инструмента интерпретации того, как она обучилась, нет.