Род Брукс сформулировал принцип «восходящего подхода», но, конечно, сама по себе идея нейронных сетей как инструмента программирования возникла значительно раньше.
Ещё в 1943 году американский нейропсихолог Уоррен Мак-Каллок совместно с нейролингвистом и математиком Уолтером Питтсом описали понятие нейронной сети в научной статье о логическом исчислении идей и нервной деятельности. А в конце 40-х Дональд Хебб предложил первый алгоритм обучения с помощью нейронных сетей.
В 1958 году психолог Корнеллского университета Фрэнк Розенблатт создаёт так называемый перцептрон — думающее, по словам создателя, «как человеческий мозг», устройство. Эта однослойная модель содержала около тысячи связанных друг с другом «нейронных клеток», которые могли принимать сигналы от четырёхсот фотоэлементов (см. рис. № 8).
Рисунок № 8. Схема однослойной нейронной сети
Тогда-то и произошёл разрыв между прежними друзьями и коллегами — Джоном Маккарти, который остался в своей логико-математической парадигме, и Марвином Мински, который станет основателем Лаборатории искусственного интеллекта в Массачусетском технологическом институте — самой настоящей Мекке последующих исследований в области искусственного интеллекта.
Ограниченность перцептрона привела исследователей к идее увеличить количество скрытых слоёв, которая у разных авторов с середины 60-х по 80-е обретала свои очертания. Но общая схема многословной нейронной сети не слишком отличается от перцептрона (см. рис. № 9).
Рисунок № 9. Схема многослойной нейронной сети
Далее, уже в конце 70-х — начале 80-х Джеффри Хинтон и Терри Сейновски предложили на замену прежней символьной модели искусственного интеллекта так называемую параллельную распределённую обработку, что существенно увеличило эффективность работы. А в 1982 году Джон Хопфилд создал нейронную сеть своего имени, в которой «нейроны» получили возможность независимо менять свои параметры (см. рис. № 10).
Рисунок № 10. Схема ассоциативной нейронной сети Джона Хопфилда
Наконец, в 2007 году Джеффри Хинтон создал алгоритмы глубокого обучения многослойных нейронных сетей, особенность которых заключается в том, что обучение системы происходит на разных слоях, начиная с самых нижних (см. рис. № 11).
Рисунок № 11. Упрощённая модель работы современной нейронной сети
Машина обучается, анализируя огромные объёмы данных — например, миллионы фотографий — с целью научиться опознавать лица на разных фонах и в разных ракурсах. Процесс это долгий, но когда период обучения проходит, машина справляется с подобной задачей достаточно быстро.
Загляните в любой современный фотоаппарат: этот бегающий квадратик, выделяющий на общем фоне лица людей, — результат работы девятислойной, в отличие от однослойного первого перцептрона, нейронной сети Джеффри Хинтона, а также от шестислойной — в затылочной доле нашего головного мозга, которая решает, по сути, ту самую задачу.
Ошибкой было бы думать, что мы видим то, что мы видим. На самом деле всё то, что мы видим, создаётся в зрительной коре. Видит ли искусственный интеллект то, что он «видит»? Вот этот вопрос и является главным аргументом противников идеи искусственного интеллекта. Но здесь налицо, как мне представляется, подмена понятий.
Что значит «видеть»? Видит ли объектив камеры? В каком-то смысле, наверное, да. Но то, что эти новые невероятные алгоритмы в цифровых камерах видят, — это совершенно точно.
Уже сейчас они способны на самые настоящие чудеса — например, сделать размытое изображение чётким, сличив несколько совершаемых последовательно снимков. Или наоборот — как вам эта чудо-способность: увеличить контрастность фигуры и размыть за ней фон?
У них нет субъективного опыта видения? А что есть этот субъективный опыт? Они не рефлексируют то, что они что-то увидели? Об этом и речь. Возможно, но зато они точно лучше это запомнили, а потом другие алгоритмы всё это ещё смогут сличить с базами данных, распознать объекты на фотографиях и т. д.