Наиболее существенным является второе ограничение, поскольку образы, которые сеть должна обрабатывать, часто очень похожи. Примером могут служить буквы латинского алфавита. При обучении сети Хопфилда (3) распознаванию трех первых букв (см. рис. 1 а, б, в), при предъявлении на вход сети любого их эталонов в качестве ответа получается образ, приведенный на рис. 1 г (все образы брались в рамке 10 на 10 точек).
В связи с такими примерами первый вопрос о качестве работы сети ассоциативной памяти звучит тривиально: будет ли сеть правильно обрабатывать сами эталонные образы (т. е. не искажать их)?
Мерой коррелированности образов будем называть следующую величину:
Зависимость работы сети Хопфилда от степени коррелированности образов можно легко продемонстрировать на следующем примере. Пусть даны три эталона
Для любой координаты существует одна из четырех возможностей:
В первом случае при предъявлении сети
так как все скалярные произведения положительны по условию (4). Аналогично получаем в четвертом случае
Во втором случае рассмотрим отдельно три варианта
так как скалярный квадрат любого образа равен
Окончательный вывод таков: если эталоны удовлетворяют условиям (4), то при предъявлении любого эталона на выходе всегда будет один образ. Этот образ может быть эталоном или «химерой», составленной, чаще всего, из узнаваемых фрагментов различных эталонов (примером «химеры» может служить образ, приведенный на рис. 1 г). Рассмотренный ранее пример с буквами детально иллюстрирует такую ситуацию.
Приведенные выше соображения позволяют сформулировать требование, детализирующие понятие «слабо коррелированных образов». Для правильного распознавания всех эталонов достаточно (но не необходимо) потребовать, чтобы выполнялось следующее неравенство
Более простое и наглядное, хотя и более сильное условие можно записать в виде
Из этих условий видно, что, чем больше задано эталонов, тем более жесткие требования предъявляются к степени их коррелированности, тем ближе они должны быть к ортогональным.
Рассмотрим преобразование (3) как суперпозицию двух преобразований:
Обозначим через
— линейное пространство, натянутое на множество эталонов. Тогда первое преобразование в (5) переводит векторы из R
Из того, что
Полученное неравенство
Ортогональные сети
Для обеспечения правильного воспроизведения эталонов вне зависимости от степени их коррелированности достаточно потребовать, чтобы первое преобразование в (5) было таким, что
Для обеспечения ортогональности проектора воспользуемся дуальным множеством векторов. Множество векторов
1. (
2.
Преобразование
является ортогональным проектором на линейное пространство
Ортогональная сеть ассоциативной памяти преобразует образы по формуле