Алгоритм роботи нейронної мережі. Алгоритм Хопфілда
Зауважимо, що перед процесом навчання всі зв’язки мають нульове значення, тобто . Отже перед функціонуванням НМ треба задати конкретні значення цім зв’язкам. Іншими словами треба виконати операцію навчання мережі. Суть цієї операції полягає в тому, що на вхід мережі подається ( -кратне навчання) сигналів . При цьому значення довільного зв’язку встановлюються згідно рівняння:
(6.2.1)
При цьому
(6.2.2)
Покажемо, що при поданні на вхід НМ сигналу можливі дві ситуації:
1. НМ „скочується” до одного з образів, що зберігаються в її пам’яті, тобто на виході мережі генерується цей образ.
2. НМ виходить в режим автоколивань, тобто на виході формується змінний у часі періодичний сигнал. Мережа „не може” визначитися, якій образ їй пред’явлено.
Подамо на вхід мережі сигнал . Тоді на виході -го шару НМ формується сигнал:
(6.2.3)
Згідно з рівнянням (6.2.1) маємо:
(6.2.4)
Нехай образ найбільш близький до образу , що зберігається в пам’яті мережі. Тоді
(6.2.5)
Нехай – кількість бітів, що збігаються в образах і . Тоді (6.2.5) за виконання умов (6.2.2) трансформується до вигляду:
(6.2.6)
або
(6.2.7)
Другий доданок в фігурних дужках прямує до нуля, оскільки образи та різні. Відповідно кількості – та + одиниць, що утворюються при множенні та за статистикою приблизно рівні. Результат внеску цього доданку у вихідний сигнал незначний і формує так званий шум мережі.
Кінцеве значення виразу (6.2.7) залежить від співвідношення та , а також дії („настройки”) нелінійного оператора , величини порогового значення , яке визначає перехід вихідних нейронів в стан – або +1. Враховуючи це, можна стверджувати, що при повторному поданні сигналу на вхід мережі вона або „скотиться” до образу , який буде формуватися на виході НМ, або буде знаходитися у стані автоколивань (не зможе сформувати на виході жодного образу, що зберігається в пам’яті).
Друга ситуація, за звичай, відбувається коли поріг встановлюється не оправдано високим. Це призводить до того, що навіть при великій різниці і ( ) на виході нейрона формується –1. При цьому низький поріг також не є оптимальним, оскільки, в цьому випадку, НМ буде скатуватися до хибного образу.
Ще раз зауважимо, що якість (імовірність вірного) розпізнавання образу напряму пов’язана з кількістю актів навчання мережі , тобто суттєво залежить від кількості образів одного класу, які зберігаються в пам’яті НМ.
|