КАТЕГОРИИ:
АстрономияБиологияГеографияДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРиторикаСоциологияСпортСтроительствоТехнологияФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника
|
Алгоритм роботи нейронної мережі. Алгоритм ХопфілдаЗауважимо, що перед процесом навчання всі зв’язки мають нульове значення, тобто . Отже перед функціонуванням НМ треба задати конкретні значення цім зв’язкам. Іншими словами треба виконати операцію навчання мережі. Суть цієї операції полягає в тому, що на вхід мережі подається ( -кратне навчання) сигналів . При цьому значення довільного зв’язку встановлюються згідно рівняння: (6.2.1) При цьому (6.2.2) Покажемо, що при поданні на вхід НМ сигналу можливі дві ситуації: 1. НМ „скочується” до одного з образів, що зберігаються в її пам’яті, тобто на виході мережі генерується цей образ. 2. НМ виходить в режим автоколивань, тобто на виході формується змінний у часі періодичний сигнал. Мережа „не може” визначитися, якій образ їй пред’явлено. Подамо на вхід мережі сигнал . Тоді на виході -го шару НМ формується сигнал: (6.2.3) Згідно з рівнянням (6.2.1) маємо: (6.2.4) Нехай образ найбільш близький до образу , що зберігається в пам’яті мережі. Тоді (6.2.5) Нехай – кількість бітів, що збігаються в образах і . Тоді (6.2.5) за виконання умов (6.2.2) трансформується до вигляду: (6.2.6) або (6.2.7) Другий доданок в фігурних дужках прямує до нуля, оскільки образи та різні. Відповідно кількості – та + одиниць, що утворюються при множенні та за статистикою приблизно рівні. Результат внеску цього доданку у вихідний сигнал незначний і формує так званий шум мережі. Кінцеве значення виразу (6.2.7) залежить від співвідношення та , а також дії („настройки”) нелінійного оператора , величини порогового значення , яке визначає перехід вихідних нейронів в стан – або +1. Враховуючи це, можна стверджувати, що при повторному поданні сигналу на вхід мережі вона або „скотиться” до образу , який буде формуватися на виході НМ, або буде знаходитися у стані автоколивань (не зможе сформувати на виході жодного образу, що зберігається в пам’яті). Друга ситуація, за звичай, відбувається коли поріг встановлюється не оправдано високим. Це призводить до того, що навіть при великій різниці і ( ) на виході нейрона формується –1. При цьому низький поріг також не є оптимальним, оскільки, в цьому випадку, НМ буде скатуватися до хибного образу. Ще раз зауважимо, що якість (імовірність вірного) розпізнавання образу напряму пов’язана з кількістю актів навчання мережі , тобто суттєво залежить від кількості образів одного класу, які зберігаються в пам’яті НМ.
|