Студопедия

КАТЕГОРИИ:

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника



Алгоритм роботи нейронної мережі. Алгоритм Хопфілда




Читайте также:
  1. III. Алгоритм решения кинематических задач
  2. V. зразок типової модульної контрольної роботи
  3. VI. Методичні вказівки до виконання курсової роботи.
  4. Автоматичне регулювання режиму роботи очисного комбайна 1Г405.
  5. Автоматичне регулювання режиму роботи очисного комбайна 1Г405.
  6. Алгоритм
  7. Алгоритм 1.2. Выделение групп предприятий с помощью заливки контрастным цветом
  8. Алгоритм 1.2. Переход от нижних границ к верхним
  9. Алгоритм 1.4. Расчет средних групповых значений результативного признака
  10. Алгоритм 2. Визуальный анализ диаграммы рассеяния, выявление и фиксация аномальных значений признаков, их удаление из первичных данных

Зауважимо, що перед процесом навчання всі зв’язки мають нульове значення, тобто . Отже перед функціонуванням НМ треба задати конкретні значення цім зв’язкам. Іншими словами треба виконати операцію навчання мережі. Суть цієї операції полягає в тому, що на вхід мережі подається ( -кратне навчання) сигналів . При цьому значення довільного зв’язку встановлюються згідно рівняння:

(6.2.1)

При цьому

(6.2.2)

Покажемо, що при поданні на вхід НМ сигналу можливі дві ситуації:

1. НМ „скочується” до одного з образів, що зберігаються в її пам’яті, тобто на виході мережі генерується цей образ.

2. НМ виходить в режим автоколивань, тобто на виході формується змінний у часі періодичний сигнал. Мережа „не може” визначитися, якій образ їй пред’явлено.

Подамо на вхід мережі сигнал . Тоді на виході -го шару НМ формується сигнал:

(6.2.3)

Згідно з рівнянням (6.2.1) маємо:

(6.2.4)

Нехай образ найбільш близький до образу , що зберігається в пам’яті мережі. Тоді

(6.2.5)

Нехай – кількість бітів, що збігаються в образах і . Тоді (6.2.5) за виконання умов (6.2.2) трансформується до вигляду:

(6.2.6)

або

(6.2.7)

Другий доданок в фігурних дужках прямує до нуля, оскільки образи та різні. Відповідно кількості – та + одиниць, що утворюються при множенні та за статистикою приблизно рівні. Результат внеску цього доданку у вихідний сигнал незначний і формує так званий шум мережі.

Кінцеве значення виразу (6.2.7) залежить від співвідношення та , а також дії („настройки”) нелінійного оператора , величини порогового значення , яке визначає перехід вихідних нейронів в стан – або +1. Враховуючи це, можна стверджувати, що при повторному поданні сигналу на вхід мережі вона або „скотиться” до образу , який буде формуватися на виході НМ, або буде знаходитися у стані автоколивань (не зможе сформувати на виході жодного образу, що зберігається в пам’яті).

Друга ситуація, за звичай, відбувається коли поріг встановлюється не оправдано високим. Це призводить до того, що навіть при великій різниці і ( ) на виході нейрона формується –1. При цьому низький поріг також не є оптимальним, оскільки, в цьому випадку, НМ буде скатуватися до хибного образу.



Ще раз зауважимо, що якість (імовірність вірного) розпізнавання образу напряму пов’язана з кількістю актів навчання мережі , тобто суттєво залежить від кількості образів одного класу, які зберігаються в пам’яті НМ.

 


Дата добавления: 2015-04-04; просмотров: 18; Нарушение авторских прав







lektsii.com - Лекции.Ком - 2014-2021 год. (0.007 сек.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав
Главная страница Случайная страница Контакты