На головну

Базова архітектура мереж АРТ

  1.  III. МИСТЕЦТВО ВІДРОДЖЕННЯ У ФРАНЦІЇ. Архітектура, скульптура, жівопісь.15 в.
  2.  IP-адреси і класи мереж
  3.  Акумуляторна архітектура
  4.  Алгоритм навчання нейромереж АРТ-1
  5.  Алгоритм навчання мереж АРТ-1
  6.  архітектура
  7.  АРХІТЕКТУРА

Базова архітектура мереж АРТ включає три групи нейронів: поле F1 вхідних обробних нейронів, що складається з двох шарів елементів, шар розпізнають нейронів і групу нейронів управління (рис. 1).

 
 


поле F1 нейронів складається з двох шарів: вхідний шар  і інтерфейсний шар . Вхідний шар сприймає пропоновані зображення і передає отриману інформацію нейронам интерфейсного шару  і керуючому нейрона R. Кожен елемент интерфейсного шару  пов'язаний з кожним елементом розпізнає шару Y двома множинами зважених зв'язків. Сигнали з интерфейсного шару в шар Y передаються зв'язками, що йдуть від низу до верху (з вагами  ), А з розпізнає шару в інтерфейсний - зв'язками, що йдуть зверху вниз (з вагами  ). Через наявність великої кількості зв'язків на малюнку наведено позначення тільки однієї пари зв'язків між інтерфейсними і розпізнають елементами.

шар  є шаром конкуруючих або змагаються нейронів. У будь-який час кожен елемент  розпізнає шару знаходиться в одному з трьох станів:

активний (  для ART-1 і 0 < d <1 для АРТ-2);

неактивний (  але здатний брати участь в змаганні);

загальмований (  і не допущений до змагань при пред'явленні поточного вхідного вектора).

Після пред'явлення вхідного зображення активним залишається тільки один розпізнає нейрон, всі інші Y-елементи мають нульові або негативні вихідні сигнали. Виділений розпізнає нейрон допускається до навчання вхідним зображенням тільки в тому випадку, якщо його ваговій вектор зв'язків з шару Y в шар  подібний до вхідного вектора. Це рішення приймається за допомогою Rнейрони на основі спеціального параметра, який отримав назву параметра подібності, і сигналів, що надходять з вхідного і інтерфейсного шару елементів. Через допоміжні елементи, різні для мереж АРТ-1 і АРТ-2, виробляється або навчання виділеного розпізнає Y-елементом, або його загальмування з подальшим виключенням з числа тих, що змагаються за повторних пред'явлення цього ж вхідного зображення, коли виділяються нові кандидати для навчання вхідним зображенням.

У найбільш загальному вигляді алгоритм функціонування АРТ нейронної мережі можна представити в наступному вигляді:

Крок 1. Ініціюються параметри мережі.

крок 2. До тих пір, поки не дотримуються умови зупинки, виконуються кроки 3 - 10.

крок 3. Для кожного вхідного вектора або зображення виконуються кроки 4 - 9.

Крок 4. Пред'являється вхідний вектор і обчислюються вихідні сигнали нейронів вхідного шару .

крок 5. Поки не дотримуються умови скидання або повернення до пошуку нового Yнейрони, виконуються кроки 6 - 8.

Крок 6. знаходиться незагальмований Y-Елемент, що має найбільший вихідний сигнал.

крок 7. Обчислюються вихідні сигнали нейронів интерфейсного шару .

крок 8. За допомогою параметра подібності перевіряються умови скидання або повернення (вони різні для мереж АРТ-1 і АРТ-2). Якщо вони виконуються, тоді виділений Y-Елемент загальмовується і проводиться повернення до кроку 5. Якщо умови скидання не виконуються, тоді виділений кандидат з Y-шар допускається до навчання на етапі 9.

крок 9. Проводиться навчання виділеного Y-елементом.

крок 10. Перевіряються умови зупинки. Якщо вони не виконуються, то перехід до кроку 2, в іншому випадку - перехід до кроку 11.

крок 11. Зупинка.

Хоча мережі АРТ не пред'являють вимог до порядку появи вхідних зображень і не вимагають появи всіх зображень з однаковою частотою, при їх навчанні також використовується поняття епохи (послідовного пред'явлення кожного з навчальних зображень). Процес навчання мереж АРТ може займати багато епох.

Нейронні мережі АРТ - динамічні об'єкти, що описуються системами звичайних диференціальних рівнянь, тому їх навчання в загальному випадку досить трудомістким. Однак моделі мереж АРТ можуть бути спрощені, якщо припустити, що зміна вихідних сигналів нейронів відбувається набагато швидше, ніж зміна вагових векторів їх зв'язків. Тому в нейросетях теорії адаптивного резонансу можна вважати, що після виділення для навчання прийнятного Y-елементом (настанні резонансу між пред'явленими і зберігаються в пам'яті зображенням), вихідні сигнали всіх нейронів залишаються незмінними протягом тривалого періоду часу, протягом якого відбуваються зміни ваг зв'язків.

В АРТ розрізняють два типи навчання: швидке і повільне. Вони відрізняються як теоретичними передумовами, так і своїми робочими характеристиками. У методі швидкого навчання ваги протягом часу тривалого резонансу досягають рівноважного стану при кожному пред'явленні зображень. Ця форма навчання типова для довічних нейронних мереж АРТ-1 і буде детально розглянута в наступних параграфах. У методі повільного навчання має місце істотно більш повільне зміна ваг під час резонансу, і вони не досягають рівноважних значень при кожному пред'явленні вхідних зображень. Цей метод більш властивий нейромереж АРТ-2, хоча теоретично може застосовуватися (але, практично не застосовується) для навчання і дискретних мереж АРТ-1. Він вимагає великої кількості передавальний вхідних зображень, але відносно невеликого обсягу обчислень при кожному пред'явленні.

 




 Нейронна мережа АРТ-1 адаптивної резонансної теорії |  Алгоритм навчання мереж АРТ-1 |  Алгоритм навчання нейромереж АРТ-1 |  Приклади застосування швидкого алгоритму навчання мережі АРТ-1 |

© um.co.ua - учбові матеріали та реферати