Головна

Векторне квантування. LVQ- мережу. Підкласи. LVQ2

  1. N-мірний вектор і векторний простір
  2. Асоціативне навчання. Проста асоціативна мережа.
  3. Векторне і фрактальное зображення
  4. векторне зображення
  5. Векторне поле. Дивергенція. Ротор.
  6. Векторний витвір

Завдання векторного квантування з k кодовими векторами Wj для заданої сукупності вхідних векторів S ставиться як задача мінімізації спотворення при кодуванні, тобто при заміщенні кожного вектора з S відповідним кодовим вектором. У базовому варіанті мереж Кохонена використовується метод найменших квадратів і спотворення D обчислюється за формулою

де Kj складається з тих точок, які ближче до Wj, ніж до інших Wl (). Іншими словами, Kj складається з тих точок, які кодуються кодовою вектором Wj.

Векторне квантування є набагато більш загальної операцією, ніж кластеризація, оскільки кластери повинні бути розділені між собою, тоді як сукупності Kj для різних кодових векторів Wj не обов'язково представляють собою роздільні кластери. З іншого боку, при наявності разделяющихся кластерів векторне квантування може знаходити їх і по-різному кодувати.

яка навчається векторне квантування (learning vector quantization, LVQ) _связано з тим, що по вихідної вибірці з ? об'єктів xi

будуються M нових об'єктів wm, схожих на вихідні, _ето центри осередків, по кото

рим розподіляються (.квантуются.) вихідні об'єкти. Як правило, M «?, по-

цього заміна об'єктів на найближчі до них центри дозволяє ефективно стискати

дані при незначній втраті інформації. Обсяг інформації, що зберігається регулюється єдиним параметром M, що досить зручно в додатках

Мережеві входить не обчислені за допомогою внутрішнього продукту прототипу векторів з входами. Замість цього, мережеві входи - це заперечення відстані між прототипами векторів і входами.

(The net input is not computed by taking an inner product of the prototype vectors with the input. Instead, the net input is the negative of the distance between the prototype vectors and the input.)

підкласи

Для мережі LVQ, нейрон переможець в першому шарі вказує на підклас, якому належить вхідний вектор. Там можуть бути кілька різних нейронів (підкласи), які складають кожен клас.

Другий шар мережі LVQ комбінує підкласи в єдиний клас. колонки матриці W2 представляють підкласи, а ряди представляють класи. В W2 є єдина «1» в кожному стовпчику. Ряд, в якому знаходиться «1» показує, що клас відповідному підкласу належить.

Якщо нейрон перемоги в прихованому шарі неправильно класифікує поточний вхід, ми відкладаємо його вектор ваги від вхідного вектора, як раніше. Однак, ми також регулюємо ваги найближчої нейрона до вхідного вектора, який дійсно класифікує його належним чином. Ваги для цього другого нейрона повинні бути переміщені до вхідного вектора.

Коли мережа правильно класифікує вхідний вектор, ваги тільки одного нейрона переміщені до вхідного вектора. Однак, якщо вхідний вектор неправильно класифікований, ваги двох нейронів оновлені, один вектор ваги відсунутий від вхідного вектора, і інший переміщений до вхідного вектора. Добутий алгоритм називають LVQ2.

Мережі Хеммінга. Типова збіжність (Кластеризация). мертвий модуль | Мережа Гроссберга. Уявне уявлення.


Асоціативне навчання. Проста асоціативна мережа. | Асоціативне навчання. Правило навчання Хебба. | Асоціативне навчання. Правило Хебба з загасанням. | Асоціативне навчання. Правило Instar. | Асоціативне навчання. Правило Kohonen. | Асоціативне навчання. Правило Outstar. | Мережі Хеммінга. Рівні. графічне представлення | Рівень 1 (корелляция) | Аналіз нормалізації (2 рівня). Поле сприйняття. Адаптивні ваги. Закон Кохонена. | Закон навчання Кохонена |

© 2016-2022  um.co.ua - учбові матеріали та реферати