На головну

Прогнозування ринкової поведінки і МГУА підхід

  1.  F07.8 Інші органічні розлади особистості і поведінки, зумовлені захворюванням, пошкодженням і дисфункцією мозку.
  2.  F91 Розлади поведінки.
  3.  I. Два методу підходу до робітничих мас
  4.  IV. ТИПИ СОЦІАЛЬНОГО ПОВЕДІНКИ. ЗВИЧАЇ. ЗВИЧАЇ.
  5.  VI. Прогнозування розвитку наук про Землю в XXI ст.
  6.  А. Сутність теоретико-інформаційного підходу
  7.  Аварійне прогнозування

Перша теорема Розенблатта доводить існування елементарного перцептрона, здатного виконати будь-яку класифікацію заданої множини чорно-білих зображень, тобто вона показує, що перцептрон є універсальним пристроєм для вирішення будь-якої задачі класифікації зображень.

теорема 2.1. Нехай дано безліч  чорно-білих зображені жений на деякій сітківці  , Тоді для будь-якої класифікації C(W) безлічі W чорно-білих зображень на два підмножини W 1, W 2 існує не порожній клас елементарних перцептронів з сітківкою S, здатних виконати цю класифікацію.

Доведення. Для доказу досить показати існування хоча б одного елементарного перцептрона, здатного виконати довільну класифікацію C(W). Розглянемо перцептрон, кожного зображення  на сітківці S якого відповідає один А-Елемент - нейрон Ak, Функціонування якого визначається виразом:

 (2.24)

де  - Вихідний сигнал нейрона Аk;  - Сигнал на вході нейрона Аk,

 ; (2.25)

 - вихідний сигнал j-го S-елемента,

 (2.26)

wjk - Вага зв'язку між jS-елементом і kА-нейроном;  - Поріг спрацювання-вання k-го А-елемента; .

Для кожного зображення Wk задамо ваги wjk  соотноше-ням:

 (2.27)

При пред'явленні будь-якого зображення  перцептроном, удов-летворяющему співвідношенням (2.24) - (2.27), тільки на вході одного k-го А-ней-рона, буде сигнал, рівний відповідно до співвідношення (2.25) числу m, І тільки на виході цього нейрона відповідно до вираження (2.24) буде одиничний вихідний сигнал. Тепер для правильного виконання поділ вихідного безлічі W на два підмножини W 1, W 2 за допомогою елементарного перцептрона необхідно тільки всім ваг зв'язків між R- и A-нейронами, які відповідають A-елементам, які порушуються зображеннями підмножини W 1, Надати позитивні значення, а всім ваг зв'язків А-ній-ронов, які порушуються зображеннями підмножини W 2, - Негативні значення, а потім задати вихідний сигнал R-нейрона  виразом вигляду:

де  - Вхідний сигнал R-елемента.

В цьому випадку всі зображення підмножини W 1 будуть кодуватися позитивним одиничним вихідним сигналом нейронної мережі, а подмн-дружність W 2 - Негативним, тобто буде правильно виконуватися класифікація C(W) Вихідного безлічі W зображень.

Хоча побудована таким чином нейронна мережа не має істотного практичного значення, однак її наявність показує, що елементарний перцептрон є універсальним пристроєм класифікації будь-якого безлічі зображень на два класи. У тому випадку, коли число зображень безлічі W перевищує число А-нейронів, елементарний перцептрон втрачає свою універсальну здатність класифікувати зображення.

теорема 2.2. якщо число n зображень в безлічі W більше числа А-елементів елементарного перцептрона, то існує деяка класси-фикация С(W) безлічі W чорно-білих зображень на два підмножини W 1, W 2, Яка не може бути виконана перцептроном.

теорема 2.3. Для будь-якого елементарного перцептрона з кінцевим числом А-нейронів ймовірність виконання класифікації С(W), Яка вибирається з рівномірного розподілу по всіх можливих класифікацій безлічі  зображень на два класи, прагне до нуля при n, що прагне до нескінченності.

Теорема 2.1 доводить існування елементарного перцептрона, здатного виконувати будь-яку задану класифікацію С(W) Зображень деякого безлічі W на два класи, проте вона не вказує алгоритмів досягнення цієї здатності в процесі навчання нейронної мережі. Розенблатта була доведена важлива для теорії елементарних перцептронів теорема про наявність таких алгоритмів для ?-перцептронів.

Розглянемо деяку класифікацію С(W) безлічі W зображень на два підмножини W 1, W 2, Яка може здійснюватися перцептроном з R-елементом, вихідний сигнал якого задовольняє умовам:

 (2.28)

Покладемо також, що:

 (2.29)

визначення 2.9. Метод корекції помилок без квантування - цей метод системи підкріплення з корекцією помилок, коли при помилковою реакції R-елемента з порогом q на деяке зображення  до ваги кожного із зв'язків, що з'єднують активні А-нейрони з R-елементом, додається величина  , Де коефіцієнт  вибирається з умови, що після корекції ваг зв'язків виконується співвідношення (2.28), тобто перцептрон правильно класифікує пред'явлене зображення. У методі корекції помилок з квантуванням застосовується це ж правило корекції ваг зв'язків, але величина  в загальному випадку набагато менше і правильний сигнал на виході R-нейрона, як правило, досягається не за одну ітерацію.

теорема 2.4. Нехай дано елементарний ?-перцептрон, безліч чорно-білих зображень  , Деяка класифікація С(W) Цих зображень на два підмножини, яка може бути виконана ?-перцеп-троном. зображення  подаються на вхід перцептрона в довільній послідовності, в якій кожна з них з'являється неодноразово, через кінцеве число передавальний інших зображень. Тоді процес навчання перцептрона методом корекції помилок (з квантуванням або без квантування підкріплення) незалежно від початкових значень ваг зв'язків між R- и А-елементами завжди призводить за кінцеве число ітерацій до безлічі ваг зв'язків, за допомогою яких ?-перцептрон може виконати задану класифікацію зображень.

Теорема 2.4 доводить наявність сходиться детермінованого методу навчання з корекцією помилок для елементарного перцептрона з квантуванням або без квантування підкріплення. Наступна теорема доводить, що навчання елементарного перцептрона може бути виконано і при менш жорстких вимогах до виду корекції - методом корекції помилок з випадковим законом підкріплення, коли при появі помилки сигнал підкріплення формується як в ?-системі, але знак підкріплення з ймовірністю 0,5 може бути позитивним або негативним.

теорема 2.5. Нехай дано елементарний ?-перцептрон з кінцевим числом значень ваг зв'язків між R- и А-нейронами, безліч чорно-білих зображень  , Деяка класифікація C(W) Цих зображень на два підмножини, яка може бути виконана ?-перцептроном при деякому наборі ваг зв'язків між R- и А-нейронами, зображення  подаються на вхід перцептрона в довільній послідовно-сті, в якій кожна з них з'являється неодноразово через кінцеве число передавальний інших зображень. Тоді процес навчання перцептрона, величина сигналів підкріплення якого формується як і в ?-системі з квантуванням підкріплення, а знак підкріплення вибирається з ймовірністю 0,5 позитивним або негативним, може бути виконаний за кінцеве час з ймовірністю, яка дорівнює одиниці, незалежно від початкових значень ваг зв'язків між R- и А-нейронами.

Природно, що метод з випадковим знаком підкріплення вимагає більшого обсягу обчислень при навчанні перцептрона, ніж пряма корекція помилок з квантуванням або без квантування підкріплення. Ще більшого обсягу обчислень вимагає метод, в якому проводиться випадковий вибір не тільки знака, але і величини підкріплення. Розенблатта доведена теорема про те, що з імовірністю, що дорівнює одиниці, навчання перцептрона може бути виконано за кінцевий час і методом корекції випадковими збуреннями, коли підкріплення формується як в ?-системі, але при цьому величина ? і знак підкріплення для кожної ваги зв'язку вибираються окремо і незалежно відповідно до деяким заданим законом розподілу ймовірностей.

Менш універсальною системою підкріплення, ніж ?-система і системи з випадковим формуванням підкріплення, є ?-система. Це доводячи-ет наступна теорема Розенблатта.

теорема 2.6. Нехай дано елементарний ?-перцептрон, підмножина  чорно-білих зображень і деяка класифікація C(W) Цих зображень на два класи W 1, W 2. Тоді для виконання класифікації C(W) Може існувати набір ваг зв'язків, недосяжний для ?-системи підкріплень.

Доведення. нехай функціонування А-нейронів визначається виразом:

де  - Відповідно вихідний і вхідний сигнали k-го A-нейрона;  - Поріг спрацьовування А-нейронів.

Нехай також кожен А-нейрон збуджується тільки одним зображенням з безлічі W, а класифікація C(W) Здійснюється за допомогою R-елемента, функціонування якого описується співвідношенням:

де  - Відповідно вихідний і вхідний сигнали R-нейрона. виберемо класифікацію C(W), Яка відносить все зображення до класу  або до класу  . Очевидно, що в першому випадку рішення існує тільки тоді, коли ваги всіх зв'язків між R- и А-елементами позитивні (або негативні, якщо все зображення відносяться до класу  ). Якщо для першого випадку початкові ваги всіх зв'язків між R- и А-нейронами негативні, а для другого - позитивні, то в силу властивості консервативності ?-системи підкріплення щодо суми всіх ваг зв'язків між R- и А-нейронами, вона не зможе виконати правильну настройку ваг зв'язків перцептрона для розглянутої класифікації C(W).

3. Індивідуальні завдання

3.1. Розробіть структуру елементарного перцептрона, здатного розпізнавати перші дві букви Вашого імені і Вашого прізвища. При цьому обґрунтуйте вибір:

- Числа рецепторних нейронів (число n S-елементів перцептрона має бути в межах  );

- Числа нейронів прихованого шару;

- Величини кроку в алгоритмі навчання перцептрона;

- Виду функцій активації нейронів кожного шару;

- Величини порогів нейронів кожного шару.

3.2. Навчіть нейронну мережу методом a-підкріплень і методом g-підкріплень. Порівняйте роботу обох методів.

4. Зміст звіту

4.1. Тема лабораторних занять.

4.2. Індивідуальне завдання.

4.3. Результати виконання пунктів 3.1 та 3.2 індивідуального завдання.

Прогнозування ринкової поведінки і МГУА підхід

Для фінансових ринків характерна нестабільність і нестійкість. При цьому відомі моделі на практиці часто виявляються непридатними для прогнозування. У такій ситуації для аналізу, моделювання та прогнозування цих процесів доцільно застосовувати методи прямого побудови моделей за даними спостережень (статистики). Мета таких методів - виявлення неявних причинно-наслідкових зв'язків і закономірностей, прихованих в ретроспективних даних, і побудова математичних моделей в явній формі. При цьому необхідно шукати як структуру, так і параметри моделей, тобто вирішувати завдання структурно-параметричної, або просто структурної, ідентифікації.

Прийняття рішень в таких сферах як аналіз процесів у макроекономіці, прогнозуванні поведінки фінансових ринків, перевірці надійності фірм, вимагають коштів, які здатні знаходити точні моделі на основі прогнозів процесів. При цьому виникають проблеми, пов'язані з великим числом змінних, невеликою кількістю спостережень і невідомими динамічними зв'язками між перемінними. Такі економічні об'єкти є складними погано-обумовленими системами, які характеризуються:

? недостатньою апріорній інформацією;

? великою кількістю параметрів, які не вимірюються;

? зашумленими або короткими вибірками даних;

? погано-обумовленими об'єктами з розмитими характеристиками.

Проблеми моделювання складних економічних систем можуть бути вирішені за допомогою дедуктивних логіко-математичних або за допомогою індуктивних переборних методів. Дедуктивні та імітаційні методи мають переваги в разі простих завдань моделювання, якщо відома теорія об'єкта, який моделюється, і тому можлива побудова моделі, виходячи з фізично обґрунтованих принципів, застосовуючи знання людини щодо процесів в об'єкті. Але ці методи не в змозі дати задовільний результат для складних систем. В цьому випадку отримання знань за даними, тобто знаходження моделі на основі експериментальних вимірювань має переваги. Такі об'єкти містять мінімальну апріорне знання або не мають теоретичних основ взагалі.

Ці проблеми можуть бути вирішені за допомогою Методу Групового Урахування Аргументів (МГУА), який знаходить знання про об'єкт безпосередньо по вибірці даних. Це індуктивний переборний метод має переваги при дослідженні складних об'єктів, які не мають певної теорії, зокрема для об'єктів з розмитими характеристиками.

Алгоритми МГУА знаходять єдину оптимальну для кожної вибірки модель за допомогою повного перебору всіх можливих моделей-кандидатів і оцінюють її за зовнішнім точностной критерієм [1,2] на незалежній вибірці даних. Дослідження показують, що МГУА є найкращим для вирішення завдань ідентифікації та прогнозування.

МГУА застосовується в самих різних областях для аналізу даних і знаходження знань, прогнозування та моделювання систем, оптимізації і розпізнавання образів. Індуктивні алгоритми МГУА дають можливість автоматично знаходити взаємозалежності в даних, вибрати оптимальну структуру моделі чи мережі, збільшити точність існуючих алгоритмів. Цей підхід самоорганізації моделей принципово відрізняється від зазвичай використовуються дедуктивних методів. Він заснований на індуктивних принципах - знаходження кращого рішення засноване на переборі всіляких варіантів.

МГУА рекомендується до використання в тому випадку, коли вибірка містить кілька елементів. Тоді при побудові регресійних моделей використовувати статистичні гіпотези про щільність розподілу, наприклад, гіпотезу про гауссовский розподілі, неможливо.

За допомогою перебору різних рішень підхід індуктивного моделювання намагається мінімізувати роль упереджень автора в результатах моделювання. Метод сам знаходить структуру моделі і закони, що діють в об'єкті. Він може бути використаний як порадник для відшукання нових рішень в проблемах штучного інтелекту. МГУА складається з декількох алгоритмів для вирішення різних завдань.

У нього входять як параметричні алгоритми, так і непараметричні алгоритми кластеризації, комплексування аналогів і імовірнісні алгоритми.

Підхід самоорганізації заснований на переборі поступово ускладнюються моделей і виборі найкращого рішення відповідно до мінімуму зовнішнього критерію. В якості базисних моделей використовуються не тільки поліноми, але й також нелінійні, імовірнісні функції або кластеризації.

Переваги МГУА:

? Знаходиться оптимальна складність структури моделі, адекватна рівню шумів у вибірці даних.

? Кількість шарів і нейронів у прихованих шарах, структура моделі та інші оптимальні параметри нейромереж знаходяться автоматично;

? Гарантується знаходження найбільш точної або несмещенной моделі - метод не пропускає найкращого рішення під час перебору всіх варіантів (в заданому класі функцій);

? Будь-які нелінійні функції або дії, які можуть мати вплив на вихідну змінну, використовуються як вхідні параметри;

? Виявляються взаємозв'язки в даних і вибираються ефективні вхідні змінні;

? Метод використовує інформацію безпосередньо з вибірки даних і мінімізує вплив апріорних припущень автора про результати моделювання;

? Підхід МГУА використовується для підвищення точності інших алгоритмів моделювання;

? Дає можливість відшукання несмещенной фізичної моделі об'єкта (закону або кластеризації) - однієї і тієї ж для всіх майбутніх вибірок.

 




 Практичне застосування |  Метод групового урахування аргументів |  Метод групового урахування аргументів |  критерій регулярності |  Критерій мінімального зміщення |  комбінований критерій |  Парето-оптимальний фронт в просторі критеріїв |  комбінаторний алгоритм |  багаторядний алгоритм |

© um.co.ua - учбові матеріали та реферати