загрузка...
загрузка...
На головну

Нечіткі відношення та їх властивості

  1. Визначення нечіткої множини та її властивості.
  2. ВЛАДА ЯК СУСПІЛЬНЕ ВІДНОШЕННЯ
  3. Влада як суспільне відношення ............ .172
  4. Г) відношенням величини максимальних втрат від даного виду діяльності до деякої бази порівнянь.
  5. Лекція 1. Вступ. Основні поняття і співвідношення в електричних колах.
  6. Методика діагностики батьківського відношення А. Варга, В. Столін
  7. Нечітке відношення та його властивості.

Нечітким відношенням R (велике з хвилькою між двома непустими множинами називається нечітка множина яка визначена як підмножина декартового добутку Х/У (НФ1)

Іншими словами нечітке відношення - це множина пар (НФ2) де М від р це функція належності яка кожній парі Х,У ставить у відповідність її ступінь належності ммю е ХУ яка інтерпритується як сила звязку між елементами х що належить Х та у що належить У

Носій нечіткого відношення R (з хвилькою) на множинах х і у називається звичайне відношення що повязує всі пари НФ3 «всі пари які належать декартовому добутку» для яких ступінь виконання нечіткого відношення не дорівнює нулю.

Альфа перерізом нечіткого відношення Р називається звичайне відношення яке повязує всі пари НФ3 для яких ступінь виконання нечіткого відношення Р не менше альфи.

Властивості нечіткіх відношень:

· Рефлексивність

· Антирефлексивність

· Симетричність

· Асиметричність

· Обернена

Операції:

1. Масимінна композиція

2. Мінімаксел композиції

3. Максимультиплекативна композиція

_______________________________________________________________________________

12.11.2012

Д/З Лабораторна робота прислати на почту (якщо зробити то на першу пару не приходити)

Генетичні оператори

Selection -задяки даному оператору відбуважться відбір особи для схрещування.

Способи селекції - пропорційний метод , для початку для кожної особини деякої популяції розраховується її функції пристосованості та знаходиться середня пристосованість по даній популяції особини як середньо арефметичне функції пристосованості всіх особин що входять до цієї популяції. Розраховується відношення значення функції пристосованості конкретної особини до середньої пристосованості по популяції. Ціла частина числа що є цього відношення показує скільки разів гарантовано дона особина може взяти участь у схрещуванні на даному кроці еволюції. Дробова частина цього числа покахує імовірність з якою може взяти участь у наступному схрещованні дана особина на даному кроці генетичного алгоритму (ГА). Найпростіший метод - метод рулетки.

Турнірний метод - Всі особини популяції розбиваються на підгрупи. З наступним вибором кожен з них особин з найкращою пристосованістю. Існують два способи цого вибору: детермінований =1, та випадковий(здійснюється з імовірністю меншою за 1). До таких підгруп як правило включають по дві або 3 особини. Якщо підгруппа складається з пари особин то говорят про парний турнір. Кількість особин підгруппи називають чисельністю турніру. Даний мето дозволяє змінювати кількість особин в підгруппі. Турнірний метод не втрачає своєї вибіркованості коли в ході еволюції всі особини популяції стають приблихно рівними за значення функції пристосованості.

Репродукція - елітарні стратегії репродукціії полягає у хахисті найкращих хромосом для наступних ітерацій. Ця стратегія застосовується з метою не втратити на наствпному кроці ГА найкраще пристосовані хромосоми.

ГА з частковою заміною популяції (ГА з зафіксованим станом)

Характеризується тим що частина популяції поточного покоління без будь-яких змін преходить до популяції нового покоління.

Схрещування - для кожної пари відібраних особин певним чином (як привило винаждковим) визначається позиція гена (локус) в хромосомі яка визнаячає так звану точку схрещування . В дані й точці обидві хромосоми діляться на дві частини і обмінюються ними. У результата утворюються нові хромосоми які називаються нащадками. Даний вид схрещування нахивається одноточковим схрещенням. При двоточковому обирається дві точки схрещування. Обидві хромосоми діляться на 3 частини і обмінюються середніми частинами. Багатоточковий спосіб схрещування - відбувається шахматним чином

Рівномірне схрещуванн - випадковим чином вибирається маска схрещування що складається з нулів та одиниць та дорівнює довжині хромосом. Маска показує чкі гени потрібно наслідувати від першої батьківської хромосоми, а які від другої. Одиниця на конкретній позиції в массі позначає що елемент що знаходиться на тому ж місці в першій батьківській хромосомі необхідно помістити на цьому ж місці в вершому нащадку. Нуль на цій позиції означає що елемент який знаходиться на другомі місці в батьківській хромосомі то її потрібно помістити на ці ж місще нащадку

Мутація - суть операції полягає у зміні гена у середині хромосоми з метою підвищення різноманітності пошуку і ведення нових хромосом у популяцію.

Інверсія - згідно з цим оператором змінюється послідовність алеїв між двома випадково обраними позиціями (локусами) в хромосомі. Пр. здійснюється інверсія для хромосоми 001100111 з третьго по сьомого бітів результат буде таким 001001111 тобто послідовність 0 і 1 з 3 по 7 біт записану послідовність з права на ліво записуємо з ліва на право. Інший спосіб: Хромосома випадковим чином ділиться на 2 частини які змінюються між собою місцями.

Схемою називають підмножину множин всіх можливих генотипів що можливі в даній популяції що задано у вигляді хромосоми з фіксованим значенням деяких бітів решта бітів можуть приймати будь- які значення .

Для визначення схеми використовують алгоритм 0 1 * , де* означає значення 0 або1 .

Пр. 0*1 Входять 001 та 011

Схема *11*01 Пдмножина складається з таких множин 111101:011101:01101:111001

Шима - схема

Кількість фіксованих бітів називається порядковою схемою, а відстані між крайніми фіксованими позиціями (тобто різниця їх номерів) називається визначаючою довжиною схеми (або обхватом схеми) В першому випадку 2 в другому 5 ХЗ

Функія пристосованості схеми це середнє значення функції пристосованості всіх її видів

Припустимо що існує популяція Р (t) які ХРОМОСОМИ ЗАДАНІ У ВИГЛЯДІ двійкового кодування де т = 1, 2 і тд

T - це ітерація ГА, поточне покоління.

Довжина бінарних рядків (хромосом)= L,

імовірність схрещування = рс,

імовірність мутації рm визначена (визначаюча)

довжина схеми S L(S) Порядок схеми

Значення функції пристосованості схеми S для t-ї ітерації ГА = f(S,t)

Середнє зхначення всієї популяції для даної ітерації -

Кількість хромосом популяції П ві Т що є прикладом схеми С в поточному поколінні м(С,т) тоді кількість хромосом м(С,т+1) популяції П(т+1) що будуть прикладом схеми С в наступному поколінні т+1 можна оцінити таким чином m(S,t+1)>=(S,t)*f(s,t

Де п це імовірність руйнування схеми під дією генетиних операторів

Теореми про схеми. Схеми малого порядку, з малою визначаючою довжиною і пристосованістю що є вищою за середню пристосованість за популяцію, формують експоненціальну зростаючу кількість своїх прикладів у наступних поколіннях ГА.

Пр. За допомогою ГА знайти максимум функції в діапазоні хзмінюється від 0 до 31, якщо розмір популяції = 4 f(x) = x2

1 5 9 16 кодування бінарне, критерії зупинки ГА є побудова третього покоління.

Побудова джругого покоління відбувається за допомогою одноточкового схрещування після другого біту. Третього покоління двоточкового сх після першого та другого бітів.

00001 f(x) = 1

00101 f(x) =25

01001 f(x) = 81

10000 f(x) =256

Функція пристосованості х

19.11.2012

3 грудня модуль по початок о 18-30 і до кінці (10 тестів і 6 задач) - за все 10 балів.

Яким чином поєднується генетичний алгоритм і штучний інтелект.

Використання ГА та штучні нейронних мереж(ШІ) у прийнятті рішень

ГА та ШНМ можуть використовуватись:

1. Послідовно один за одним - така ситуація називається допоміжним обєднанням.

2. Одночасно рівноправне обєднання.

Допомідне обєжднання може включати такі обєкти сувмісного використання:

- Нейронні мережі для забезпечення ГА. ПР: формування вихідної популяції для ГА.

- ГА для забезпечення штучних нейронних мереж. ПР: - аналіз ШНМ, підбір параметрів, чи перетворення простору параметрів, підбір параметрів, або правил навчання.

- При рівноправному обєднанні можливі такі ситуації:

1. ГА для навчання ШНМ ПР: еволюційне навчання мережі - еволюція ваг звязків.

2. ГА для вибору топології нейронної мережі. ПР: еволюційний пібір топології мережі - еволюція мережевої архітектури.

3. Системи що обєднують адаптивні стратегії ГА та ШНМ. ПР: ШНМ для вирішення оптимізаційних задач з використанням ГА для підбору ваг мережі, Реалізація ГА за допомогою ШНМ, застосування нейронної мережі для реалізації оператора схрещування в ГА.

Типові задачі які вирішуються за допомогою використання ГА в ШНМ.

Задача №1

Знаходження оптимальних значень ваг ШНМ Тут ГА виступає як альтернатива методу зворотнього поширення похибки. Навчання цим методом регулює ваги прямонаправленої ШНМ грунтуючсь на принципах найскорішого спуску. Одним з основних недоліків цього методу є попадання в локальний мінімум. В наслідок наявності ГА оператора мутації такий алгоритм має характеристики аналогічні способу підйому на пагорб при пошуку оптимому, що дозволяє уникнути небезпеки попадання в локальний мінімум.

Є трьохшарова ШНМ. В жаній мережі є 10 ваг W1-W6 - ваги прихованим та вихідним прошарком. Вхідні та вихідні вектори дорівнюють, вхідні - х1, х2, х3, вихідні у1, у2. D1,d2 - необхідний вихідний вектор. Цільва функція зводиться до мінімізації величини Z.

Евклідова відстань

Довжина хромосоми буде складати 10 бітів що будуть відповідати вагам що будуть відповідати вагам w1-w6? V1- v4. Кожний біт може бути представлений як дійсне число у двійковій системі. Генетичні оператори схрещування та мутації застосовуються тут для еволюції вад. Робота алгоритму закінчується коли припиняється покращення величини Z. Таким чином по даному прикладу можна знайти необїідну величину вад за допомогою ГА

Задача №2

Адаптація навчального правила для ШНМ

Суть проблеми полягає в тому що супервізор на навчання системи повинен генерувати необхідний вихід для даних вхідних значень. Припустимо що багатошарова ШНМ використовується як навчальний агент. Нехай Ок це вихід чарунків (ячеєк) у вихідному прошарку Іт це вхід на тетому нейроні вхідного прошарку. Wi йот вага від чатунку і до нейронів йот. Правило навчання у загальному вигляді можна записати у наступному вигляді:

Тут хромосоми будуються з наступних параметрів

Придатність хромосоми вимірюється сигналом похибки, тобто цільвий сигнасл мінус необхідний сигнал, на всіх чарунках вихідного прошарку.

Чим меншою є величина похибки тим краща якість хромосом.

Після певних ітерацій ГА визначається майже оптимальне значення параметрів. Так як величини ... характеризують навчання правилом то їх регулювання створює нові правила

Схема адаптації навчального прикладу

26.11.2012

------------------------------------------------------------------------------------------------------------------------

Початок в 17:30 користуватись нічим не можна

Задачі: Дерева рішень, нечіткі множини, нечіткі відношення, бінарні відношення, ризики, нейронні мережі?, генетичні алгоритми?

Генетичні алгоритми і синтез з нейронними мережами.

Задача №3

Відбір вхідних даних.

Проблема полягає у тому що вихідні дані давали найкращий результат. Як правило це здійснюється перебравши всі можливі вхідіні дані, але на практиці здійснити таке проблематично. Тому виділяють 2 підходи вирішення цієї проблеми:

- Перетворення всіх вихідних змінних в меншу кількість узагальнених деяким способом ознак, зберігши при цьому максимум інформації.

- Виділення тих вхідних змінних які не вносять істотного вкладу в роботу мережі та їх видаленні.

Другий підхід можна реалізувати шляжом поєднання імовірнісних нейронних мереж або узагальнену регресійну нейронну мережу з генетичним алгоритмом.

Ці типи нейронних мереж (фактично є методами замаскованими під ШІ) ... і регресії.

Перший проміжний прошарок мережах цих типів складаються з радіальних елементів. Вихідний сигнал радіального елемента є активаційною функцією Гауса. З центром і тій точці яка зберігається в тім елементі. В наступних прошарках з цих сигналів утворюються оцінки для щільності ймовірності класів (для імовірнісних нейронних мереж) або залежної зміної регресії (для узагальнених регресійних нейронних мереж) . Для вирішення задачі відбору найкращих вхідних змінних як правило поєднують імовірнісні нейронні мережі та генетичні алгоритми. Такого виду задачі реалізують за допомогою програм типу МАТЛАБА

Генетичний алгоритм відбору вхідних даних, що працює з рядками бітів дані задачі з а допомогою таких рядків створює маску. Кожна маска визначає які з вхідних змінних повинні використовуватись при побудові імовірнісної нейронної мережі: NO -ця змінна не використовується. Йес використ. .. популяцію таких рядків, а потім застосовує для відбору кращих рядків генетичні оператори. В якості рішення обирається один з рядків останнього покоління.

4 задача

Вибір найкращої архітектури мережі

Дана проблема полягає у визначенні кількосі прихованих прошарків та кількості нейронв в них у складі мережі. Початкова популяція обирається таким чином щоб включити нейронні мережі в широкому діапазоні прихованих прошарків і нейронів в них . генетичні оператори в ціій задачі мають справу з закодованими рядками різної довжини, так як мережі збільшують кількість прихованих нейронів будуть мати більше ваг і відповідно більшу довжину рядків, крім того необхідно врахувати в нульові ваги. При еволюції генетичного алгоритму ті мережі які мають найменші середні похибки передбачення будуть домінувати в популяції і остання буде сходитись до оптимальної структури мережі.

Взажмодія нечіткої логіки і штучних нейронних мереж.

1. Нечіткі нейронні системи - в цому випадках в штучних нейронних мережах застосовується принцип нечіткої логіки для прискорення чи поліпшення інших параметрів. При такому підході нечітка логіка є лише інструментом штучних нейронних мереж і така система не може бути інтерпритована в нечіткі правила оскільки являє собою чору скриньку.

2. Конкуркючі нейронечіткі системи - у таких моделях нечітка система і штучна нейронна мережа працюють над однією задачею не впливаючи на параметри одна одної. Можлива послідовна обробка даних, спочатку однією системою а потім іншою.

3. Паралельні нейронечіткі системи - в таких системах налагодження параметрів виконується за допомогою нейронних мереж, а далі нечітка система працює самостійно.

Виділяють такі типи паралельних нейронечітких моделей як: .. системи фз виділення м нечітких правил шляхом використання карт що самоорганізовуються, та системи які спроможні навчати параметри нечітких множин.
Інтегровані нейронечіткі системи - це системи в яких взаємодія між НечіткоюЛ і ШНМ серед усіх зазначених. Як правило коли говорять про ШНМ то мають на увазі ці. До таких систем відносять системи титу манданів, або тагаків сугені.

 



1   2
загрузка...
© um.co.ua - учбові матеріали та реферати