Головна

Метод Бокса-Уїлсона.

  1. B2 Методологічний цикл ІНСАРАГ
  2. G9 Навчання ПСО і методологія розвитку
  3. I. Лабораторні методи дослідження
  4. I. Методичні вказівки
  5. I. ОРГАНІЗАЦІЙНО-МЕТОДИЧНИЙ РОЗДІЛ
  6. I. ОРГАНІЗАЦІЙНО-МЕТОДИЧНИЙ РОЗДІЛ
  7. II. Наука як процес пізнання. Форми і методи наукового пізнання. Структура естественнoнаучного пізнання

Ідея методу полягає у використанні методу крутого сходження в поєднанні з послідовно планованим факторним експериментом для знаходження оцінки градієнта.

Процедура складається з декількох повторюваних етапів:
 - Побудова факторного експерименту в околицях деякої точки;
 - Обчислення оцінки градієнта в цій точці за результатами експерименту;
 - Стрімке сходження в цьому напрямку;
 - Знаходження максимуму функції відгуку за цим напрямком.

допущення:
 - Функція відгуку неперервна і має безперервні приватні похідні на безлічі G;
 - Функція унімодального (т. Е. Екстремум - внутрішня точка).

m - номер ітерації

? впливає на крок.  - - Оператор Набла

?х потрібно підрахувати

Метод експериментального пошуку екстремуму функцій багатьох змінних, з'єднує кращі риси градієнтних методів і методу Гаусса - Зайделя. Від градієнтних методів тут сприйнято виконання робочого руху вздовж вектор - градієнта, а від методу Гаусса - Зайделя узятий принцип просування не так на один робочий крок (як в методі градієнта), а до досягнення приватного екстремуму функції відгуку, без його коригування на кожному кроці. Пробні досліди для з'ясування напрямку руху також виконуються по-особливому - методом повного факторного експерименту (або дрібного факторного експерименту)

Наприклад, ідея методу Бокса-Уїлсона (планування екстремального експерименту) вкрай проста. Експериментатору пропонується ставити послідовні невеликі серії дослідів, в кожній з яких одночасно варіюються за певними правилами всі фактори. Серії організовуються таким чином, щоб після математичної обробки попередньої можна було вибрати умови проведення (т. Е. Спланувати умови) наступній серії. Так, послідовно, крок за кроком, досягається область оптимуму. У нашому випадку це передбачає вибір оптимальної Стратагеми, побудова плану дій на її основі, реалізація цього плану, оцінка результату і вибір наступної Стратагеми.

Схематично процес експерименту і його елементи виглядають наступним чином:

функція відгуку j: y = j (x1, x2, ... xn).

Параметр оптимізації - характеристика мети, задана кількісно.

27. Завдання класифікації. дискримінантний аналіз

Мета дискримінантного аналізу - отримання правил для класифікації багатовимірних спостережень в одну з декількох категорій або сукупностей. Число класів відомо заздалегідь.

Дискримінація в дві відомі сукупності.
 Розглянемо задачу класифікації одного багатовимірного спостереження х = (х1, х2... Хр)/ в одну з двох сукупностей. Для цих сукупностей відомі р-мірні параметри нормального розподілу задаються двома скалярними величинами (мат. Очікуванням і дисперсією), то в багатовимірному випадку першим параметром служить вектор мат. очікувань, а другим ф-ції щільності, Т. е. відомі як форма щільності, так і її параметри. Нагадаємо, що якщо в одновимірному випадку - ковариационная матриця. Припустимо, що р (1) і р (2) = 1-р (1) апріорні ймовірності появи спостереження х з сукупностей 1 і 2.

Тоді по теоремі Байеса апостериорная ймовірність того, що спостереження х належить сукупності 1

а апостериорная ймовірність для х належати сукупності 2

Класифікація може бути здійснена за допомогою відносини

Об'єкт відносимо до класу 1, якщо це відношення більше 1, т. Е. Р (1?х)> 1/2, і у другому класі, якщо це відношення менше 1.
 Така процедура мінімізує ймовірність помилкової класифікації. При введенні функції штрафу (втрат): з (2
?1) - ціна помилкової класифікації спостереження з сукупності 1 в клас 2, а з (1?2) -
 ціна помилкової класифікації спостереження з 2 до класу 1, вирішальне правило набуває вигляду

Отже, суть дискримінантного аналізу полягає в наступному. Нехай відомо про існування двох або більше генеральнихсукупностей і дані вибірки з кожної сукупності. Завдання полягає у виробленні заснованого на наявних вибірках правила, що дозволяє приписати деякий новий елемент до правильної генеральної сукупності, коли нам свідомо невідомо про його приналежності.

Суть дискримінантного аналізу - розбиття вибіркового простору на непересічні області. Поділ відбувається за допомогою дискримінантних функцій. Число дискримінантних функцій дорівнює числу сукупностей. Елемент (новий) приписується тій сукупності, для якої відповідна дискримінантний функція при підстановці вибіркових значень має максимальне значення.

28. Завдання класифікації. Кластерний аналіз; загальні положення.

Фактично, кластерний аналіз є не стільки звичайним статистичним методом, скільки "набором" різних алгоритмів "розподілу об'єктів по кластерам". Слід розуміти, що кластерний аналіз визначає "є найбільш вірогідною значуще рішення". Тому перевірка статистичної значущості в дійсності тут непридатна, навіть у випадках, коли відомі p-рівні (як, наприклад, в методі K середніх).

Області застосування

Техніка кластеризації застосовується в найрізноманітніших областях. Наприклад, в області медицини кластеризация захворювань, лікування захворювань або симптомів захворювань призводить до широко використовуваним таксономиям. В області психіатрії правильна діагностика кластерів симптомів, таких як параноя, шизофренія і т. Д., Є вирішальною для успішної терапії. В археології за допомогою кластерного аналізу дослідники намагаються встановити таксономії кам'яних знарядь, похоронних об'єктів і т. Д. Відомі широкі застосування кластерного аналізу в маркетингових дослідженнях. Загалом, кожного разу, коли необхідно класифікувати "гори" інформації до придатних для подальшої обробки груп, кластерний аналіз є корисним і ефективним.

Об'єднання (деревоподібна кластеризація)

Призначення цього алгоритму полягає в об'єднанні об'єктів (наприклад, тварин) в досить великі кластери, використовуючи деяку міру подібності або відстань між об'єктами. Типовим результатом такої кластеризації є ієрархічне дерево.

зв'язуються разом все більше і більше число об'єктів і Агрегується (поєднуєте) Все більше і більше кластерів, що складаються з все сильніше розрізняються елементів. Остаточно, на останньому кроці всі об'єкти об'єднуються разом. На цих діаграмах горизонтальні осі представляють відстань об'єднання (в вертикальних деревовидних діаграмах вертикальні осі представляють відстань об'єднання). Так, для кожного вузла в графі (там, де формується новий кластер) ви можете бачити величину відстані, для якого відповідні елементи зв'язуються в новий єдиний кластер. Коли дані мають ясну "структуру" в термінах кластерів об'єктів, схожих між собою, тоді ця структура, швидше за все, повинна бути відображена в ієрархічному дереві різними гілками. В результаті успішного аналізу методом об'єднання з'являється можливість виявити кластери (гілки) і інтерпретувати їх.

Двувходовое об'єднання

Виявляється, що кластеризація, як за спостереженнями, так і по змінним може привести до досить цікавих результатів. Наприклад, уявіть, що медичний дослідник збирає дані про різні характеристики (змінні) станів пацієнтів (спостережень), що страждають серцевими захворюваннями. Дослідник може захотіти кластеризувати спостереження (пацієнтів) для визначення кластерів пацієнтів з подібними симптомами. У той же самий час дослідник може захотіти кластеризувати змінні для визначення кластерів змінних, які пов'язані з батьківською фізичним станом.

Двувходовое об'єднання

Після цього обговорення, що відноситься до того, кластеризувати спостереження або змінні, можна поставити запитання, а чому б не проводити кластеризацію в обох напрямках? модуль кластерний аналіз містить ефективну двувходовую процедуру об'єднання, що дозволяє зробити саме це. Однак двувходовое об'єднання використовується (відносно рідко) в обставинах, коли очікується, що і спостереження і змінні одночасно вносять вклад в виявлення осмислених кластерів.

Метод До середніх

Цей метод кластеризації істотно відрізняється від таких агломеративного методів, як Об'єднання (деревоподібна кластеризація) і Двувходовое об'єднання. Припустимо, ви вже маєте гіпотези щодо числа кластерів (за спостереженнями або по змінним). Ви можете вказати системі утворити рівно три кластери так, щоб вони були настільки різні, наскільки це можливо. Це саме той тип завдань, які вирішує алгоритм методу K середніх. У загальному випадку метод K середніх будує рівно K різних кластерів, розташованих на можливо великих відстанях один від одного.

Зазвичай, коли результати кластерного аналізу методом K середніх отримані, можна розрахувати середні для кожного кластера по кожному виміру, щоб оцінити, наскільки кластери відрізняються один від одного. В ідеалі ви повинні отримати сильно розрізняються середні для більшості, якщо не для всіх вимірювань, які використовуються в аналізі. значення F-Статистика, отримані для кожного вимірювання, є іншим індикатором того, наскільки добре відповідне вимір дискримінує кластери.

Кластерний аналіз - сукупність методів, що дозволяють класифікувати багатовимірні спостереження, кожне з яких описується набором вихідних змінних X1, Х2,., Xm.

Мета кластерного аналізу - формування груп схожих між собою об'єктів, які прийнято називати кластерами. Claster (англ.) - Пучок, група, клас, таксон, згущення. Кластерний аналіз не вимагає апріорних припущень про набір даних, не накладає обмеження на подання досліджуваних об'єктів, дозволяє аналізувати показники різних типів даних.

Завдання класифікації. Кластерний аналіз; алгоритм Forel.

Кластерний аналіз - сукупність методів, що дозволяють класифікувати багатовимірні спостереження, кожне з яких описується набором вихідних змінних X1, Х2,., Xm.

Мета кластерного аналізу - формування груп схожих між собою об'єктів, які прийнято називати кластерами. Claster (англ.) - Пучок, група, клас, таксон, згущення. Кластерний аналіз не вимагає апріорних припущень про набір даних, не накладає обмеження на подання досліджуваних об'єктів, дозволяє аналізувати показники різних типів даних.

Для процесу класифікації основою служить схожість або відмінність окремих об'єктів.

Кількісне оцінювання подібності базується на понятті метрика. Об'єкти класифікації представляються точками координатного простору, причому помічені подібності та відмінності між точками повинні відповідати іншим метричними відстанями між ними.

Розмірність простору визначається числом змінних, використаних для опису подій.

Характерна особливість ітеративних процедур, зокрема алгоритмів сімейства FOREL, в тому, що кластери формуються виходячи з поставлених умов розбиття (параметрів), які в процесі роботи алгоритму можуть бути змінені користувачем для досягнення бажаної якості розбиття.

FOREL

1. Всі дані, які потрібно обробити, представляються у вигляді точок. Кожній точці відповідає вектор, який має n-коордінат. У координатах записуються значення параметрів, які відповідають цим точкам.

2. Потім будується гіперсфера радіусу R1 = Rmax, Яка охоплює всі точки. Якби нам був потрібен один таксон, то він був би представлений саме цієї початкової сферою.

3. Зменшуємо радіус на заздалегідь задану величину DR, т. е. R2 = R1 - DR. Розміщуємо центр сфери в будь-яку з наявних точок і запам'ятовуємо цю точку. Знаходимо точки, відстань до яких менше радіуса, і обчислюємо координати центру ваги цих "внутрішніх" точок. Переносимо центр сфери в цей центр ваги і знову знаходимо внутрішні точки. Сфера як би «пливе» в сторону локального згущення точок.

Така процедура визначення внутрішніх точок і перенесення центру сфери триває до тих пір, поки сфера не зупиниться, т. Е. Поки на черговому кроці ми не виявимо, що склад внут-рішніх точок, а, отже, і їх центр тяжіння, не змінюються. Це означає, що сфера зупинилася в області локального максимуму щільності точок в просторі ознак.

4. Точки, що опинилися всередині зупинивши-шейся сфери, ми оголошуємо належачи-ські кластеру номер 1 і виключаємо їх з даль-шого розгляду. Для решти точок описана вище процедура повторюється до тих пір, поки всі крапки не опиняться включеними в таксони.

5. Кожен кластер характеризується своїм центром. Координати центру кластера в даному випадку обчислюються як середнє арифметичне відповідних координат всіх точок, що потрапили в даний кластер.

Тут з'являється параметр DR, Який визначається дослідником найчастіше підбором в пошуках компромісу: збільшення DR веде до зростання швидкості збіжності обчислювальної процедури, але при цьому зростає ризик втрати тонкощів таксономической структури безлічі точок (об'єктів). Природно очікувати, що зі зменшенням радіуса гіперсферу кількість виділених таксонів буде збільшуватися.

Якщо початкову точку міняти випадковим чином, то може вийти кілька різних варіантів таксономії, і тоді потрібно зупинятися на такому варіанті, який відповідає мінімальному значенню величини F.



Непараметричні статистики; статистика Манна-Уїтні. | Метод головних компонент.

Визначити u (t), для якого деяка оцінка y (t) була б близька до бажаного. | Кореляційний аналіз вивчає на підставі вибірки стохастическую залежність між випадковими змінними. | Складання статистичної оцінки на основі розподілу Фішера. | Алгоритм застосування критерію. | Приклад. | Складання статистичних оцінок; аналіз найбільш часто використовуваних законів розподілу. | Факторний аналіз. | Нечітке уявлення інформації; типові функції приналежності, міра нечіткості. | Загальна схема нечіткого виведення. | Єдиний підхід до проблеми лінеаризації |

© um.co.ua - учбові матеріали та реферати