Головна

П.2. Парний кореляційний аналіз.

  1.  АВС аналіз.
  2.  Аналіз конкурентоспроможності. SWOT - аналіз. (62 питання в зразковому переліку)
  3.  Аналіз фінансової звітності підприємства. Зовнішній і внутрішній фінансовий аналіз.
  4.  Питання 2. Класифікація методів психологічного дослідження. Якісний і кількісний аналіз.
  5.  Гармонійний аналіз. Теорема Фур'є.
  6.  Дво- і багатофакторний аналіз.
  7.  Залежність випадкових величин. Кореляційний момент і коефіцієнт кореляції, їх властивості.

П.1. Основні поняття.

В курсі математичного аналізу одним з основних понять є поняття функціональної залежності, при якій кожному значенню однієї змінної ставиться у відповідність єдине цілком визначене значення іншої. Така залежність на практиці зустрічається досить рідко і є, як правило, деякою ідеалізацією реально існуючих залежностей. Проте функціональна залежність грає важливу роль в тих областях науки, де подібна ідеалізація не приводить до грубих неточностей і суперечностей (класична механіка, класична електродинаміка та ін.). Розвиток природничих наук (особливо в XX столітті) призвело до того, що стали вивчатися явища і процеси, для опису яких функціональні залежності виявилися непридатними.

У математичній статистиці вводиться поняття статистичної залежності.

Визначення 35.1. Залежність між випадковими величинами Y і Х називається статистичної (стохастичною), якщо кожному значенню однієї випадкової величини (Х) відповідає певний умовний розподіл іншої випадкової величини (Y).

Статистичну залежність можна перевести в функціональну, якщо розглянути залежність умовного математичного очікування СВ Y від Х або умовного математичного очікування Х від Y.

Визначення 35.2. Кореляційної залежністю називається функціональна залежність між значеннями однієї випадкової величини і умовним математичним очікуванням інший.

Аналітично кореляційний залежність можна задати наступним чином

MX(Y) = f (x), MY(X) = g (y), (*)

де f (x) ? const і g (y) ? const.

Рівняння (*) називаються рівняннями регресії.

Основні завдання даного розділу:

1) виявлення зв'язку між випадковими величинами і оцінка її тісноти;

2) встановлення виду регресії.

Перше завдання є основним завданням кореляційного аналізу, друга - регресійного.

П.2. Парний кореляційний аналіз.

Рішення основного завдання кореляційного аналізу можна розбити на наступні етапи.

1. Збір вибірки пар (xi, yj) Для характеристики закону розподілу двовимірної СВ (Х, Y) і її запис в зручній для роботи формі.

2. Розрахунок чисельних значень вибіркових коефіцієнтів, що характеризують зв'язок між СВ Х і Y.

3. Перевірка гіпотези про значущість зв'язку між Х і Y.

Розглянемо кожен з етапів докладніше.

1. Дані про статистичної залежності зручно задавати у вигляді кореляційної таблиці (35.1)

В даній таблиці nij - Частота, з якою в досвіді зустрічається пара
 (xi, yj), Де i = 1, 2, 3, ..., k; j = 1, 2, 3, ..., m.

Таблиця 35.1.

yj xi y1 y2  ... ym  S = nx
x1 n11 n12  ... n1m
x2 n21 n22  ... n2m
 ...  ...  ...  ...  ...  ...
xk nk1 nk2  ... nkm
 S = ny  ...

2. Для оцінки тісноти використовуються коефіцієнт кореляції rXY (rYX) І кореляційне відношення hXY (hYX).

Коефіцієнт кореляції служить для характеристики тісноти лінійної залежності між СВ Х і Y.

За даними вибірки коефіцієнт кореляції розраховується наступним чином

,

де , ,  , SX, SY - Вибіркові середні квадратичні відхилення випадкових величин Х і Y відповідно.

Властивості коефіцієнта кореляції.

1) rXY = rYX = R.

2) Коефіцієнт кореляції приймає значення на відрізку [-1; 1], тобто

-1 ? r ? 1.

3) При r = ± 1 кореляційний зв'язок є лінійною функціональною.

4) При r = 0 лінійна кореляційний зв'язок відсутній.

5) Якщо випадкові величини незалежні, то r = 0.

Зауважимо, що рівність r = 0 говорить про відсутність тільки лінійної кореляційної зв'язку, а не кореляційної зв'язку взагалі

Нескладно помітити, що r є вибірковою точкової оцінкою коефіцієнта кореляції rГ між випадковими величинами Х і Y генеральної сукупності

.

Для перевірки значущості вибіркового коефіцієнта кореляції розглядається гіпотеза Н0: rГ = 0 і гіпотеза Н1: rГ ? 0.

При справедливості гіпотези Н0 статистика

має t-розподіл Стьюдента з l = N - 2 ступенями свободи.

Наведемо правило перевірки гіпотези про значущість вибіркового коефіцієнта кореляції.

1. За даними вибірки розраховується величина .

2. Знаходиться значення t (1 - a; n - 2) по таблиці IV розподілу Стьюдента.

3. Якщо | tЭ| ? t (1 - a; n - 2), то немає підстав відкинути гіпотезу Н0:
rГ = 0. Якщо | tЭ| > T (1 - a; n - 2) гіпотеза Н0 відкидається, тобто rГ ? 0.

Коефіцієнт кореляції r є показником тісноти лінійного зв'язку. Для оцінки тісноти нелінійної зв'язку вводиться числова характеристика - кореляційне відношення.

Генеральним кореляційним відношенням називається величина

 або  (*)

У рівнянні (*) и  - Загальні дисперсії СВ Y і Х,  - Межгрупповая дисперсія СВ Y, яка характеризує розкид значень реалізацій СВ Y щодо певних реалізацій СВ Х (для  - Аналогічно). величини hY,X і hX,Y в загальному випадку є різними, тому там, де це необхідно, ми будемо постачати символ кореляційного відносини відповідними індексами. Якщо такої необхідності немає, то будемо використовувати символ h.

Кореляційне відношення характеризує ступінь концентрації двовимірного розподілу (X, Y) поблизу лінії регресії.

Аналогічно можна ввести вибіркове кореляційне відношення, для чого в рівнянні (*) значення и  потрібно замінити на їх вибіркові аналоги.

Властивості кореляційного відносини.

1) 0 ? h ? 1.

2) Якщо h = 0, то кореляційний зв'язок відсутній.

3) Якщо h = 1, між змінними Х і Y існує функціональний зв'язок.

4) h ? | r |.

5) Якщо h = | r |, то між випадковими величинами існує лінійна кореляційна залежність.

Для перевірки значущості кореляційного відносини використовується статистика

,

де n - обсяг вибірки, m - число інтервалів по згрупованим даними.

Якщо справедлива гіпотеза Н0: H = 0, то СВ F має розподіл Фішера.

Таким чином, якщо  , Де a - обраний рівень значущості, k1 = N - 1, k2 = N - m, то немає підстав відкинути гіпотезу Н0. якщо  , То гіпотеза Н0 відкидається і робиться висновок про наявність між випадковими величинами кореляційної залежності.

П р и м і р 35.1. Розподіл Х і Y наводиться в кореляційної таблиці 35.1.

Таблиця 35.1.

 Y X nx
 -2            
 -1          
         
         
             
ny

Знайти коефіцієнт кореляції r, кореляційні відносини hX,Y і hY,X і перевірити їх значущість.

Рішення. Знайдемо вибіркові числові характеристики випадкових величин Х і Y.

.

.

.

.

.

.

.

.

Знайдемо коефіцієнт кореляції

.

Отриманий результат говорить про те, що між величинами Х і Y немає лінійної кореляційної зв'язку. З'ясуємо, чи є між величинами Y і Х нелінійна кореляційний зв'язок, розрахувавши кореляційні відносини hX,Y і hY,X.

Для розрахунку hY,X необхідно знайти значення груповий дисперсії Y для певних значень xi

.

Знайдемо середні значення величини Y, обчислені по групам

,

,

,

,

.

.

Таким чином СВ Y не залежить кореляційно від величини Х.

Знайдемо значення груповий дисперсії величини Х для певних значень yi.

,

,

,

,

,

,

,

,

.

.

.

Перевіримо значущість hX,Y.

Розглянемо спостережуване значення критерію F

.

Використовуючи таблицю V додатків, знайдемо значення .

Так як  , То величина Х кореляційно залежить від величини Y. Більш того, можна сказати, що дана залежність близька до функціональної, оскільки hX,Y »1.

Випадок, коли кореляційна залежність Х від Y є, а залежно Y від Х немає, не є чимось екстраординарним. Наприклад, існує залежність середньої врожайності від кількості опадів, що випали, проте кількість опадів від врожайності не залежить.

 



 Iub і Iur інтерфейси |  П.3. Парна регресія.

 Рівняння лінійної регресії значимо, якщо |  Зробимо необхідні обчислення |  Завдання для практичного заняття по темі: «Кореляційний і регресійний аналіз». |

© um.co.ua - учбові матеріали та реферати