Головна

Кв.отклоненія

У свою чергу, за часів незалежності факторів один від одного здійснимо рівність:

 S = Sx + Sz + Sv

Суми квадратів відхилення, обумовлених впливом відповідних чинників

Якщо ж чинники інтеркорреліровани, то це рівність порушується.

Включення в модель мультіколлінеарності факторів небажано в силу наступного:

· Ускладнюється інтерпретація параметрів множинної регресії як характеристик дії факторів в «чистому» вигляді, бо фактори корельовані; параметри лінійної регресії втрачають економічний сенс;

· Оцінки параметрів ненадійні, виявляють великі стандартні помилки і змінюються зі зміною обсягу спостережень (не тільки за величиною, а й за знаком), що робить модель непридатною для аналізу і прогнозування.

Для оцінки мультиколінеарності факторів будемо використовувати визначник матриці парних коефіцієнтів кореляції між факторами. Якби чинники не корелювали між собою, то матриця парних коефіцієнтів була б одиничною.

y = a + b1x1 + b2x2 + b3x3 + e

Якщо ж між факторами існує повна лінійна залежність, то:

Чим ближче до 0 визначник, тим сильніше межколлінеарность факторів і ненадійні результати множинної регресії. Чим ближче до 1, тим менше мультиколінеарності факторів.

Оцінка значущості мультіколлінеарності факторів може бути проведена методами випробування гіпотези 0 незалежності змінних H0:

Доведено, що величина  має наближене розподіл с  ступенями свободи. Якщо фактично значення  перевершує табличне (критичне)  то гіпотеза H0 відхиляється. Це означає, що  , Недіагональні коефіцієнти вказують на коллінеарність факторів. Мультіколлінеарності вважається доведеною.

Через коефіцієнти множинної детермінації можна знайти змінні, відповідальні за мультиколінеарності факторів. Для цього в якості залежної змінної розглядається кожен з факторів. Чим ближче значення R2 до 1, тим сильніше виявляється мультиколінеарності. Порівнюючи між собою коефіцієнти множинної детермінації  і т.п.

Можна виділити змінні, відповідальні за мультиколінеарності, отже, вирішити проблему відбору факторів, залишаючи в рівняння чинники з мінімальною величиною коефіцієнта множинної детермінації.

Існує ряд походів подолання сильної межфакторной кореляції. Найпростіший шлях усунення МК полягає у виключенні з моделі одного або декілька чинників.

Інший підхід пов'язаний з перетворенням факторів, при якому зменшується кореляція між ними.

Якщо y = f (x1, x2, x3), То можлива побудова наступного суміщеного рівняння:

у = a + b1x1 + b2x2 + b3x3 + b12x1x2 + b13x1x3 + b23x2x3 + E.

Це рівняння включає взаємодію першого порядку (взаємодія двох факторів).

Можливе включення в рівняння взаємодій і більш високого порядку, якщо буде доведено їх статистично значущість по F-критерію

b123x1x2х3 - Взаємодія другого порядку.

Якщо аналіз поєднаного рівняння показав значимість тільки взаємодії факторів х1 і х3, То рівняння буде має вигляд:

у = a + b1x1 + b2x2 + b3x3 + b13x1x3 + E.

Взаємодія факторів х1 і х3 означає, що на різних рівнях фактора х3 вплив фактора х1 на у буде неоднаково, тобто воно залежить від значення фактора х3. На рис. 3.1 взаємодія факторів надає непаралельними лініями зв'язку з результатом у. І навпаки, паралельні лінії вплив фактора х1 на у при різних рівнях фактора х3 означають відсутність взаємодії факторів х1 і х3.

Рис 3.1. Графічна ілюстрація взаємодії факторів.

а - х1 впливає на у, причому цей вплив однаково при х3= В1, Так і при х3= В2 (Однаковий нахил ліній регресії), що означає відсутність взаємодії факторів х1 і х3;

б - З ростом х1 результативний ознака у зростає при х3= В1, З ростом х1 результативний ознака у знижується при х3= В2. між х1 і х3 існує взаємодія.

Поєднані рівняння регресії будуються, наприклад, при дослідженні ефекту впливу на врожайність різних видів добрив (комбінації азоту і фосфору).

Вирішенню проблеми усунення мультиколінеарності факторів може допомогти і перехід до усуненням наведеної форми. З цією метою в рівняння регресії проводиться підстановка розглянутого фактора через вираження його з іншого рівняння.

Нехай, наприклад, розглядається двухфакторная регресія виду  a + b1x1 + b2x2, Для якої x1 і x2 виявляють високу коллеряцію. Якщо виключити один із чинників, то ми прийдемо до рівняння парної регресії. Разом з тим можна залишити фактори в моделі, але досліджувати дане двухфакторную рівняння регресії спільно з іншим рівнянням, в якому фактор (наприклад х2) Розглядається як залежна змінна. Припустимо, відомо, що  . Ухвалюючи це рівняння в шукане замість х2, Отримаємо:

або

якщо  , То розділивши обидві частини рівності на  , Отримуємо рівняння виду:

,

яке являє собою приведену форму рівняння для визначення результативної ознаки у. Це рівняння може бути представлене у вигляді:

.

До нього для оцінки параметрів може бути застосований МНК.

Відбір факторів, що включаються в регресію, є одним з найважливіших етапів практичного використання методів регресії. Походи до відбору факторів на основі показників кореляції можуть бути різні. Вони призводять побудова рівняння множинної регресії відповідно різними методиками. Залежно від того, яка методика побудова рівняння регресії прийнята, змінюється алгоритм її вирішення на ЕОМ.

Найбільш широке застосування отримали наступні методи побудова рівняння множинної регресії:

· Метод виключення;

· Метод включення;

· Кроковий регресійний аналіз.

Кожен з цих методів по-своєму вирішує проблему відбору факторів, даючи в цілому близькі результати - відсів факторів з повного його відбору (метод виключення), додаткове введення фактора (метод включення), виключення раніше введеного фактора (кроковий регресійний аналіз).

На перший погляд може здатися, що матриця парних коефіцієнтів кореляції грає головну роль у відборі факторів. Разом з тим внаслідок взаємодії факторів парні коефіцієнти кореляції не можуть в повній мірі вирішувати питання про доцільність включення в модель того чи іншого фактора. Цю роль виконують показники приватної кореляції, які оцінюють в чистому вигляді тісноту зв'язку фактора з результатом. Матриця приватних коефіцієнтів кореляції найбільш широко використовується в процедура відсіву фактора. При відборі факторів рекомендується користуватися таким правилом: число включаються факторів зазвичай в 6-7 разів менше обсягу сукупності, за якою будує регресії. Якщо це відношення порушено, то число ступенів вільні залишкової варіацій дуже мало. Це призводить до того, що параметри рівняння регрес виявляються статистично незначущими, а F-критерій менше табличного значення.



Попередня   21   22   23   24   25   26   27   28   29   30   31   32   33   34   35   36   Наступна

Незміщеність МНК-оцінок | спроможність оцінок | Ефективність (оптимальність) оцінок | Несмещённость. | Ефективність. | Протиріччя між несмещённостью і мінімальною дисперсією. | Вплив збільшення розміру вибірки на точність оцінок. | Спроможність. | Коваріація. Коефіцієнт коваріації. Показники якості регресії: лінійний коефіцієнт регресії, коефіцієнт детермінації. | Дисперсійний аналіз. |

© um.co.ua - учбові матеріали та реферати