Головна

Оцінка суттєвості параметрів лінійної регресії і кореляції.

  1.  II. політична оцінка
  2.  IV. Визначення параметрів хвилі тиску при згорянні газо-, паро- або пилоповітряної хмари
  3.  V. Оцінка ефективності маніпуляції.
  4.  VI. метод регресії
  5.  Алгоритми лінійної і розгалужується структури
  6.  АНАЛІЗ І ОЦІНКА ВПЛИВУ собівартості РЕАЛІЗОВАНОЇ ПРОДУКЦІЇ НА ВЕЛИЧИНУ ПРИБУТКУ ВІД ПРОДАЖУ
  7.  АНАЛІЗ І ОЦІНКА ВПЛИВУ собівартості РЕАЛІЗОВАНИХ РОБІТ НА ВЕЛИЧИНУ ПРИБУТКУ ВІД ПРОДАЖУ

Кореляційний та регресійний аналіз зазвичай проводиться для обмеженої за обсягом сукупності. Тому показники регресії і кореляції - параметри рівняння регресії, коефіцієнти кореляції і детермінації можуть бути перекручені дією випадкових факторів. Щоб перевірити, наскільки ці показники характерні для всієї генеральної сукупності, чи не є вони результатом збігу випадкових обставин, необхідно перевірити адекватність побудованих статистичних моделей.

Після побудови рівняння лінійної регресії, проводиться оцінка значимості як рівняння в цілому, так і окремих його параметрів. Перевірити значимість рівняння регресії - значить встановити, чи відповідає математична модель, що виражає залежність між змінними, експериментальними даними і чи достатньо включених в рівняння пояснюють змінних (однієї або декількох) для опису залежною змінною. Методи оцінки тісноти зв'язку поділяються на кореляційні (параметричні) і непараметричні. Параметричні методи засновані на використанні, як правило, оцінок нормального розподілу і застосовуються у випадках, коли досліджувана сукупність складається з величин, які підкоряються закону нормального розподілу. Непараметричні методи не накладають обмежень на закон розподілу досліджуваних величин. Значення лінійного коефіцієнта кореляції важливо для дослідження соціально-економічних явищ і процесів, розподіл яких близько до нормального. Він приймає значення в інтервалі: -1? r ? 1.

За ступенем тісноти зв'язку розрізняють кількісні критерії оцінки тісноти зв'язку. Оцінка лінійного коефіцієнта кореляції може бути проведена по таблиці 1, або збільшено за таблицею 2.

Таблиця 1 Кількісні критерії оцінки тісноти зв'язку

 Величина коефіцієнта кореляції  характер зв'язку
 | ± 0,01 | - | 0,15 |  відсутня зв'язок
 | ± 0,16 | - | ± 0,20 |  Практично відсутній зв'язок
 | ± 0,21 | - | ± 0,30 |  Слабкий зв'язок
 | ± 0,31 | - | ± 0,40 |  помірна зв'язок
 | ± 0,41 | - | ± 0,60 |  Середня зв'язок
 | ± 0,61 | - | ± 0,80 |  висока зв'язок
 | ± 0,81 | - | ± 0,90 |  Дуже висока зв'язок
 | ± 0,91 | - | ± 1,00 |  повна зв'язок

Таблиця 2 Укрупнені критерії оцінки тісноти зв'язку

 Величина коефіцієнта кореляції  характер зв'язку
 до | ± 0,3 |  практично відсутня
 | ± 0,3 | - | ± 0,5 |  слабка
 | ± 0,5 | - | ± 0,7 |  помірна
 | ± 0,7 | - | ± 1,0 |  сильна

Негативні значення вказують на зворотний зв'язок, позитивні - на пряму. При r = 0 лінійна зв'язок відсутній. Чим ближче коефіцієнт кореляції за абсолютною величиною до одиниці, тим тісніше зв'язок між ознаками. І, нарешті, при r = ± 1 - зв'язок функціональна.

У напрямку виділяють зв'язок прямий і зворотній. При прямому зв'язку зі збільшенням або зменшенням значень факторної ознаки відбувається збільшення або зменшення значень результативного. У разі зворотного зв'язку значення результативної ознаки змінюються під впливом факторного, але в протилежному напрямку порівняно зі зміною факторної ознаки.

За аналітичного вираженню виділяють зв'язку прямолінійні і криволінійні. Якщо статистичний зв'язок між явищами може бути наближено виражена рівнянням прямої лінії, то її називають лінійним зв'язком; якщо ж вона виражається рівнянням будь-якої кривої лінії (параболи, гіперболи, показовою і ін.), то такий зв'язок називають криволінійною.

Графічно взаємозв'язок двох ознак відображається за допомогою поля кореляції. В системі координат по осі абсцис відкладаються значення факторного ознаки, а на осі ординат - результативного. Кожне перетин ліній, проведених через ці осі, позначається крапкою. Чим сильніше зв'язок між ознаками, то тісніше будуть групуватися точки навколо певної лінії, що виражає форму зв'язку.

Квадрат лінійного коефіцієнта кореляції r2 називається лінійним коефіцієнтом детермінації. З визначення коефіцієнта детермінації очевидно, що його числове значення завжди укладено в межах від 0 до 1, тобто 0 ? r2 ? 1. Ступінь тісноти зв'язку повністю відповідає теоретичному кореляційному відношенню, яке є більш універсальним показником тісноти зв'язку в порівнянні з лінійним коефіцієнтом кореляції. Факт збігів і розбіжностей значень теоретичного кореляційного відносини ? і лінійного коефіцієнта кореляції r використовується для оцінки форми зв'язку.

Для оцінки значущості коефіцієнта кореляції r використовують t-критерій Стьюдента, який застосовується при t-розподіл, відмінному від нормального. Отримане значення tрасч порівнюють з табличним значенням t-критерію (для ? = 0,05 і 0,01). Якщо розраховане значення tрасч перевершує табличне значення критерію tтабл, то практично неймовірно, що знайдене значення обумовлено тільки випадковими коливаннями (тобто відхиляється гіпотеза про його випадковості).

Оцінка значущості рівняння регресії в цілому дається за допомогою F-критерію Фішера. При цьому висувається нульова гіпотеза, що коефіцієнт регресії дорівнює нулю, отже, фактор х не впливає на результат у. Величина F-відношення (F-критерій) виходить при зіставленні факторної і залишкової дисперсії в розрахунку на одну ступінь свободи.

F = Dфакт / Dост.

F-критерій перевірки для нульової гіпотези Н0: Dфакт = Dост.

Якщо нульова гіпотеза справедлива, то факторна і залишкова дисперсії не відрізняються один від одного. Для Н0 необхідно спростування, щоб факторна дисперсія перевищувала залишкову в кілька разів. Англійським статистиком Снедекора розроблені таблиці критичних значень F-відносин при різних рівнях суттєвості нульової гіпотези і різній кількості ступенів свободи. Табличне значення F-критерію - це максимальна величина відносини дисперсій, яка може мати місце при випадковому їх розбіжності для даного рівня ймовірності наявності нульової гіпотези. Обчислення значення F-відношення визнається достовірним (відмінним від 1), якщо воно більше табличного. В цьому випадку нульова гіпотеза про відсутність зв'язку ознак відхиляється і робиться висновок про суттєвості зв'язку з цим: Fфакт Fтабл Н0 відхиляється.

Якщо ж величина виявилася менше табличній Fфакт

Перевірка адекватності регресійної моделі може бути доповнена кореляційним аналізом. Для цього необхідно визначити тісноту кореляційної зв'язку між змінними х і у.

Теоретичне кореляційне відношення ? являє собою відносну величину, яка утворюється в результаті порівняння середнього квадратичного відхилення вирівняних значень результативної ознаки ?, тобто розрахованих за рівнянням регресії, із середнім квадратичним ставленням емпіричних (фактичних) значень результативності ознаки ?. Зміна значення ? пояснюється впливом факторної ознаки.

Перевірка значущості рівняння регресії проводиться на основі дисперсійного аналізу. У математичній статистиці дисперсійний аналіз розглянуто як самостійний інструмент (метод) статистичного аналізу. У економетрики він застосовується як допоміжний засіб для вивчення якості моделі. Центральне місце в аналізі дисперсії займає розкладання загальної суми квадратів відхилень змінної у від середнього значення у на дві частини - «пояснення» і «не можна було пояснити».

 Загальна сума квадратів відхилень =  Сума квадратів відхилень, пояснена регресією +  Залишкова сума квадратів відхилень

9. Інтервали прогнозу за лінійним рівнянням регресії. Перевірка значущості оцінок параметрів регресії

інтервали прогнозу

Оцінка статистичної значущості параметрів регресії проводиться за допомогою t-статистики Стьюдента і шляхом розрахунку довірчого інтервалу для кожного з показників. Було висунуто гіпотеза Н0 про статистично значущому відміну показників від 0 a = b = r = 0. Аналіз верхньої та нижньої меж довірчих інтервалів приводить до висновку про те, що параметри a і b перебуваючи в зазначених межах не приймають нульових значень, т. Е. є статистично незначущими і суттєво відрізняється від 0.

10 Вплив неврахованих факторів на коефіцієнт кореляції

Далі ми обговоримо деякі важливі фактори, які можуть за певних обставин впливати на величину коефіцієнта кореляції, знижуючи точність його оцінки. В кінцевому підсумку це може призвести до помилкових висновків, особливо при порівнянні результатів декількох обстежень.

Один з таких факторів - географічний. Наприклад, при вивченні залежності врожайності від показників якості ґрунту необхідно враховувати, чи проводилися дослідження в масштабах округу або району. Коефіцієнт кореляції, обчислений за результатами спостережень в районі, в загальному, більше коефіцієнта кореляції, обчисленого за результатами дослідження в окрузі, так як деякі фактори при цьому або відсутні, або вони не так сильно варіюють. Як правило, при порівняльному аналізі можуть зіставлятися тільки такі коефіцієнти кореляції, які відносяться до однорідних одиниць обстеження, наприклад до округах або районам.

З обережністю потрібно підходити і до узагальнення результатів обстеження, виконаного в рамках невеликої області. Не завжди правомірно поширювати висновок на більші територіальні одиниці. Наприклад, коефіцієнт кореляції між доходом і витратами

на певні споживчі товари в розрахунку на душу населення буде сильно варіювати остеографіческого ознаки.

Величина коефіцієнта кореляції залежить також від фактора часу. Так, при вивченні зв'язку між прибутком і собівартістю слід враховувати, за який період обчислюється за економічними показниками коефіцієнт кореляції - за місяць, квартал або рік.

Коефіцієнт кореляції тільки тоді є достовірним показником зв'язку, коли досліджувані одиниці однорідні відносно зв'язку з цим. Одна з умов однорідності - близькість значень кількісної ознаки. Так, при вивченні залежності собівартості від обсягу продукції спочатку необхідно зробити угруповання підприємств, наприклад на великі, середні і дрібні, а потім по групах обчислювати коефіцієнти кореляції. У зв'язку з цим виникають завдання формування однорідних багатовимірних комплексів. Дослідник повинен мати у своєму розпорядженні теоретично обгрунтованим критерієм визначення статистичної однорідності, щоб відкидати або відносити до іншої групи ті значення, які не типові для даної зв'язку. Побудова критерію угруповання соціально-економічних явищ за комплексом ознак - справа досить складна.

Далі ми покажемо, що з факту лінійної кореляційної зв'язку між абсолютними величинами, за якими обчислені відносні показники, зовсім не випливає з необхідністю кореляційний зв'язок між цими відносними показниками. У таких випадках часто виникає нонсенс-кореляція, або псевдокорреляція (помилкова кореляція).

Особливо сильний вплив на величину коефіцієнта кореляції надає неоднорідність вихідного матеріалу, наприклад виробничі підприємства, на яких виробляється дослідження зв'язку між продуктивністю праці та рівнем механізації робіт, можуть дуже сильно відрізнятися між собою. При одному і тому ж рівні механізації робіт одне підприємство може бути оснащено сучасним обладнанням, а інше - застарілим. Завдяки цій обставині окремі значення економічних показників можуть більш-менш сильно розсіюватися. Зв'язок між явищами, в загальному, інтенсивніше, якщо дослідження проводяться на великій кількості підприємств. Висновки, засновані на великій кількості спостережень, значно достовірніше. Чим менше об'єм спостережень, тим сильніше схильна до коливань інтенсивність зв'язку від дослідження до дослідження. Іноді коефіцієнти кореляції, обчислені по різних частинах однієї і тієї ж сукупності, розрізняються навіть по своєму знаку. В [72] наведені рекомендації по обчисленню коефіцієнта кореляції, вільного від випадкових впливів.

11. РОЗПОДІЛ КОЕФІЦІЄНТІВ регресії І КОРРЕЛЯЦИИ

Нехай виконуються наступні передумови: співвідношення між змінними в генеральної сукупності виражається лінійною регресією;

обурює змінна і має нормальний розподіл з математичним очікуванням  і дисперсією ;

значення залежної змінної yi при фіксованих значеннях пояснюють змінних xk (K = 1, ..., т) розподілені нормально або приблизно нормально. Тоді оцінки параметрів регресії bk (K = 1, ..., т) розподілені нормально з математичним очікуванням  і дисперсією  . Звідси випливає, що величина

 (2.1)

має стандартний нормальний розподіл.

Оскільки дисперсія обурює змінної  а також дисперсії оцінок параметрів регресії  невідомі, замість них використовуємо вибіркові дисперсії и  . Формула (2.1) 'набуває вигляду:

r wsp: rsidR = "00000000"> ">  (2.2)

Статистика (2.2) має t-розподіл з п-т-1 ступенями свободи. Це слід враховувати особливо при малому обсязі вибірки.

Коефіцієнт кореляції обчислюється за результатами вибірки. Тому його часто називають вибірковим коефіцієнтом кореляції. Отже, коефіцієнт кореляції є функцією від вибірки. Його значення, обчислені за результатами різних вибірок, відрізняються один від одного. Отже, вибірковий коефіцієнт кореляції є випадковою величину з певним розподілом ймовірностей. Розподіл коефіцієнта парної кореляції можна вважати приблизно нормальним при виконанні наступних умов:

випадкові змінні у і х мають спільне нормальне або наближено нормальний розподіл;

кореляційний зв'язок між змінними не надто тісний, т. е. коефіцієнт кореляції не надто близький ± 1;

3) обсяг вибірки досить великий.

Перша умова призводить до так званої нормальної кореляції, при якій змінні з'єднані лінійним співвідношенням. Щільність двовимірного нормального розподілу зображується в системі координат поверхнею, званої поверхнею нормального розподілу (див. Рис. 20, а). На рис. 20, а і 20, б параметри генеральної сукупності позначені грецькими буквами. У перетині нормальної поверхні розподілу площинами, паралельними координатної площині xOz, виходять криві розподілу випадкової змінної х, що відповідають певним значенням у. Аналогічно в перерізі нормальної поверхні розподілу площинами, паралельними координатної площині yOz, виходять криві розподілу змінної у, що відповідають певним значенням х. Криві розподілу відрізняються один від одного лише своєю крутизною. Вони є графічними зображеннями умовних розподілів відповідно змінних х і у при фіксованих значеннях у їх. Якщо спроектувати на площину хОу середні значення умовних розподілів змінної х і з'єднати лінією отримані точки, то утворена таким чином лінія буде називатися лінією регресії х на у. Сполучена з нею лінія регресії у на х є безліччю точок, відповідним середнім значенням умовних розподілів змінної у.

Перетинаючи поверхню розподілу площинами, паралельними координатної площині хОу, в проекції на цій площині отримуємо сімейство концентричних еліпсів різних розмірів з однаковою орієнтацією головних осей і з загальним центром в точці з координатами и  . Їх називають еліпсами розсіювання. Точка перетину ліній регресії у на х і х на у збігається з центром еліпсів розсіювання. Внаслідок симетричності нормального розподілу лінії регресії ділять площа еліпсів навпіл (див. Рис. 20, б).

Точний розподіл вибіркового коефіцієнта приватної кореляції  таке ж, як і звичайного коефіцієнта парної кореляції, обчисленого за вибіркою обсягу п - k, де k - число виключених змінних. При перерахованих вище умовах його можна також апроксимувати нормальним. Розподілу коефіцієнта множинної кореляції, кореляційного відносини і індексу кореляції, навпаки, навіть при вибірках порівняно великого обсягу сильно відрізняються від нормального.

За другим умові зі збільшенням інтенсивності кореляційної зв'язку збіжність розподілу вибіркового коефіцієнта кореляції до нормального зменшується. Розподіл вибіркового коефіцієнта кореляції стає все більш асиметричним. Р. Фішер вказав нормализующее перетворення випадкової величини z, завдяки якому розподіл г може бути наближено приведений до нормального:

ar w: top = "1134" w: right = "850" w: bottom = "1134" w: left = "1701" w: header = "720" w: footer = "720" w: gutter = "0" /> ">  , (2.3)

де In - (натуральний) логарифм з основою е (е = 2,71828 ...); lg - десятковий логарифм (логарифм з основою 10). При r = ± \ відповідно z = ± ?. При r = 0 отримуємо z = 0.

Р. Фішер показав, що розподіл величини z, окремі реалізації якої визначаються співвідношенням (2.3), при п > ? асимптотично нормально з параметрами

 (2.4)

 (2.5)

Навіть при невеликих п наближення досить гарне. Як видно з (2.5), стандартне відхилення  залежить не від величини параметра р (коефіцієнта кореляції генеральної сукупності), а тільки від обсягу вибірки п. Зі збільшенням обсягу вибірки  стає менше. Значення z-перетворення Фішера можуть бути визначені за допомогою таблиці логарифмів. Зворотний перерахунок z в r проводять за допомогою співвідношення  , (2.6)

де tanh z - гіперболічний тангенс від аргументу z, його можна визначити по таблиці логарифмів або за допомогою співвідношення

 (2.7)

При невиконанні третього умови, т. Е. Коли обсяг вибірки n малий, розподіл вибіркового коефіцієнта кореляції сильно відрізняється від нормального, що видно з рис. 21. Якщо р ? 0, то зі зменшенням обсягу вибірки збільшується асиметричність розподілу r. Це ускладнює перевірку надійності вибіркового коефіцієнта кореляції.

Якщо коефіцієнт кореляції р двовимірного нормального розподілу дорівнює нулю (р = 0), то в цьому випадку статистика

 (2.8)

має t - розподіл з n - 2степенямі свободи.

12. Множинна регресія.

функція , опісивающая залежність показника від параметрів, називається рівнянням (функцією) регресії[1]. Рівняння регресії показує очікуване значення залежної змінної  при певних значеннях залежних змінних .

Залежно від кількості включених в модель факторів Х моделі діляться на однофакторні (парна модель регресії) і багатофакторні (модель множинної регресії).

Залежно від виду функції  моделі діляться на лінійні і нелінійні.

Модель множинної лінійної регресії має вигляд:

y i = a0 + a1x i 1 + a2x i 2 + ... + Ak x i k + ei (2.1)

 - Кількість спостережень.

коефіцієнт регресії aj показує, на яку величину в середньому зміниться результативний ознака  , Якщо змінну xj збільшити на одиницю виміру, т. е. aj є нормативним коефіцієнтом.

коефіцієнт  може бути негативним. Це означає, що область існування показника не включає нульових значень параметрів. Якщо ж а0> 0, то область існування показника включає нульові значення параметрів, а сам коефіцієнт характеризує середнє значення показника за відсутності впливів параметрів.

Аналіз рівняння (2.1) і методика визначення параметрів стають більш наочними, а розрахункові процедури істотно спрощуються, якщо скористатися матричної формою записи:

 (2.2).

де  - Вектор залежної змінної розмірності п '1, Що представляє собою п спостережень значень .

 - матриця п спостережень незалежних змінних  , Розмірність матриці  дорівнює п '(k + 1) . додатковий фактор  , Що складається з одиниць, вводиться для обчислення вільного члена. В якості вихідних даних можуть бути тимчасові ряди або просторова вибірка.

 - Кількість факторів, включених в модель.

a - Підлягає оцінюванню вектор невідомих параметрів розмірності (K + 1) '1;

 - Вектор випадкових відхилень (збурень) розмірності п ' 1.  відображає той факт, що зміна  буде неточно описуватися зміною пояснюють змінних  , Так як існують і інші чинники, невраховані в даній моделі.

Таким чином,

Y = , X = , , a = .

Рівняння (2.2) містить значення невідомих параметрів a0, a1, a2, ..., Ak . Ці величини оцінюються на основі вибіркових спостережень, тому отримані розрахункові показники не є істинними, а являють собою лише їх статистичні оцінки. Модель лінійної регресії, в якій замість істинних значень параметрів підставлені їх оцінки (а саме такі регресії і застосовуються на практиці), має вигляд

, (2.3)

де A- Вектор оцінок параметрів; е - Вектор «оцінених» відхилень регресії, залишки регресії е = Y - ХА; -оцінка значень Y, що дорівнюєХА.

Побудова рівняння регресії здійснюється, як правило, Методом найменших квадратів (МНК), Суть якого полягає в мінімізації суми квадратів відхилень фактичних значень результатних ознаки від його розрахункових значень, т. Е .:

.

13. Лінійна модель множинної регресії. Перевірка лінійності моделі

Розглянемо лінійну модель множинної регресії:

1)

2) , , , ,

Значення ознаки Матриця пояснюють Вектор Вектор Вектор змінних, стовпцями регресорів j випадкових коеф-тів якої є Xj помилок регресії

3) ,

У класичній моделі компоненти вектора збурень некорреліровани М (  ) = 0 при  , А дисперсії компонент постійні  , Ковариационная матриця збурень

Суть узагальнення регресійній моделі полягає в тому, що ковариации і дисперсії пояснюють змінних можуть бути довільними (т. О. Узагальнена модель множинної регресії відрізняється від класичної тільки видом ковариационной матриці).  - Позитивно певна матриця (АТ = А і хТАх 0). У класичній моделі множинної регресії звичайним МНК було отримано вектор оцінок  параметрів, він є несмещенной і заможної оцінкою для  . Розглянемо ковариационную матрицю

У класичній моделі  і К =  . Як вибіркової оцінки ковариационной матриці К була взята матриця

,

де  , Причому M (S2) = и  = К, т. Е.  - Несмещенная оцінка К.

В узагальненій моделі  і К =  . Якщо в якості оцінки матриці До взяти ту ж матрицю, то  , Т. Е.  - Зміщена оцінка для К. Т. о., Звичайний МНК в узагальненій лінійної регресійної моделі дає зміщену оцінку ковариационной матриці До вектора оцінок параметрів. Отже, оцінка не буде оптимальною в сенсі теореми Гаусса-Маркова. Для отримання найбільш ефективної оцінки ковариационной матриці К потрібно використовувати оцінку, одержувану так званим узагальненим МНК.

Теорема Айткена: в класі лінійних незміщених оцінок вектора  для узагальненої регресійної моделі оцінка

має найменшу ковариационную матрицю.

Для застосування узагальненого МНК треба знати ковариационную матрицю вектора збурень  , Що зустрічається вкрай рідко в практиці економетричного моделювання. Якщо вважати всі n (n + 1) / 2 елементів матриці  невідомими параметрами узагальненої моделі (на додаток до (р + 1) параметрами регресії), то загальне число параметрів перевищить число спостережень n, що зробить оцінку цих параметрів нерозв'язним завданням.

Для практичної реалізації узагальненого МНК вводяться додаткові умови на структуру матриці .

В економіці причинно-наслідкові зв'язки між явищами часто описуються за допомогою лінійних або лінеарізуемих залежностей. Розроблено статистичні критерії, що дозволяють або підтвердити факт несуперечності лінійної форми залежності досвідченим даними, або відкинути запропонований вид залежності як не відповідає цим даним. Для перевірки лінійності регресії застосовується наступний метод. Нехай кожному значенню пояснює змінної відповідає кілька значень залежної змінної, за якими обчислюють приватні середні і т. Д. Позначимо через приватне середнє, що відповідає значенню пояснює змінної:

де - число значень у, що відносяться до

Знайдемо тепер середній квадрат відхилень значень від їх приватних середніх:

Показник (8.72) є мірою розсіювання дослідних даних близько своїх приватних середніх, т. Е. Мірою, що не залежить від обраного виду регресії. В якості запобіжного розсіювання дослідних даних навколо емпіричної регресійної прямої вибирається середній квадрат відхилень:

Обидва показники є незалежні статистичні оцінки однієї і тієї ж дисперсії в у. Якщо несуттєво більше то в якості гіпотетичної залежності може бути прийнята лінійна.

Якщо в генеральної сукупності існує лінійна регресія і умовні розподілу змінної у хоча б приблизно нормальні, то ставлення середніх квадратів відхилень (8.72) і (8.73)

має -розподілення ступенями свободи. Значення підрахована за формулою (8.74), порівнюється з критичним знайденим по табл. 4 додатки при заданому рівні значущості а і ступенях свободи. Якщо то різниця між обома середніми квадратами відхилень статистично незначущі і обрана нами лінійна регресійна залежність може бути прийнята як правдоподібна, що не суперечить дослідним даним. Якщо а, то відмінність між обома середніми квадратами відхилень істотно, невипадково, і гіпотеза про лінійну залежність між змінними неспроможна. Розроблено також інші критерії перевірки гіпотези про лінійність регресії. Зацікавлений читач може знайти їх у відповідній літературі [122], [76].

14. Специфікація моделі. Коефіцієнт множинної детермінації. Коефіцієнт приватної детермінації. Коефіцієнт приватної детермінації між пояснюють змінними

 Перевірка значущості коефіцієнта кореляції і коефіцієнта детермінації |  Коефіцієнт множинної детермінації


 Вибір форми рівняння регресії. |  Суть кореляційного і регресійного аналізу. Основні завдання вирішуються методами аналізу |  поле кореляції |  Лінійна регресія і кореляція, сенс і оцінка параметрів. Парні регресивні прямі |  Метод найменших квадратів (МНК). узагальнений МНК |  Властивості оцінок МНК. Перевірка якості рівняння регресії. |  Коефіцієнт приватної детермінації |  Коефіцієнт детермінації між пояснюють змінними |  коефіцієнт детермінації |  визначення |

© 2016-2022  um.co.ua - учбові матеріали та реферати