Головна

Метод максимальної правдоподібності

  1. Case-метод Баркера
  2. I. 2. 1. Марксистсько-ленінська філософія - методологічна основа наукової психології
  3. I. 2.4. Принципи та методи дослідження сучасної психології
  4. I. Методичні рекомендації
  5. I. Методичні рекомендації
  6. I. Методичні рекомендації
  7. I. Методичні рекомендації

Через специфічні властивості моделей з дискретними і обмеженими залежними змінними, метод максимальної правдоподібності має деякі особливості. Покажемо їх на прикладі моделей бінарного вибору.

Припустимо, що спостереження y1, y2, ..., yT незалежні. оскільки yt може приймати тільки значення 0 і 1, то функція правдоподібності для бінарної моделі має наступний вигляд:

a?x t)] a?x t). (10.190)

Уявімо вираз (10.190) в дещо іншій формі:

L= a?x t)] a?x t)]

де змінна yt  приймає значення 0 або 1.

Логарифм виразу (10.191) має наступний вигляд:

l= lnL= a?x t) a?x t)]}*. (10.192)

Необхідними умовами максимізації функції правдоподібності є рівності нулю всіх приватних похідних її логарифма за параметрами a, Т. Е.

l/ ¶a= 0. (10.193)

де ft=f(a?xt) і Ft=F(a?xt), Т. Е. Функції ft и Ft мають аргумент a?xt.

Підходи до вирішення системи (10.193), т. Е. До отримання оцінок коефіцієнтів a, Залежать від форми функціоналів f(a?x) і F(a?x). При цьому зауважимо, що якщо F(a?xt) Нелінійні, то рівняння в (10.193) також нелінійні. Для їх вирішення (т. Е. Для отримання оцінок параметрів a) Використовуються ітеративні методи, описані в XI чолі.

Зокрема, для logit-моделі логарифм правдоподібності вилядіт наступним чином:

а необхідними умовами його максимізації є:

l/ ¶a= 0. (10.195)

Для нормального розподілу логарифм функції максимальної правдоподібності може бути записаний в наступному вигляді:

l= lnL= a?x t)] + a?x t). (10.196)

В цьому випадку необхідні умови максимізації функції правдоподібності можуть бути представлені у вигляді системи:

l/ ¶a= 0, (10.197)

де

 
 


jt =

Фt = o

Розглянемо особливості застосування методу максимальної правдоподібності для оцінки двовимірної probit-моделі типу (10.72). Як було зазначено вище, ймовірність того, що залежні змінні Y1 и Y2 системи (10.72) для конкретного індивідуума приймають відповідно значення yt1 и yt2, Розраховується як

P(Y1=yt1, Y2=yt2) = F2(wt1, wt2, pt *), (10.200)

де

wtj= qtj?ztj ; ztj=a?jxtj, j= 1,2; (10.201)

rt*=qt1? qt2?r; (10.202)

qt1= 2yt1-1; qt2= 2yt2-1. (10.203)

Логарифм функції правдоподібності матиме такий вигляд:

де

F2(w1t, w2t, rt *) = O o

а щільність цього розподілу має такий вигляд:

Перші похідні логарифма правдоподібності за параметрами aj, j= 1,2; і r визначаються як

 
 


¶lnL/ ¶aj=

¶lnL/ ¶r=

де

a1?xt1]?

і індекси 1 і 2 в qt1 перевернуті для отримання qt2.

Оцінки максимальної правдоподібності виходять шляхом одночасного прирівнювання трьох похідних (по a1, a2 и r) Нулю.

Модель Пуассона, що є базовою моделлю рахункових даних (див. Вираз (10.118)), являє собою нелінійну регресію. Логарифм функції правдоподібності для моделі Пуассона має наступний вигляд:

l= lnL= + yt?a? ?x t -ln (yt!)] =

+ yt?a? ?x t -ln (yt!)]. (10.210)

Необхідні умови його максимізації можна записати в такий спосіб:

¶ lnL/ ¶a= 0. (10.211)

Розглянемо особливості виразів для оцінки параметрів усіченої регресії (10.148).

Відповідно до виразом (10.139) щільність розподілу усіченої випадкової змінної уt  визначається як

Логарифм функції правдоподібності є сумою логарифмів цих щільності, т. Е.

(10.213)

Після деяких перетворень виразу, на підставі яких визначаються оцінки параметрів моделі приймуть такий вигляд:

0;

де bt = (b -a? ?xt) /s и lt =j(bt) / [1-Ф (bt)].

Розглянемо оцінювання параметрів tobit-моделі (10.159). Логарифм функції правдоподібності для цензурувати регресії може бути представлений таким чином:

Перша частина виразу (10.215) відповідає класичній регресійній моделі для позацензурна спостережень, а друга частина - можливостям для цензурованих спостережень. Це - нестандартне вираз логарифма правдоподібності, так воно отримано на основі поєднання дискретного і безперервного умовних розподілів.

Необхідні умови максимізації функції правдоподібності будуть мати такий вигляд:

0;

де bt = (b -a? ?xt) /s и lt =j(bt) / [1-Ф (bt)].

Асимптотична ковариационная матриця оцінок* параметрів моделей з дискретними і обмеженими залежними змінними, отриманих за допомогою методу максимальної правдоподібності, може бути визначена двома способами:

1) як зворотна матриця до матриці математичного очікування других похідних логарифма правдоподібності (взятої з протилежним знаком):

AsyCov (a) = (-M2l/ ¶a? ¶a))-1, (10.208)

де AsyD (a) - Асимптотична ковариационная матриця оцінок максимальної правдоподібності.

Зауважимо, що матриця других похідних логарифма правдоподібності використовується в ітеративних розрахунках при отриманні оцінок параметрів.

2) як оцінка Берндта, Хола, Хола і Хаусмана (БХХХ-оцінка):

де  для logit-моделі та  для probit-моделі (lt визначено в вираженні (10.193)).

БХХХ-оцінка застосовується при тестуванні гіпотез про коефіцієнти моделей з дискретними і обмеженими залежними змінними.



Попередня   10   11   12   13   14   15   16   17   18   19   20   21   22   23   24   25   Наступна

Двовимірні і багатовимірні probit-моделі. | Багатовимірні моделі бінарного вибору із цензуруванням. | Моделі множинного вибору | Гніздові logit-моделі (nested logit-models). | Моделі рахункових даних | Негативна Біноміальна модель. | Модель подолання перешкод (hurdle-model). | Моделі усічених вибірок | Моделі цензурованих вибірок | Цензурувати модель (tobit-модель). |

© 2016-2022  um.co.ua - учбові матеріали та реферати