Generalizirani najmanjši kvadrati

V statistiki so generalizirani najmanjši kvadrati (GLS) metoda, ki se uporablja za ocenjevanje neznanih parametrov v linearnem regresijskem modelu, kadar obstaja določena stopnja korelacije med reziduali regresijskega modela. V takšnih primerih morata biti navadna metoda najmanjših kvadratov in metoda uteženih najmanjših kvadratov morda statistično bolj učinkoviti ali pa to vodi do zavajajočih sklepov. GLS je leta 1935 prvič opisal Alexander Aitken.[1]

Opis metode uredi

V standardnih modelih linearne regresije se opazujejo podatki   na n statističnih enotah . Vrednosti odziva so postavljene v vektor  , vrednosti napovedovalca pa so postavljene v matriko načrtovanja  , kjer je  vektor k napovedovalnih spremenljivk (vključno s konstanto) za i- to enoto. Model vsiljuje pogojno povprečje   podano z  , da je linearna funkcija   in predpostavlja pogojno varianco napake podanega izraza  , ki je znana nesingularna kovariančna matrika   . To je običajno zapisano kot

 

Tukaj je   vektor neznanih konstant (znanih kot "regresijski koeficienti"), ki jih je treba oceniti iz podatkov.

Recimo, da je   ocena kandidata za   . Sledi, da je rezidualni vektor za   definiran kot  . Generalizirana metoda najmanjših kvadratov oceni   z minimiziranjem kvadrata Mahalanobisove razdalje tega rezidualnega vektorja:

 

kjer se zadnja dva izraza ovrednotita v skalarja, kar povzroči

 

Ta kriterij je kvadratna forma v   .

Z odvajanjem te kvadratne forme glede na   in enačenjem z nič (ko   ) dobimo

 

Zato lahko izračunamo minimum kriterijske funkcije in dobimo eksplicitno formulo:

 

Količina   je znana kot matrika natančnosti (ali disperzijska matrika ), posplošitev diagonalne utežne matrike.


Sklici uredi

  1. Aitken, A. C. (1935). »On Least Squares and Linear Combinations of Observations«. Proceedings of the Royal Society of Edinburgh. 55: 42–48. doi:10.1017/s0370164600014346.