Generalized Least Squares ( GLS , GLS ) este o metodă de estimare a parametrilor modelelor de regresie , care este o generalizare a metodei clasice ale celor mai mici pătrate . Metoda celor mai mici pătrate generalizate se reduce la minimizarea „suma generalizată a pătratelor” a reziduurilor de regresie - , unde este vectorul reziduurilor, este o matrice de greutate definită pozitivă simetrică . Metoda uzuală a celor mai mici pătrate este un caz special al celei generalizate, când matricea de ponderi este proporțională cu cea de identitate.
Trebuie remarcat faptul că un caz special se numește de obicei metoda celor mai mici pătrate generalizate, când matricea care este inversa matricei de covarianță a erorilor aleatoare ale modelului este utilizată ca matrice de ponderi.
Se știe că o matrice definită pozitivă simetrică poate fi descompusă ca , unde P este o matrice pătrată nedegenerată. Apoi, suma generalizată a pătratelor poate fi reprezentată ca suma pătratelor reziduurilor transformate (folosind P) . Pentru regresia liniară , aceasta înseamnă că valoarea este minimizată:
unde , adică de fapt, esența celor mai mici pătrate generalizate este redusă la o transformare liniară a datelor și aplicarea celor mai mici pătrate obișnuite la aceste date . Dacă matricea de covarianță inversă a erorilor aleatoare (adică ) este utilizată ca matrice de ponderi , transformarea P face ca modelul transformat să satisfacă ipotezele clasice (Gauss-Markov), prin urmare, estimările parametrilor folosind cele mai mici pătrate obișnuite vor fi cele mai eficient în clasa estimatorilor liniari imparțiali. Și din moment ce parametrii modelului original și transformat sunt aceiași, aceasta implică afirmația că estimările GLSM sunt cele mai eficiente din clasa estimărilor liniare nepărtinitoare (teorema lui Aitken). Formula generalizată a celor mai mici pătrate are forma:
Matricea de covarianță a acestor estimări este:
Problema utilizării celor mai mici pătrate generalizate este că matricea de covarianță a erorilor aleatoare este necunoscută. Prin urmare, în practică, se utilizează o variantă accesibilă a GLS, atunci când se utilizează o anumită estimare a acesteia în loc de V. Cu toate acestea, în acest caz, apare și o problemă: numărul de elemente independente ale matricei de covarianță este , unde este numărul de observații (de exemplu, cu 100 de observații, trebuie estimați 5050 de parametri!). Prin urmare, această opțiune nu va permite obținerea de estimări calitative ale parametrilor. În practică, se fac ipoteze suplimentare despre structura matricei de covarianță, adică se presupune că elementele matricei de covarianță depind de un număr mic de parametri necunoscuți . Numărul lor ar trebui să fie mult mai mic decât numărul de observații. În primul rând, se aplică metoda obișnuită a celor mai mici pătrate, se obțin reziduurile, apoi se estimează parametrii indicați pe baza acestora . Folosind estimările obținute, se estimează matricea de covarianță a erorilor și se aplică cele mai mici pătrate generalizate cu această matrice. Aceasta este esența unui GMS accesibil. Se dovedește că, în anumite condiții destul de generale, dacă estimările sunt consistente, atunci și estimările CLSM-ului accesibil vor fi și ele consistente.
Dacă matricea de covarianță a erorii este diagonală (există heteroscedasticitate de eroare, dar nu există autocorelație), atunci suma generalizată a pătratelor este de fapt o sumă ponderată a pătratelor, unde ponderile sunt invers proporționale cu variațiile erorii. În acest caz, se vorbește despre cele mai mici pătrate ponderate (WLS, Weighted LS). Transformarea P în acest caz constă în împărțirea datelor la abaterea standard a erorilor aleatoare. Metoda uzuală a celor mai mici pătrate este aplicată datelor ponderate în acest fel.
Ca și în cazul general, variațiile erorilor sunt necunoscute și trebuie estimate din aceleași date. Prin urmare, sunt făcute câteva ipoteze simplificatoare despre structura heteroscedasticității.
În acest caz, elementele diagonale reale sunt mărimi proporționale cu această variabilă (să o notăm Z ) . În plus, coeficientul de proporționalitate nu este necesar pentru evaluare. Prin urmare, de fapt, procedura în acest caz este următoarea: împărțiți toate variabilele la Z (inclusiv constanta, adică va apărea o nouă variabilă 1/Z ). Mai mult, Z poate fi una dintre variabilele modelului original în sine (în acest caz, modelul transformat va avea o constantă). Metoda normală a celor mai mici pătrate este aplicată datelor transformate pentru a obține estimări ale parametrilor:
Fie n observații împărțite în m grupuri omogene, în cadrul cărora se presupune aceeași varianță. În acest caz, modelul este mai întâi evaluat prin cele mai mici pătrate convenționale și se găsesc reziduurile. Pentru reziduurile din fiecare grup, variațiile de eroare ale grupului sunt estimate ca raport dintre sumele pătratelor reziduurilor și numărul de observații din grup. Mai mult, datele fiecărui j-a grup de observații sunt împărțite la și LSM-ul obișnuit este aplicat datelor transformate în acest mod pentru a estima parametrii.
Dacă erorile aleatoare se supun modelului AR(1) , atunci fără a lua în considerare prima observație, transformarea P va fi următoarea: valorile anterioare înmulțite cu : se scad din valoarea curentă a variabilelor :
Această transformare se numește transformare autoregresivă . Pentru prima observație se aplică corecția Price-Winsten - datele primei observații sunt înmulțite cu . Eroarea aleatorie a modelului transformat este , care se presupune a fi zgomot alb. Prin urmare, utilizarea celor mai mici pătrate convenționale ne va permite să obținem estimări calitative ale unui astfel de model.
Deoarece coeficientul de autoregresie este necunoscut, se aplică diferite proceduri ale GLS disponibile.
Pasul 1. Evaluați modelul original folosind metoda celor mai mici pătrate și obțineți reziduurile modelului.
Pasul 2. Estimarea coeficientului de autocorelare al reziduurilor modelului (formal, se poate obține și ca estimare MCO a parametrului de autoregresie în regresia auxiliară a reziduurilor )
Pasul 3. Transformarea autoregresivă a datelor (folosind coeficientul de autocorelare estimat la a doua etapă) și estimarea parametrilor modelului transformat prin cele mai mici pătrate convenționale.
Estimările parametrilor modelului transformat și sunt estimările parametrilor modelului original, cu excepția constantei, care se restabilește prin împărțirea constantei modelului transformat la 1-r . Procedura poate fi repetată din a doua etapă până când se obține precizia necesară.
În această procedură se face o căutare directă a valorii coeficientului de autocorelare care minimizează suma pătratelor reziduurilor modelului transformat. Și anume, valorile lui r sunt stabilite din intervalul posibil (-1; 1) cu un pas. Pentru fiecare dintre ele se efectuează o transformare autoregresivă, modelul este evaluat prin cele mai mici pătrate uzuale și se găsește suma pătratelor reziduurilor. Se alege coeficientul de autocorelație pentru care această sumă de pătrate este minimă. Mai mult, în vecinătatea punctului găsit, se construiește o grilă cu un pas mai fin și procedura se repetă din nou.
Modelul transformat arată astfel:
Expandând parantezele și mutând variabila dependentă de decalaj la dreapta, obținem
Să introducem notația . Apoi avem următorul model
Acest model trebuie estimat folosind metoda obișnuită a celor mai mici pătrate. Apoi coeficienții modelului original sunt restaurați ca .
În acest caz, estimarea obținută a coeficientului de autocorelare poate fi utilizată pentru transformarea autoregresivă și aplicarea celor mai mici pătrate pentru acest model transformat pentru a obține estimări mai precise ale parametrilor.
Cele mai mici pătrate și analiza de regresie | |||||||||
---|---|---|---|---|---|---|---|---|---|
Statistica de calcul |
| ||||||||
Corelație și dependență |
| ||||||||
Analiza regresiei |
| ||||||||
Regresia ca model statistic |
| ||||||||
Descompunerea varianței |
| ||||||||
Studiu model |
| ||||||||
Cerințe preliminare |
| ||||||||
Planificarea experimentului |
| ||||||||
Aproximație numerică | |||||||||
Aplicații |
|