Criteriul informației este o măsură a calității relative a modelelor econometrice (statistice) utilizate în econometrie (statistică), ținând cont de gradul de „adaptare” a modelului la date cu o ajustare (penalizare) pentru numărul de parametri estimați utilizați . Adică, criteriile se bazează pe un anumit compromis între acuratețea și complexitatea modelului. Criteriile diferă în ceea ce privește modul în care ating acest echilibru.
Natura informațională a criteriilor este asociată cu conceptul de entropie informațională și distanța Kullback-Leibler , pe baza căruia a fost dezvoltat primul criteriu istoric - criteriul Akaike (AIC) , propus în 1974 de Hirotsugu Akaike [1] .
Criteriile de informare sunt folosite exclusiv pentru compararea modelelor între ele, fără o interpretare semnificativă a valorilor acestor criterii. Ele nu permit testarea modelelor în sensul testării ipotezelor statistice. De obicei, cu cât valorile criteriilor sunt mai mici, cu atât calitatea relativă a modelului este mai mare.
Propus de Hirotugu Akaike în 1971, descris și studiat de acesta în 1973, 1974, 1983. Inițial, abrevierea AIC, propusă de autor, a fost descifrată ca „ un criteriu de informare ” („un anumit criteriu de informare”), totuși, autorii ulteriori au numit-o Akaike information criterie n. Formula de calcul inițială a criteriului are forma:
unde este valoarea funcției de probabilitate logaritmică a modelului construit, este numărul de parametri utilizați (estimați).
Mulți autori moderni, precum și în multe produse software econometrice (de exemplu, în EViews), folosesc o formulă ușor diferită, care implică împărțirea la dimensiunea eșantionului , conform căreia a fost construit modelul:
Această abordare face posibilă compararea modelelor estimate din eșantioane de diferite dimensiuni.
Cu cât valoarea criteriului este mai mică, cu atât modelul este mai bun. Multe alte criterii sunt modificări ale AIC.
Criteriul informațional bayesian (BIC) a fost propus de Schwartz în 1978, deci este adesea numit și criteriul Schwarz (SC). A fost dezvoltat pe baza abordării bayesiene și este cea mai frecvent utilizată modificare a AIC:
După cum se poate observa din formulă, acest criteriu impune o penalizare mai mare la creșterea numărului de parametri față de AIC, deoarece mai mult de 2 deja cu 8 observații
Criteriul Consistent AIC (CAIC) propus în 1987 de Bozdogan:
Acest criteriu este echivalent asimptotic cu . Același autor în 1994 a propus modificări care măresc coeficientul cu numărul de parametri (în loc de 2 - 3 sau 4 pentru și ).
Testul Akaike corectat (Corrected AIC- ), care este recomandat pentru utilizare pe eșantioane mici (propus în 1978 de Sugiura):
Testul Hannan-Quinn (HQ) a fost propus de autori în 1979
Acest criteriu, împreună cu AIC și BIC, este emis în evaluarea modelelor cu variabile dependente discrete și limitate în EViews.
Există, de asemenea, modificări AIC care utilizează funcții de penalizare mai complexe care depind de informațiile Fisher și de alte caracteristici.
Într-un caz special de regresie liniară normală clasică, funcția log-probabilitate este egală cu
unde este o estimare consistentă (metoda probabilității maxime) a varianței erorii aleatoare a modelului, egală cu raportul dintre suma pătratelor reziduurilor și dimensiunea eșantionului.
Înlocuind valoarea funcției de log-probabilitate în formula AIC (împărțită la dimensiunea eșantionului), precum și fără a ține cont de termenii constanți 1 și (deoarece nu afectează rezultatul la compararea modelelor), obținem următoarele formulă:
Aplicarea unor criterii diferite poate duce la selectarea diferitelor modele. În multe lucrări, aceste criterii sunt comparate, dar nu există o concluzie finală cu privire la preferința unuia sau altuia. Prin urmare, produsele software oferă de obicei cel puțin două criterii (AIC, BIC), pentru unele modele și un al treilea (HQ). Este cunoscut faptul că pentru modelele autoregresive criteriul AIC supraestimează ordinea modelului, adică estimarea ordinii modelului pe baza acestui criteriu este insuportabilă. Un criteriu consistent pentru alegerea ordinii unui model autoregresiv este BIC.