Metoda maximă de probabilitate

Versiunea actuală a paginii nu a fost încă examinată de colaboratori experimentați și poate diferi semnificativ de versiunea revizuită la 19 ianuarie 2021; verificările necesită 4 modificări .

Metoda maximă probabilitate sau metoda maximă probabilitate (MMP, ML, MLE - Engleză  m aximum l ikelihood estimation ) în statistica matematică  este o metodă de estimare a unui parametru necunoscut prin maximizarea funcției de probabilitate [1] . Pe baza ipotezei că toate informațiile despre un eșantion statistic sunt conținute în funcția de probabilitate.

Metoda maximă de probabilitate a fost analizată, recomandată și popularizată foarte mult de R. Fischer între 1912 și 1922 (deși fusese folosită anterior de Gauss , Laplace și alții).

Estimarea cu probabilitatea maximă este o tehnică statistică populară care este utilizată pentru a crea un model statistic din date și pentru a oferi o estimare a parametrilor modelului.

Metoda maximei probabilități corespunde multor metode de estimare cunoscute în domeniul statisticii. De exemplu, sunteți interesat de un astfel de parametru antropometric precum înălțimea locuitorilor Rusiei. Să presupunem că aveți date despre creșterea unui anumit număr de oameni, nu a întregii populații. În plus, se presupune că creșterea este o cantitate distribuită normal, cu varianță și medie necunoscute . Media și varianța creșterii în eșantion sunt probabilitatea maximă pentru media și varianța întregii populații.

Pentru un set de date fix și un model probabilistic de bază, folosind metoda maximei probabilități, vom obține valorile parametrilor modelului care fac datele „mai aproape” de cea reală. Estimarea probabilității maxime oferă o modalitate unică și ușoară de a determina soluții în cazul unei distribuții normale.

Metoda de estimare a probabilității maxime este aplicată unei game largi de modele statistice, inclusiv:

Esența metodei

Să existe un eșantion din distribuție , unde  sunt parametrii necunoscuți. Fie  funcția de probabilitate , unde . Estimarea punctului

se numește estimarea de probabilitate maximă a parametrului . Astfel, estimarea probabilității maxime este cea care maximizează funcția de probabilitate pentru o implementare de eșantionare fixă.

Adesea, funcția log-probabilitate este utilizată în locul funcției de probabilitate . Deoarece funcția crește monoton pe întregul domeniu de definiție, maximul oricărei funcție este maximul funcției și invers. În acest fel,

,

Dacă funcția de probabilitate este diferențiabilă, atunci condiția necesară pentru extremum este egalitatea gradientului său la zero :

Condiția extremum suficientă poate fi formulată ca definiție negativă a Hessianului  , matricea derivatelor secunde:

Importantă pentru evaluarea proprietăților estimărilor metodei maximă probabilitate este așa-numita matrice informațională , egală prin definiție:

În punctul optim, matricea informațională coincide cu așteptarea Hessianului, luată cu semnul minus:

Proprietăți

unde  este matricea informațională asimptotică.

Eficiența asimptotică înseamnă că matricea de covarianță asimptotică este limita inferioară pentru toți estimatorii normali asimptotic consecvenți.

unde  este funcția de probabilitate a mărimii eșantionului

Exemple

Ultima egalitate poate fi rescrisă astfel:

unde , ceea ce arată că funcția de probabilitate atinge maximul în punctul . În acest fel

.

O astfel de estimare va fi părtinitoare: , de unde

.

Pentru a-și găsi maximul, echivalăm derivatele parțiale cu zero :

Unde

 este media eșantionului și  este varianța eșantionului .

Metoda de aplicare [2]

Procesarea experimentului

Să presupunem că măsurăm o cantitate . După ce am făcut o măsurătoare, am obținut valoarea acesteia cu o eroare : . Să scriem densitatea de probabilitate ca valoarea să ia valoarea :

.

Acum să presupunem că am luat mai multe astfel de măsurători și am obținut . Densitatea de probabilitate pe care cantitatea va lua valorile va fi:

.

Această funcție se numește funcție de probabilitate. Valoarea cea mai probabilă a valorii măsurate este determinată de maximul funcției de probabilitate. Mai convenabilă este funcția de log-probabilitate:

.

Diferențierea funcției de log-probabilitate în raport cu :

.

Echivalează și obține o anumită valoare :

.

Cramer a formulat următoarea teoremă:

Teoremă: Nu există altă metodă de procesare a rezultatelor unui experiment care să ofere o aproximare mai bună a adevărului decât metoda cu maxima probabilitate.

Erori de măsurare

Să presupunem că am luat o serie de măsurători și am obținut o serie de valori , este firesc să scriem că această distribuție va avea o formă gaussiană :

.

Să scriem funcția de probabilitate logaritmică: .

Să luăm prima derivată:

.

Dacă , atunci . Acum luați derivata a doua:

, Unde

.

Aceasta se numește prima formulă magică [2] .

Metoda maximă de probabilitate condiționată

Metoda maximă de probabilitate condiționată (ML condiționat) este utilizată în modelele de regresie. Esența metodei este că nu se folosește distribuția comună completă a tuturor variabilelor (dependente și regresoare), ci doar distribuția condiționată a variabilei dependente pe factori, adică, de fapt, distribuția erorilor aleatoare a modelului de regresie. . Funcția de probabilitate totală este produsul dintre „funcția de probabilitate condiționată” și densitatea de distribuție a factorilor. MMP condiționat este echivalent cu versiunea completă a MMP în cazul în care distribuția factorilor nu depinde în niciun fel de parametrii estimați. Această condiție este adesea încălcată în modelele serii de timp, cum ar fi modelul autoregresiv . În acest caz, regresorii sunt valorile trecute ale variabilei dependente, ceea ce înseamnă că și valorile lor respectă același model AR, adică distribuția regresorilor depinde de parametrii estimați. În astfel de cazuri, rezultatele aplicării metodelor de maximă probabilitate condiționată și completă vor diferi.

Vezi și

Note

  1. Fisher  - 1912 Mathematical Encyclopedic Dictionary, Moscova: Enciclopedia sovietică, 1988.
  2. ↑ 1 2 A.P. Onuchin. Metode experimentale ale fizicii nucleare. - Novosibirsk: Universitatea Tehnică de Stat din Novosibirsk, 2010. - S. 297-303. — 336 p. — ISBN 978-5-7782-1232-9 .

Literatură