Informația Fisher este așteptarea matematică a pătratului ratei relative de modificare a densității de probabilitate condiționată [1] . Această caracteristică este numită după Ronald Fisher , care a descris-o .
Fie densitatea distribuției pentru modelul statistic dat . Atunci dacă funcția este definită
,unde este funcția log - probabilitate și este așteptarea matematică pentru dat , atunci se numește informația Fisher pentru un model statistic dat cu teste independente .
Dacă sunt de două ori diferențiabile în raport cu și în anumite condiții de regularitate, informațiile Fisher pot fi rescrise ca [2]
Pentru modele regulate : (Aceasta este definiția regularității).
În acest caz, deoarece așteptarea funcției de contribuție a eșantionului este zero, valoarea scrisă este egală cu varianța acesteia.
Cantitatea de informații Fisher conținută într-o observație se numește:
.Pentru modelele obișnuite, toată lumea este egală.
Dacă eșantionul constă dintr-un element, atunci informațiile Fisher sunt scrise după cum urmează:
.Din condiția de regularitate, precum și din faptul că în cazul independenței variabilelor aleatoare , varianța sumei este egală cu suma variațiilor, rezultă că pentru testele independente .
În general, dacă este statistica eșantionului X , atunci
Mai mult, egalitatea este atinsă dacă și numai dacă T este o statistică suficientă .
O statistică suficientă conține la fel de multe informații Fisher ca întregul eșantion X . Acest lucru poate fi demonstrat folosind testul de factorizare Neumann pentru statistici suficiente. Dacă statisticile sunt suficiente pentru parametrul , atunci există funcții g și h astfel încât:
Egalitatea informațiilor rezultă din:
care rezultă din definiția Fisher informații și independență față de .
Alte măsuri utilizate în teoria informației :