În teoria informației, entropia Rényi , o generalizare a entropiei Shannon , este o familie de funcționale utilizate ca măsură a diversității cantitative, incertitudinii sau aleatoriei unui sistem. Numit după Alfred Renyi .
Dacă un sistem are un set discret de stări disponibile , care corespunde distribuției de probabilitate pentru (adică probabilitatea ca sistemul să fie în stări ), atunci entropia Rényi cu parametrul (at și ) al sistemului este definită ca
,unde parantezele unghiulare denotă așteptarea matematică prin distribuție ( este probabilitatea ca sistemul să fie într-o anumită stare ca o variabilă aleatoare ), logaritmul este luat în baza 2 (pentru numărarea în biți) sau într-o altă bază convenabilă (trebuie să fie mai mare). decât 1). Baza logaritmului determină unitatea de entropie. Deci, în statistica matematică , se folosește de obicei logaritmul natural .
Dacă toate probabilitățile sunt , atunci pentru orice entropia Rényi este . În caz contrar -entropia scade în funcție de . În plus, valorile mai mari (mergând la infinit) dau valorile entropiei Renyi care sunt în mare măsură determinate doar de cele mai mari probabilități de evenimente (adică, contribuția stărilor cu probabilitate scăzută la entropie scade). Cazul intermediar din limită dă entropia Shannon, care are proprietăți speciale. Valorile mai mici (care merg la zero) dau o valoare a entropiei Rényi care ponderează evenimentele posibile mai uniform, mai puțin dependente de probabilitățile lor. Și când obținem maximul posibil -entropie egală indiferent de distribuție (dacă numai ).
Sensul parametrului poate fi descris, vorbind informal, ca susceptibilitatea funcționalului la abaterea stării sistemului de la starea de echilibru: cu cât este mai mare , cu atât mai repede scade entropia atunci când sistemul se abate de la starea de echilibru. Sensul restricției este de a oferi o creștere a entropiei atunci când sistemul se apropie de o stare de echilibru (mai probabil). Această cerință este firească pentru conceptul de entropie . Trebuie remarcat faptul că pentru entropia Tsallis , care este echivalentă cu entropia Renyi până la o transformare monotonă independentă de , constrângerea corespunzătoare este adesea omisă, în timp ce pentru valorile negative ale parametrului, în loc să maximizeze entropia, minimizarea acestuia. este folosit.
Entropia Rényi joacă un rol important în ecologie și statistică, definind așa-numiții indici de diversitate . Entropia Rényi este, de asemenea, importantă în informațiile cuantice și poate fi folosită ca măsură a complexității . În lanțul Heisenberg, entropia Rényi a fost calculată în termeni de funcții modulare în funcție de . Ele conduc, de asemenea, la un spectru de exponenți de dimensiune fractală .
Această entropie este uneori numită entropia Hartley . Este folosit, de exemplu, în formularea principiului Boltzmann .
unde și sunt variabile aleatoare independente distribuite egal pe mulțimea cu probabilități ( ). Entropia patratică este folosită în fizică , procesarea semnalului , economie .
care se numește min-entropie deoarece este cea mai mică valoare a . Această entropie este, de asemenea, un caz degenerat, deoarece valoarea sa este determinată doar de starea cea mai probabilă.
Ultimele două cazuri sunt legate de . Pe de altă parte, entropia Shannon poate fi arbitrar mare pentru o distribuție X cu o min-entropie fixă.
deoarece . , pentru că . conform inegalității lui Jensen .Pe lângă familia de entropie, Rényi a definit și o serie de măsuri de divergență (divergențe) care generalizează divergența Kullback-Leibler . Formulele acestei secțiuni sunt scrise într-o formă generală - printr-un logaritm într-o bază arbitrară. Prin urmare, trebuie să înțelegeți că fiecare formulă dată este o familie de funcționale echivalente definite până la un factor constant (pozitiv).
Divergența Rényi cu parametrul , unde și , distribuția relativă la distribuție (sau „distanța de la la ”) este definită ca
sau (formal, fără a lua în considerare normalizarea probabilităților)
, .Ca și divergența Kullback–Leibler a lui , divergența Rényi este nenegativă pentru .
Luați în considerare un joc (loterie) ghicind o variabilă aleatorie. Ratele oficiale de câștig sunt cunoscute și publicate ca o distribuție de probabilitate . Între timp, distribuția de probabilitate reală poate să nu coincidă cu . Cunoașterea adevăratei distribuții permite jucătorului să câștige. Creșterea capitalului așteptată este exponențială. Considerând că distribuția este corectă , jucătorul poate calcula așteptarea (sa) matematică a ratei de creștere exponențială a capitalului (pe rundă de joc) [Soklakov2020 ]:
Creștere așteptată
unde denotă măsura relativă a aversiunii la risc Arrow-Pratt.
Indicând distribuția adevărată (nu coincide neapărat cu opinia jucătorului ), creșterea reală obținută poate fi calculată în limita unui joc multiplu [Soklakov2020 ]:
ActualHeightValoarea lui , care corespunde entropiei Shannon și divergenței Kullback-Leibler , este specială deoarece numai în acest caz se pot extrage variabilele A și X din distribuția probabilă comună astfel încât
pentru entropie și
—pentru divergenta.
Aceasta din urmă înseamnă că dacă căutăm o distribuție care să minimizeze discrepanțele unor măsuri de bază și obținem informații noi care afectează doar distribuția , atunci distribuția nu va fi afectată de modificările la .
În cazul general, divergențele Rényi cu valori arbitrare satisfac condițiile de non-negativitate, continuitate și invarianță sub transformarea coordonatelor variabilelor aleatoare. O proprietate importantă a oricărei entropie și divergență Rényi este aditivitatea: atunci când și sunt independente, rezultă că
și
.Cele mai puternice proprietăți ale cazului , care implică definirea informațiilor condiționate și a informațiilor reciproce din teoria comunicării, pot fi foarte importante în alte aplicații, sau deloc importante, în funcție de cerințele acelor aplicații.
Entropia încrucișată a două distribuții cu probabilități și ( ) în cazul general poate fi definită în moduri diferite (în funcție de aplicație), dar trebuie să satisfacă condiția . Una dintre definiții ( entropia Shannon are o proprietate similară ):
.O altă definiţie propusă de A. Renyi poate fi obţinută din următoarele consideraţii. Definim numărul efectiv de stări ale sistemului ca media ponderată geometrică a valorilor cu ponderi :
.Aceasta implică expresia pentru entropia încrucișată a lui Shannon
.Argumentând într-un mod similar, definim numărul efectiv de stări ale sistemului ca o medie ponderată a puterii - lege a valorilor cu ponderi și parametru :
.Astfel, entropia încrucișată Renyi are forma
.Pentru o generalizare formală a entropiei Shannon în cazul unei distribuții continue, se utilizează conceptul de entropie diferențială . Entropia diferențială Rényi este definită exact în același mod:
.Divergența Rényi în cazul continuu este, de asemenea, o generalizare a divergenței Kullback-Leibler și are forma
.Definiția entropiei încrucișate, propusă de A. Renyi, în cazul continuu are forma
.În formulele de mai sus , și sunt câteva funcții de densitate de probabilitate , definite pe interval , și se presupune că , .