Entropia Renyi

În teoria informației, entropia Rényi , o generalizare a entropiei Shannon , este o familie de funcționale utilizate ca măsură a diversității cantitative, incertitudinii sau aleatoriei unui sistem. Numit după Alfred Renyi .

Dacă un sistem are un set discret de stări disponibile , care corespunde distribuției de probabilitate pentru (adică probabilitatea ca sistemul să fie în stări ), atunci entropia Rényi cu parametrul (at și ) al sistemului este definită ca

,

unde parantezele unghiulare denotă așteptarea matematică prin distribuție ( este probabilitatea ca sistemul să fie într-o anumită stare ca o variabilă aleatoare ), logaritmul este luat în baza 2 (pentru numărarea în biți) sau într-o altă bază convenabilă (trebuie să fie mai mare). decât 1). Baza logaritmului determină unitatea de entropie. Deci, în statistica matematică , se folosește de obicei logaritmul natural .

Dacă toate probabilitățile sunt , atunci pentru orice entropia Rényi este . În caz contrar -entropia scade în funcție de . În plus, valorile mai mari (mergând la infinit) dau valorile entropiei Renyi care sunt în mare măsură determinate doar de cele mai mari probabilități de evenimente (adică, contribuția stărilor cu probabilitate scăzută la entropie scade). Cazul intermediar din limită dă entropia Shannon, care are proprietăți speciale. Valorile mai mici (care merg la zero) dau o valoare a entropiei Rényi care ponderează evenimentele posibile mai uniform, mai puțin dependente de probabilitățile lor. Și când obținem maximul posibil -entropie egală indiferent de distribuție (dacă numai ).

Sensul parametrului poate fi descris, vorbind informal, ca susceptibilitatea funcționalului la abaterea stării sistemului de la starea de echilibru: cu cât este mai mare , cu atât mai repede scade entropia atunci când sistemul se abate de la starea de echilibru. Sensul restricției este de a oferi o creștere a entropiei atunci când sistemul se apropie de o stare de echilibru (mai probabil). Această cerință este firească pentru conceptul de entropie . Trebuie remarcat faptul că pentru entropia Tsallis , care este echivalentă cu entropia Renyi până la o transformare monotonă independentă de , constrângerea corespunzătoare este adesea omisă, în timp ce pentru valorile negative ale parametrului, în loc să maximizeze entropia, minimizarea acestuia. este folosit.

Entropia Rényi joacă un rol important în ecologie și statistică, definind așa-numiții indici de diversitate . Entropia Rényi este, de asemenea, importantă în informațiile cuantice și poate fi folosită ca măsură a complexității . În lanțul Heisenberg, entropia Rényi a fost calculată în termeni de funcții modulare în funcție de . Ele conduc, de asemenea, la un spectru de exponenți de dimensiune fractală .

H α pentru unele valori specifice ale α

Unele cazuri speciale

.

Această entropie este uneori numită entropia Hartley . Este folosit, de exemplu, în formularea principiului Boltzmann .

. ,

unde și sunt variabile aleatoare independente distribuite egal pe mulțimea cu probabilități ( ). Entropia patratică este folosită în fizică , procesarea semnalului , economie .

,

care se numește min-entropie deoarece este cea mai mică valoare a . Această entropie este, de asemenea, un caz degenerat, deoarece valoarea sa este determinată doar de starea cea mai probabilă.

Inegalități pentru diferite valori ale lui α

Ultimele două cazuri sunt legate de . Pe de altă parte, entropia Shannon poate fi arbitrar mare pentru o distribuție X cu o min-entropie fixă.

deoarece . , pentru că . conform inegalității lui Jensen .

Divergențele (divergențele) lui Renyi

Pe lângă familia de entropie, Rényi a definit și o serie de măsuri de divergență (divergențe) care generalizează divergența Kullback-Leibler . Formulele acestei secțiuni sunt scrise într-o formă generală - printr-un logaritm într-o bază arbitrară. Prin urmare, trebuie să înțelegeți că fiecare formulă dată este o familie de funcționale echivalente definite până la un factor constant (pozitiv).

Divergența Rényi cu parametrul , unde și , distribuția relativă la distribuție (sau „distanța de la la ”) este definită ca

sau (formal, fără a lua în considerare normalizarea probabilităților)

, .

Ca și divergența Kullback–Leibler a lui , divergența Rényi este nenegativă pentru .

Unele cazuri speciale

 : minus logaritmul sumei probabilităților astfel încât corespunzătoare .

Interpretare financiară (de joc)

Luați în considerare un joc (loterie) ghicind o variabilă aleatorie. Ratele oficiale de câștig sunt cunoscute și publicate ca o distribuție de probabilitate . Între timp, distribuția de probabilitate reală poate să nu coincidă cu . Cunoașterea adevăratei distribuții permite jucătorului să câștige. Creșterea capitalului așteptată este exponențială. Considerând că distribuția este corectă , jucătorul poate calcula așteptarea (sa) matematică a ratei de creștere exponențială a capitalului (pe rundă de joc) [Soklakov2020 ]:

Creștere așteptată


unde denotă măsura relativă a aversiunii la risc Arrow-Pratt.

Indicând distribuția adevărată (nu coincide neapărat cu opinia jucătorului ), creșterea reală obținută poate fi calculată în limita unui joc multiplu [Soklakov2020 ]:

ActualHeight

De ce este cazul α = 1 special

Valoarea lui , care corespunde entropiei Shannon și divergenței Kullback-Leibler , este specială deoarece numai în acest caz se pot extrage variabilele A și X din distribuția probabilă comună astfel încât

pentru entropie și

pentru divergenta.

Aceasta din urmă înseamnă că dacă căutăm o distribuție care să minimizeze discrepanțele unor măsuri de bază și obținem informații noi care afectează doar distribuția , atunci distribuția nu va fi afectată de modificările la .

În cazul general, divergențele Rényi cu valori arbitrare satisfac condițiile de non-negativitate, continuitate și invarianță sub transformarea coordonatelor variabilelor aleatoare. O proprietate importantă a oricărei entropie și divergență Rényi este aditivitatea: atunci când și sunt independente, rezultă că

și

.

Cele mai puternice proprietăți ale cazului , care implică definirea informațiilor condiționate și a informațiilor reciproce din teoria comunicării, pot fi foarte importante în alte aplicații, sau deloc importante, în funcție de cerințele acelor aplicații.

Renyi cross entropy

Entropia încrucișată a două distribuții cu probabilități și ( ) în cazul general poate fi definită în moduri diferite (în funcție de aplicație), dar trebuie să satisfacă condiția . Una dintre definiții ( entropia Shannon are o proprietate similară ):

.

O altă definiţie propusă de A. Renyi poate fi obţinută din următoarele consideraţii. Definim numărul efectiv de stări ale sistemului ca media ponderată geometrică a valorilor cu ponderi :

.

Aceasta implică expresia pentru entropia încrucișată a lui Shannon

.

Argumentând într-un mod similar, definim numărul efectiv de stări ale sistemului ca o medie ponderată a puterii - lege a valorilor cu ponderi și parametru :

.

Astfel, entropia încrucișată Renyi are forma

.

Caz continuu

Pentru o generalizare formală a entropiei Shannon în cazul unei distribuții continue, se utilizează conceptul de entropie diferențială . Entropia diferențială Rényi este definită exact în același mod:

.

Divergența Rényi în cazul continuu este, de asemenea, o generalizare a divergenței Kullback-Leibler și are forma

.

Definiția entropiei încrucișate, propusă de A. Renyi, în cazul continuu are forma

.

În formulele de mai sus , și sunt câteva funcții de densitate de probabilitate , definite pe interval , și se presupune că , .

Literatură