Entropia diferențială este o funcție funcțională definită pe un set de distribuții de probabilitate absolut continue , un analog formal al conceptului Shannon de entropie informațională pentru cazul unei variabile aleatoare continue . În teoria informației, funcționalul a fost introdus euristic de K. Shannon [1] , dar el nu este autorul termenului de „entropie diferențială”. Termenul în sine a fost introdus de A. N. Kolmogorov împreună cu I. M. Gelfand și A. M. Yaglom și subliniază că acest concept are un alt sens decât entropia distribuțiilor discrete. De asemenea, au obținut o derivare riguroasă a entropiei diferențiale ca prim termen al expansiunii asimptotice a entropiei , în care se manifestă dependența de distribuția unei variabile aleatoare [2] [3] [4] . Pentru o variabilă aleatoare continuă distribuită pe ( ), entropia diferenţială este definită ca
,unde este densitatea de distribuție a unei variabile aleatoare (sau a unui semnal dintr-o sursă continuă ca variabilă aleatoare). Alegerea bazei logaritmului în această formulă (trebuie să fie mai mare decât 1) determină unitatea de măsură pentru cantitatea corespunzătoare de informații. Deci, în teoria informației , este adesea folosit logaritmul binar , care corespunde unității cantității de biți de informație , iar funcționalul este interpretat ca informația medie a unei surse continue. În statistica matematică , în definiția entropiei diferențiale, din motive de comoditate, se folosește de obicei logaritmul natural (unitatea corespunzătoare nat ), funcționalul este interpretat ca o măsură a incertitudinii unei distribuții continue.
Entropia diferențială este neinvariantă în raport cu transformările coordonatelor unei variabile aleatoare și nu are semnificație independentă (are o valoare numerică neinterpretabilă). Mai mult, dacă variabila aleatoare are o dimensiune, atunci funcționalitatea diferenţială a entropiei va fi incorectă din punct de vedere al dimensiunii, deoarece mărimea dimensională apare sub semnul logaritmului. Totuși, diferența dintre entropiile diferențiale a două variabile aleatoare distribuite pe aceeași mulțime este corectă, în plus, o mărime adimensională și coincide cu diferența entropiilor lor. Deoarece entropia oricărei variabile aleatoare continue este infinită, atunci când se ia diferența de entropii, este necesar să se dezvăluie incertitudinea folosind expansiunea asimptotică [3] [4] [5] .
Astfel, capacitatea de a exprima entropia diferențială în biți (sau alte unități) este destul de arbitrară: situația de aici este similară cu măsurarea temperaturii în grade Celsius , care, deși coincid ca mărime cu kelvin , nu sunt o scară de temperatură absolută , dar au unele deplasări în raport cu acesta (în conformitate cu Din acest motiv, entropia diferenţială, precum temperatura de pe scara Celsius , poate fi negativă). Diferența este că, în cazul entropiei diferențiale, această deplasare este infinită în raport cu scara absolută definită de valorile entropiei . Acestea. o scară absolută pentru entropia distribuțiilor continue nu poate fi aleasă, dar entropia diferențială poate fi utilizată pentru a compara entropiile diferitelor distribuții.
În unele surse [5] , entropia diferenţială a unei distribuţii este interpretată ca entropia ei în raport cu entropia unei distribuţii uniforme pe un interval de lungime unitară, deoarece aceasta din urmă are entropie diferenţială zero. Trebuie remarcat faptul că această abordare nu este în întregime corectă, deoarece entropia în cazul continuu depinde de modul în care pasul de discretizare tinde la zero atunci când intervalul este partiționat. Numai în cazul în care se consideră același interval, se poate presupune că la calcularea entropiei se folosește aceeași discretizare pentru fiecare dintre distribuții, atunci diferența de entropie tinde spre o limită finită. În cazul general (pentru discretizarea arbitrară), diferența dintre entropiile variabilelor aleatoare continue nu tinde spre nicio limită.
Entropia diferențială condiționată pentru o cantitate la o anumită cantitate este dată de următoarea formulă:
.Entropiile diferențiale necondiționate și condiționate pot fi fie pozitive, fie negative și pot fi, de asemenea, egale cu infinitul . Această circumstanță indică, de asemenea, că entropia diferențială (condițională și necondiționată) are o semnificație ușor diferită de entropia , care este întotdeauna nenegativă.
Pentru entropia diferenţială, egalităţile sunt valide, similare cu entropia unei surse discrete :
(pentru surse independente - egalitate)În exemplele de mai jos, definiția entropiei diferențiale folosește logaritmul natural, varianța distribuției.
Să luăm bucăți pentru certitudine . Deci baza logaritmului este 2.