Cantitatea de informații

Versiunea actuală a paginii nu a fost încă examinată de colaboratori experimentați și poate diferi semnificativ de versiunea revizuită pe 8 octombrie 2016; verificările necesită 3 modificări .

Cantitatea de informație în teoria informației este cantitatea de informații dintr-un obiect aleatoriu în raport cu altul.

Fie și variabile aleatoare definite pe mulțimile corespunzătoare și . Atunci cantitatea de informații este relativă la diferența dintre entropiile a priori și a posteriori:

,

Unde

este entropia și

- entropia condiţionată, în teoria transmiterii informaţiei, caracterizează zgomotul din canal.

Proprietăți entropie

Entropia are următoarele proprietăți:

,

unde este numărul de elemente din mulțime .

, dacă unul dintre elementele mulţimii se realizează cu probabilitate 1, iar restul, respectiv, 0, datorită faptului că şi .

Valoarea maximă a entropiei este atinsă atunci când toate , i.e. toate rezultatele sunt la fel de probabile.

Entropia condiționată are următoarele proprietăți:

,

În acest caz , dacă maparea este cu o singură valoare, i.e. .

Valoarea maximă a entropiei condiționale este atinsă atunci când și sunt variabile aleatoare independente.

Proprietăți ale cantității de informații

Pentru cantitatea de informații, proprietățile sunt adevărate:

ca o consecinţă a teoremei lui Bayes . dacă și sunt variabile aleatoare independente.

Ultima proprietate arată că cantitatea de informație este egală cu entropia informațională dacă componenta de pierdere a informațiilor (zgomotul) este zero.

Literatură