Cantitatea de informație în teoria informației este cantitatea de informații dintr-un obiect aleatoriu în raport cu altul.
Fie și variabile aleatoare definite pe mulțimile corespunzătoare și . Atunci cantitatea de informații este relativă la diferența dintre entropiile a priori și a posteriori:
,Unde
este entropia și
- entropia condiţionată, în teoria transmiterii informaţiei, caracterizează zgomotul din canal.
Entropia are următoarele proprietăți:
,unde este numărul de elemente din mulțime .
, dacă unul dintre elementele mulţimii se realizează cu probabilitate 1, iar restul, respectiv, 0, datorită faptului că şi .
Valoarea maximă a entropiei este atinsă atunci când toate , i.e. toate rezultatele sunt la fel de probabile.
Entropia condiționată are următoarele proprietăți:
,În acest caz , dacă maparea este cu o singură valoare, i.e. .
Valoarea maximă a entropiei condiționale este atinsă atunci când și sunt variabile aleatoare independente.
Pentru cantitatea de informații, proprietățile sunt adevărate:
ca o consecinţă a teoremei lui Bayes . dacă și sunt variabile aleatoare independente.Ultima proprietate arată că cantitatea de informație este egală cu entropia informațională dacă componenta de pierdere a informațiilor (zgomotul) este zero.