Entropia unei limbi este o funcție statistică a unui text într-o anumită limbă sau limba în sine, care determină cantitatea de informații pe unitatea de text.
Din punct de vedere matematic, entropia unei limbi este definită ca
unde este mesajul, este entropia acestuia , este lungimea mesajului.
Potrivit lui Claude Shannon și Thomas Cover ( engl. Thomas Cover ), pentru engleză această valoare este între 1,3 și 2,3 biți pe literă.