Teoria informației este o ramură a matematicii aplicate , a ingineriei radio ( teoria procesării semnalului ) și a informaticii , care se referă la măsurarea cantității de informații , proprietățile acesteia și stabilirea relațiilor limitative pentru sistemele de transmisie a datelor. Ca orice teorie matematică, teoria operează cu modele matematice , și nu cu obiecte fizice reale (surse și canale de comunicare ). Utilizează în principal aparatul matematic al teoriei probabilităților și al statisticii matematice .
Principalele ramuri ale teoriei informației sunt codarea sursă (codificare compresivă ) și codificarea canalelor ( corectarea zgomotului ). Teoria informației este strâns legată de entropia informațională , sistemele de comunicare, criptografia și alte discipline conexe.
Domeniul se află la intersecția dintre matematică , statistică , informatică , fizică , neuroștiință , inginerie informațională și inginerie electrică . Teoria și-a găsit aplicații și în alte domenii, inclusiv inferența statistică , procesarea limbajului natural , criptografia , neuroștiința [1] , viziunea umană [2] , evoluția [3] și funcția [4] a codurilor moleculare ( bioinformatică ), modelul statistic selecție [5] , fizică termică [6] , calcul cuantic , lingvistică , detectarea plagiatului [7] , recunoașterea modelelor și detectarea anomaliilor [8] . Subdomeniile importante ale teoriei informațiilor includ compresia datelor , codarea canalelor , teoria complexității algoritmice , teoria informației algoritmice , securitatea teoretică a informațiilor, analiza relațională a lui Gray și măsurarea informațiilor.
Apariţia teoriei informaţiei este asociată cu publicarea de către Claude Shannon a lucrării " Teoria matematică a comunicării " în 1948 . Din punctul de vedere al lui Shannon, teoria informației este o ramură a teoriei matematice a comunicării. Teoria informației stabilește limitele principale ale posibilităților sistemelor de transmitere a informațiilor, stabilește principiile inițiale pentru dezvoltarea și implementarea lor practică. Gama de probleme ale teoriei informației este prezentată folosind o diagramă bloc, un sistem tipic de transmitere sau stocare a informațiilor.
În schemă, o sursă este orice obiect din univers care generează mesaje care trebuie mutate în spațiu și timp . Indiferent de natura fizică inițială, toate mesajele care urmează să fie transmise sunt de obicei convertite în formă de semnale electrice , astfel de semnale fiind considerate ca ieșire a sursei. Codificatorul sursă reprezintă informația în cea mai compactă formă. Codificatorul de canal procesează informațiile pentru a proteja mesajele de interferențe în timpul transmisiei prin canalul de comunicație sau de posibile distorsiuni în timpul stocării informațiilor. Modulatorul convertește mesajele generate de codificatorul de canal în semnale compatibile cu natura fizică a canalului de comunicație sau a mediului de stocare a informațiilor. Mediul de diseminare a informațiilor ( canalul de comunicare ) introduce zgomot aleatoriu în procesul de transmitere a informațiilor, care distorsionează mesajul și, prin urmare, îl face dificil de citit. Blocurile situate pe partea de recepție efectuează operațiuni inverse și oferă destinatarului informații într-o formă ușor de înțeles .
Nașterea teoriei informației este adesea asociată cu plasarea în iulie-octombrie 1948 de către Claude Shannon a unei lucrări în jurnalul companiei americane de telefonie Bell System sub titlul „Teoria matematică a comunicării”. Dar este de menționat că contribuția la formularea și construcția teoriei informațiilor a fost adusă și de mulți alți oameni de știință de seamă. Shannon însuși la începutul articolului său a scris „Unele dintre principalele prevederi ale acestei teorii se găsesc în lucrările importante ale lui Nyquist și Hartley . În prezent, teoria a fost extinsă pentru a include o serie de factori noi, în special, influența zgomotului în canal.
Practic, Shannon a dezvoltat direcția lucrării lui Hartley, folosind conceptul de „informație”, dar termenul în sine nu explică, ci doar prevede că mesajele pot avea un fel de „sens”, adică se referă la un sistem care are propria esență fizică sau speculativă ( sistem cibernetic ). Teoria lui Shannon a fost considerată inițial ca o problemă matematică formulată cu precizie și a făcut posibilă determinarea debitului unui canal de comunicare zgomotos.
Codificarea este procesul de tranziție a unui mesaj la intrarea unui canal de comunicație la un cod de mesaj la ieșire, în timp ce valoarea informațională a mesajului trebuie să rămână neschimbată. În teoria informației, se pot distinge următoarele secțiuni:
1. Codarea surselor discrete (model de codificare a datelor fără pierderi).
2. Codificarea datelor care asigură transmisia lor fără erori pe un canal zgomotos.
Un cod este decodabil în mod unic dacă orice secvență de caractere din alfabetul codului (și mai ales 0 și 1) este împărțită în cuvinte separate. Dacă niciun cuvânt de cod nu este începutul altuia, codul se numește cod prefix și este decodabil în mod unic. Prin urmare, a fi prefixat este o condiție suficientă, dar nu necesară pentru decodabilitatea unică. Cerința de prefix limitează setul de lungimi de cuvinte de cod și nu face posibilă alegerea cuvintelor de cod care sunt prea scurte. O condiție necesară și suficientă pentru existența unui cod de volum de prefix cu lungimi de cuvinte de cod este îndeplinirea inegalității lui Kraft:
De asemenea, este necesar să se ia în considerare codul Shannon-Fano - un algoritm pentru codificarea neuniformă a prefixului. Această metodă de codificare folosește redundanța mesajului, care constă în distribuția neuniformă a frecvenței a caracterelor alfabetului său, adică înlocuiește codurile caracterelor mai frecvente cu secvențe binare scurte, iar codurile caracterelor mai rare cu secvențe mai lungi. secvențe binare. Luați în considerare o sursă care selectează litere dintr-o mulțime cu probabilități . Presupunem că literele sunt ordonate în ordinea descrescătoare a probabilităților ( ). Cuvântul cod al codului Shannon pentru un mesaj cu un număr este o secvență binară, care este primele cifre după punctul zecimal din notația binară a numărului :
3. Codarea datelor pentru sisteme cu mulți utilizatori descrie interacțiunea optimă a abonaților folosind o resursă comună, de exemplu, un canal de comunicare.
Dicționare și enciclopedii | ||||
---|---|---|---|---|
|
ale informaticii | Principalele direcții|
---|---|
Fundamente matematice | |
Teoria algoritmilor | |
Algoritmi , structuri de date | |
Limbaje de programare , compilatoare | |
Concurență și calcul paralel , sisteme distribuite | |
Inginerie software | |
Arhitectura sistemului | |
Telecomunicatii , retele | |
Bază de date | |
Inteligenţă artificială |
|
Grafică pe computer | |
Interacțiunea om-calculator |
|
calcul științific | |
Notă: Informatica poate fi, de asemenea, împărțită în diferite subiecte sau ramuri, conform Sistemului de clasificare a calculatoarelor ACM . |