Informație semantică

Versiunea actuală a paginii nu a fost încă examinată de colaboratori experimentați și poate diferi semnificativ de versiunea revizuită la 30 martie 2018; verificările necesită 4 modificări .

Informația semantică  este aspectul semantic al informației, reflectând relația dintre forma mesajului și conținutul semantic al acestuia.

Plecând de la lucrările lui Claude Shannon , este general acceptat [1] că conceptul de informație este format din trei aspecte: sintactic , semantic și pragmatic . Cea sintactică este legată de problemele tehnice de stocare și transmitere a informațiilor, cea semantică este legată de sensul și sensul adevărului mesajelor, cea pragmatică atinge problemele influenței informațiilor asupra comportamentului oamenilor. Teoria informației semantice explorează domeniul cunoașterii umane și este o parte integrantă a dezvoltării inteligenței artificiale [2] .

Istorie

Formarea conceptului de informație semantică

Apariția semioticii în secolul al XIX-lea a creat premisele pentru apariția conceptului de informație semantică [3] . Ea a prins în cele din urmă contur după apariția Teoriei matematice a comunicării , creată de Claude Shannon în 1948 [4] . Teoria lui Shannon, acum privită ca o teorie a informației sintactice, ignoră complet sensul mesajului. Atunci s-a realizat necesitatea creării unei teorii a informației semantice.

Teoria lui Bar-Hillel și Carnap

În 1952, Yehoshua Bar-Hillel și Rudolf Carnap au propus o teorie a informațiilor semantice bazată pe conceptul de probabilități logice [5] . Informația semantică este interpretată de autori ca un sinonim pentru conținutul semantic, pe care îl au atât expresiile adevărate, cât și cele false. Sunt luate în considerare două măsuri principale ale cantității de informații semantice dintr-o propoziție . Primul este definit astfel:

,

unde  este probabilitatea logică absolută a propoziției . A doua măsură este o funcție neliniară a primei:

.

Este interesant că pentru două propoziții logic independente și avem inegalitatea: , unde " " este semnul conectivului logic "ȘI", în timp ce:

, (*)

care este mai potrivit pentru măsurarea cantității de informații.

Pentru a determina valorile probabilităților logice ale propozițiilor, Bar-Hillel și Carnap construiesc un limbaj formal și îl folosesc pentru a compune descrieri ale tuturor stărilor posibile ale universului (așa-numitul „ mult de lumi posibile ”). Să dăm un exemplu de limbaj simplu în care există o constantă (prin care ne referim la fata Alice) și două predicate : și , care denotă proprietățile „frumoasă” și „inteligentă”. Apoi expresia înseamnă propoziția „Alice este frumoasă”, iar expresia înseamnă „Alice este  inteligentă”. Acum folosim conjunctivul logic „NU”, pe care îl notăm prin simbolul: „ „. Apoi expresia va însemna propoziția „Alice nu este frumoasă”, iar expresia  - „Alice nu este inteligentă”. Acum putem compune toate descrierile posibile ale stărilor universului pentru limba noastră umilă. Vor fi patru în total.

După cum se poate observa, fiecare lume a universului constă din propoziții atomice independente din punct de vedere logic (și negațiile lor), numite de bază. De obicei, limbajele formale folosesc o mulțime de constante și o mulțime de predicate, și nu neapărat singure . Deci numărul de lumi poate fi foarte mare.

Dacă nu sunt date precondiții, atunci probabilitățile logice ale tuturor lumilor sunt aceleași. În acest caz, mărimea probabilității logice absolute a propoziției este egală cu raportul dintre numărul de lumi în care este adevărată și numărul total de lumi din univers. În teoria lui Bar-Hillel și Carnap, probabilitățile logice ale expresiilor analitice sunt aceleași și egale cu unu (deoarece sunt adevărate în toate lumile), iar probabilitatea logică de contradicție este zero. Valorile probabilităților logice ale expresiilor sintetice sunt în intervalul de la zero la unu.

Cu cât sunt mai multe lumi în univers, cu atât este mai mare incertitudinea (cu privire la care lume este adevărată). După primirea mesajului , incertitudinea scade, deoarece acele lumi în care este fals pot fi excluse din considerare. Informația semantică dintr-o propoziție este înțeleasă ca un set de lumi excluse (se notează prin simbolul ). În ceea ce privește această definiție, autorii scriu că este în concordanță cu principiul filosofic antic „ omnis determinatio est negatio ” („ fiecare definiție este o excepție ”). Acum, pentru măsură , putem scrie:

,

unde  este cardinalitatea multimii ,  este cardinalitatea multimii tuturor lumilor universului .

Cantitatea de informații semantice dintr-un mesaj referitoare la cunoștințele destinatarului este definită după cum urmează:

,

unde  este probabilitatea logică relativă (condițională) a adevărului enunțului cu condiția ca expresia să fie adevărată .

Este remarcabil că, pur exterior, formulele teoriei Bar-Hillel și Carnap sunt similare cu cele ale teoriei lui Shannon. Atat acolo cat si aici avem logaritmi si probabilitati . Numai în Shannon toate probabilitățile sunt statistice (adică empirice ) și nu logice.

Dacă probabilitatea logică a expresiei este mai mică decât probabilitatea logică a expresiei , atunci mesajul transportă informații noi destinatarului, îmbogățindu-i astfel cunoștințele. Dacă implică , atunci este echivalent și mesajul nu poartă informații destinatarului (deoarece nu este nimic nou în el pentru el). Dacă expresia este o contradicție, atunci . Cantitatea de informații semantice din contradicția conform lui Bar-Hillel și Carnap este egală cu infinitul . Acest rezultat paradoxal a fost criticat ulterior de Luciano Floridi.

Idei alternative

Deși teoria lui Bar-Hillel și Carnap încă se bucură de atenția cercetătorilor, a provocat un val de idei noi. Alexander Kharkevich a propus măsurarea valorii informației prin modificarea probabilității de a atinge un anumit scop care apare sub influența acestui mesaj [6] . Julius Schrader credea că cantitatea de informații semantice dintr-un mesaj de orice natură poate fi evaluată ca gradul de schimbare în sistemul de cunoștințe al destinatarului ca urmare a percepției mesajului [7] . Ideea aspectului semantic al relației dintre informație și entropie a fost propusă pentru prima dată în 1966 de către filozoful și logicianul sovietic Yevgeny Kazimirovich Voishvillo în lucrarea sa „ O încercare de interpretare semantică a conceptelor statistice de informație și entropie ”.

Teoriile moderne ale informației semantice

Teoria Floridi

În lucrarea sa din 2004, Luciano Floridi atacă teoria lui Bar Hillel și Carnap din prima linie: „ „Triunghiul are patru laturi”: conform teoriei clasice a informațiilor semantice, această contradicție conține mai mult conținut semantic decât afirmația condiționată adevărată” Pământul are o singură Lună „ ” [8] . Floridi a numit asta „ paradoxul Bar-Hillel-Carnap ”. El vede soluția acestui paradox în faptul că cantitatea de informații semantice din mesaje ar trebui să depindă nu numai de conținutul semantic conținut în ele, ci și de valoarea de adevăr a acestor mesaje. Floridi a introdus conceptul de propoziție falsă condiționat ( propoziție falsă contingent ), care este o conjuncție a celor două părți constitutive ale sale, dintre care una este adevărată, iar cealaltă este falsă. Un exemplu de astfel de propoziție este afirmația: „Luna se învârte în jurul Pământului și în interiorul lui este gol”. O astfel de propoziție poartă simultan informații (pentru cei care nu știu că Luna se învârte în jurul Pământului) și dezinformare (în viața obișnuită se întâlnește adesea acest lucru - dezinformarea este mai ușor de promovat dacă este completată cu unele informații).

Din punctul de vedere al logicii clasice, o propoziție condițional falsă este pur și simplu falsă și poartă doar dezinformări. Cu toate acestea, exemplul de mai sus arată că acesta nu este de fapt cazul. Teoria originală a lui Bar-Hillel și Carnap nu reușește să rezolve această antinomie . Prin urmare, Floridi a respins-o (ca o teorie „slabă”) și și-a creat-o pe a sa – „puternic”. El a abandonat utilizarea probabilităților logice și a afirmat că teoria informației semantice nu ar trebui să fie similară cu cea a lui Shannon [9] . În propria interpretare, cantitatea de informație semantică dintr-un mesaj este determinată de gradul în care acest mesaj corespunde situației (adică ceea ce se întâmplă într-un anumit loc și la un moment dat). O inconsecvență apare fie ca urmare a lipsei de conținut a mesajului, fie ca urmare a inexactității acestuia. În teoria sa, Floridi nu folosește în mod direct conceptul de dezinformare, în schimb introduce conceptul de gradul de inexactitate al propozițiilor condițional false. Gradul de inexactitate într-o propoziție condiționat falsă este egal cu:

,

unde  este numărul de expresii atomice false în ;  este numărul total de propoziții atomice în . Determinarea adevărului propozițiilor atomice necesită acceptarea principiului omniscienței a priori. Gradul de lipsă de conținut al unei propoziții adevărate se calculează prin formula:

,

unde  este numărul de lumi ale universului în care este adevărat;  este numărul total de lumi din univers (rețineți că, conform acestei definiții, valoarea este exact egală cu valoarea probabilității logice ). În continuare, Floridi introduce conceptul de funcție a gradului de informativitate:

.

Cantitatea de informații semantice din mesaj este egală cu o anumită integrală a funcției gradului de informativitate :

.

În ciuda tuturor diferențelor dintre teoria clasică și teoria floridiană, ele au ceva în comun. Dacă este o propoziție adevărată, atunci valoarea este egală cu valoarea probabilității logice . Măsura este similară cu măsura , dar spre deosebire de aceasta din urmă, este o funcție neliniară . Din păcate, în teoria lui Floridi nu există nimic ca o măsură care are proprietatea remarcabilă (*) pentru propozițiile independente logic.

Teoria informației semantice și a dezinformarii

Problema ridicată de Floridi poate fi rezolvată în cadrul unei teorii bazate pe probabilități logice. Trebuie remarcat faptul că, la începutul secolului curent, unii oameni de știință și-au format o atitudine sceptică față de logica inductivă a lui Carnap [10] . Cu toate acestea, matematicienii moderni au reușit să schimbe situația prin modificarea acestei teorii [11] [12] [13] . Datorită acestui fapt, interesul pentru probabilitățile logice a fost reînviat.

În [14] , se propune modificarea teoriei clasice a informației semantice prin includerea în ea a conceptului de dezinformare, care este purtat de un mesaj fals. În noua teorie, ca și în teoria Floridi, sunt luate în considerare multe situații diferite (puncte de spațiu-timp). Aceeași propoziție a unei limbi poate fi adevărată într-o situație și falsă în alta. Deoarece destinatarul mesajelor nu poate fi imun la erori în evaluarea adevărului lor, cantitatea de informații semantice este evaluată separat din punctul de vedere al destinatarului și din punctul de vedere al unui expert omniscient.

În fiecare situație specifică, un mesaj adevărat poartă doar informații, iar unul absolut fals doar dezinformare. O propoziție condiționat falsă este considerată ca o conjuncție : , unde  este partea adevărată a mesajului,  este partea falsă a mesajului. Este necesar ca și să fie independent din punct de vedere logic (acest lucru este necesar, în special, pentru ca contradicția să nu se dovedească a fi o propoziție condiționat falsă). Apoi , măsurile nenormalizate ale cantității de informații și ale cantității de dezinformare într-o propoziție condiționat falsă din punctul de vedere al unui expert sunt definite după cum urmează:

, .

Indexul „ ”, care marchează simbolurile „ ” și „ ” în formule, indică faptul că cantitățile de informații și dezinformare sunt considerate din punctul de vedere al unui expert. Măsuri normalizate ale cantității de informații semantice și dezinformare într-o propoziție condiționat falsă din punctul de vedere al unui expert:

, .

Controversele din punctul de vedere al expertului poartă zero informații și o cantitate infinită de dezinformare. Aceasta rezolvă paradoxul Bar-Hillel-Carnap. Cantitatea infinită de dezinformare se explică prin faptul că, dacă contradicția i s-ar părea brusc adevărul cuiva, atunci lumea s-ar schimba pentru el dincolo de recunoaștere. Două cuvinte nu o pot descrie. Să presupunem că destinatarul informațiilor are cunoștințe condițional false , echivalente cu conjuncția: , unde  este partea adevărată a cunoștințelor sale,  este amăgire. Apoi, din punctul de vedere al unui expert, după ce a primit un mesaj condițional fals , destinatarul deține efectiv informații semantice și dezinformare în următoarele sume:

, .

Dacă destinatarul percepe ca o propoziție adevărată și conjuncția nu este o contradicție, atunci din punctul său de vedere a primit următoarea cantitate de informații:

.

Sufixul „ ” indică ratingul destinatarului. Evident, doar un expert poate determina cantitatea exactă de informații (și dezinformări) dintr-un mesaj primit, iar destinatarul este capabil doar de estimări mai mult sau mai puțin precise.

Teoria informației semantice universale

O descriere formală a informațiilor semantice aplicabile tuturor tipurilor de sisteme fizice (vii și nevii) este dată de matematicianul David Wolpert în lucrarea sa „Informații semantice, agenție și fizică statistică de nonequilibri”: informația sintactică pe care o are un sistem fizic. despre mediu și care este necesar din punct de vedere cauzal pentru ca sistemul să își mențină propria existență într-o stare de entropie scăzută.

Necesitatea ocazională este definită în termeni de intervenții contra-factuale care randomizează corelațiile dintre sistem și mediu. Criteriul pentru gradul de autonomie al unui sistem fizic este cantitatea de informație semantică disponibilă.

Note

  1. ^ Shannon CE, Weaver W., (1949), The Mathematical Theory of Communication, Urbana: University of Illinois Press. Cuvânt înainte de Richard E. Blahut și Bruce Hajek; retipărit în 1998.
  2. Luger D.F. Inteligența artificială: strategii și metode de rezolvare a problemelor complexe. – M.: Editura Williams, 2005. – 864 p. ISBN 5-8459-0437-4 (rusă)
  3. Dmitriev V.I. Teoria aplicată a informației. - M.: Şcoala superioară, 1989. - 320 p. ISBN 5-06-000038-9
  4. Shannon CE, (1948), A Mathematical Theory of Communication. Sistemul Bell. Teh. J., 27: 379-423, 623-656.
  5. Bar-Hillel Y., Carnap R., (1952), „An Outline of a Theory of Semantic Information”, Raportul tehnic nr. 247, 27 octombrie, Laboratorul de Cercetare de Electronică. – 49. [1] Arhivat 12 iulie 2013.
  6. Kharkevich A. A. Despre valoarea informației, „Probleme de cibernetică”, 1960, c. 4. - p. 54.
  7. ^ Shreider Yu. A., (1965), On one model of the semantic theory of information, „Problems of Cybernetics”, v. 13. - p. 233-240.
  8. Floridi L. (2004), „Outline of a Theory of Strongly Semantic Information”, Minds and Machines, 14(2), 197-222. [2] Arhivat pe 2 august 2014 la Wayback Machine
  9. Floridi L. (2011), Semantic Conception of Information, In The Stanford Encyclopedia of Philosophy, ed. Edward N. Zalta, [3] Arhivat 5 septembrie 2015 la Wayback Machine
  10. Hajek Alan. (2007). Interpretarea probabilității. În The Stanford Encyclopedia of Philosophy, ed. Edward N. Zalta, [4]  (link nu este disponibil)
  11. Maher Patrick, (2010). Explicarea probabilității inductive. Journal of Philosophical Logic 39(6): 593-616.
  12. Zabell S.I. (2004). Carnap și logica inferenței inductive. În Dov M. Gabbay, John Woods & Akihiro Kanamori (eds.), Handbook of the History of Logic. Elsevier 265-309.
  13. Ruurik Holm (2013). Probabilități non-zero pentru generalizări universale. Synthese 190 (18): 4001-4007.
  14. Pogorelov O. A. (2015). Informare semantică și dezinformare // Culegere de articole științifice pe baza rezultatelor Conferinței a V-a Internaționale Științifice și Practice „Informatică, Modelare Matematică, Economie” (Smolensk, 11-15 mai 2015), p. 132-143. [5]