Informație (din lat. informātiō „explicație, reprezentare, concept despre ceva” ← informare „da formă, formă, preda; gândește, imaginează” [1] ) - informații, indiferent de forma de prezentare a acestora [2] [3] .
În ciuda utilizării pe scară largă, conceptul de informație rămâne unul dintre cele mai controversate din știință , iar termenul poate avea semnificații diferite în diferite domenii ale activității umane [4] .
Informația nu este materie sau energie, informația este informație
Norbert Wiener [5]Există multe definiții ale informației, iar academicianul N. N. Moiseev chiar credea că, datorită amplorii acestui concept, nu există și nu poate exista o definiție strictă și suficient de universală a informației [6] .
Următoarele definiții sunt date în standardele internaționale și ruse:
Deși informațiile trebuie să ia o anumită formă de reprezentare (adică să devină date ) pentru a fi schimbate, informațiile sunt în primul rând o interpretare (sens) a unei astfel de reprezentări (ISO/IEC/IEEE 24765:2010) [10] . Prin urmare, în sens strict, informația este diferită de date , deși cei doi termeni sunt foarte des folosiți interschimbabil în contexte informale .
Inițial, „informația” este informația transmisă de oameni oral , în scris sau în orice alt mod (folosind semnale condiționate , mijloace tehnice etc.); de la mijlocul secolului al XX-lea, termenul „informație” a devenit un concept științific general, inclusiv schimbul de informații între oameni, o persoană și un automat , un automat și un automat; semnalizare în lumea animală și vegetală ; transferul de trăsături de la celulă la celulă, de la organism la organism (de exemplu, informații genetice ); unul dintre conceptele de bază ale ciberneticii [11] .
Măsurători în octeți | ||||||||
---|---|---|---|---|---|---|---|---|
GOST 8.417-2002 | prefixe SI | prefixe IEC | ||||||
Nume | Desemnare | grad | Nume | grad | Nume | Desemnare | grad | |
octet | B | 10 0 | — | 10 0 | octet | B | B | 20 _ |
kilobyte | KB | 10 3 | kilogram- | 10 3 | kibibyte | KiB | KiB | 2 10 |
megaoctet | MB | 10 6 | mega- | 10 6 | mebibyte | MiB | MiB | 2 20 |
gigabyte | GB | 10 9 | giga- | 10 9 | gibibyte | GiB | GiB | 2 30 |
terabyte | TB | 10 12 | tera- | 10 12 | tebibyte | TiB | Tib | 2 40 |
petabyte | pb | 10 15 | peta- | 10 15 | pebibyte | PiB | P&B | 2 50 |
exabyte | Ebyte | 10 18 | exa- | 10 18 | exbibyte | EiB | BEI | 2 60 |
zettabyte | Zbyte | 10 21 | zetta- | 10 21 | zebibyte | ZiB | ZiB | 2 70 |
yottabyte | Ibyte | 10 24 | yotta- | 10 24 | yobibyte | YiB | Y&B | 2 80 |
Un pionier în domeniul teoriei informației a fost Ralph Hartley . El a introdus conceptul de „informație” (entropie) ca o variabilă aleatorie și a fost primul care a încercat să definească o „ măsură a informațiilor ”.
Cea mai simplă unitate de informație este un bit - o unitate de măsură a cantității de informații care ia 2 valori logice: da sau nu, adevărat sau fals, activat sau oprit; 1 sau 0 în sistemul de numere binar.
În sistemele de calcul moderne, 8 biți de informații, numiți octet , sunt procesați simultan . Un octet poate lua una dintre cele 256 ( 28 ) valori diferite (stări, coduri ). Unitățile zecimale derivate din octeți se numesc, respectiv, kiloocteți (10 3 = 1000 de octeți), megaocteți (106 = 1.000.000 de octeți), gigaocteți (10 9 = 1.000.000.000 de octeți), etc. [12]
Unitățile de măsură binare (binare) derivate din octeți sunt numite kibibyte ( 210 = 1024 octeți), mebibyte ( 220 = 1048576 octeți ), gibibyte ( 230 = 1073741824 octeți) și așa mai departe [ 12] .
De asemenea, informațiile sunt măsurate în unități precum trit , Harddit (decite) și Nat .
Conform conceptelor moderne, informațiile sunt considerate intangibile, iar ceea ce este conținut în structura obiectelor se numește de obicei date ( forma de reprezentare - ISO / IEC / IEEE 24765: 2010).
Pentru studiile de autoorganizare a sistemelor dinamice , Henry Kastler a propus următoarea definiție: „Informația este o alegere memorată a unei opțiuni dintre mai multe posibile și egale” [13] .
N. M. Amosov credea că „informația este informație despre sistem, despre structura și funcțiile acestuia, exprimată prin model”, iar „prelucrarea informațiilor constă în transformarea unor modele în altele” [14] .
Cuvântul „informație” provine din latină. informatio , care în traducere înseamnă informare, clarificare, familiarizare . Conceptul de informație a fost considerat de filosofii antici .
Cuvintele latinești „de saxis informibus” din Vulgata lui Ieronim (342-419) sunt traduse ca „din pietre solide” ( Deut. 27:6 ), iar cuvintele „informem adhuc me”, care sunt traduse ca „Fătul meu”. „ ( Ps. 138: 16 ), poate fi tradus și prin „încă fără formă eu”, pentru că tocmai prin „încă fără formă” sunt traduse cuvintele „adhuc informem” din Mărturisirea lui Augustin (354-430).
Cuvântul italian „informa” din Comedia lui Dante ( 1265-1321) denotă nu doar lipsa de formă, ci și procesul de formare, formare, creație (Ch. XVII 16-18, Ch. XXV 40-42, R. VII 133). -138).
În lumea modernă, informația este una dintre cele mai importante resurse și, în același timp, una dintre forțele motrice ale dezvoltării societății umane. Procesele informaționale care au loc în lumea materială, în viața sălbatică și în societatea umană sunt studiate (sau cel puțin luate în considerare) de toate disciplinele științifice, de la filozofie la marketing .
Din punct de vedere istoric, două ramuri complexe ale științei sunt direct implicate în studiul informației - cibernetica și informatica .
Informatica, care s-a format ca știință la mijlocul secolului al XX-lea, s-a separat de cibernetică și este angajată în cercetări în domeniul metodelor de obținere, stocare, transmitere și prelucrare a informațiilor semantice.
Studiile conținutului semantic al informației se bazează pe un complex de teorii științifice sub denumirea generală de semiotică . .
În Rusia, problemele filozofice ale conceptului de „informație” au fost dezvoltate încă din anii 1960 , când a fost publicat articolul lui A. D. Ursul „Natura informației”. De atunci, în mod explicit sau implicit, au fost luate în considerare două concepte de informație: atributiv , conform căruia informația este caracteristică tuturor sistemelor și proceselor fizice (A. D. Ursul, I. B. Novik, L. B. Bazhenov, L. A. Petrushenko și alții), iar informația funcțională este inerentă. numai în sisteme de auto-organizare ( P.V. Kopnin , A.M. Korshunov, V.S. Tyukhtin , B.S. Ukraintsev și alții) [15] .
Dar dacă, de exemplu, chiar și o analiză superficială a conținutului conceptelor atributive și funcționale cele mai des întâlnite astăzi în legătură cu informația este efectuată, devine clar că ambele concepte se bazează în cele din urmă pe proprietatea obiectivă a materiei, stabilită încă din al XIX-lea și denotat prin categoria filozofică „reflecție”. Cu toate acestea, ambele concepte nu acordă suficientă atenție studiului realității evidente, care se manifestă prin faptul că informația în formele în care există astăzi este un produs al conștiinței umane , care ea însăși este un produs al formei celei mai înalte ( din formele cunoscute nouă) ale materiei.
Cu alte cuvinte, susținătorii ambelor concepte, ignorând omul, ignorând natura conștiinței umane, atribuie imediat informația (un produs al conștiinței) unei proprietăți a materiei și imediat o numesc „atribut al materiei”. Ca urmare a acestei erori, ambele concepte nu ne pot oferi o definiție strictă a informației ca concept, deoarece conceptele umane sunt pline de conținut ca urmare a comunicării unei persoane cu realitatea obiectivă, și nu ca urmare a operațiunii, deși sofisticate. , în exterior convingător, plauzibil în concluzii, cu alte concepte. Încercările de a prezenta informația ca categorie sunt, de asemenea, sortite eșecului. Este suficient să ținem cont de faptul că practica umană din ultimele decenii a schimbat atât de rapid formele și conținutul conceptelor, precum și ideile și atitudinile sale față de ceea ce se numește în mod obișnuit „informație” astăzi, încât natura, esența informațiilor și, în mod firesc, conținutul acestui concept (dacă se consideră totuși un concept) s-a schimbat semnificativ de-a lungul timpului [16] .
Informațiile pot fi împărțite în tipuri în funcție de diferite criterii:
Clasificarea se bazează pe cinci caracteristici generale:
În matematică, informația este o denumire generală a conceptelor fundamentale din informatică, teoria informației, cibernetică și, de asemenea, în statistica matematică, în care se concretizează și se formalizează o idee intuitivă generalizată a informației cu privire la orice mărime sau fenomen [17] .
Subiectul de studiu al informaticii îl reprezintă datele : metode de creare, stocare, prelucrare și transmitere a acestora [18] . Datele sunt informații într-o formă formalizată (în formă digitală), care face posibilă automatizarea colectării, stocării și procesării ulterioare a acestora într-un computer. Din acest punct de vedere, informația este un concept abstract, considerat fără a ține seama de aspectul său semantic, iar cantitatea de informații este de obicei înțeleasă ca cantitatea corespunzătoare de date . Cu toate acestea, aceleași date pot fi codificate în moduri diferite și au volume diferite, prin urmare, uneori este luat în considerare și conceptul de „valoare a informațiilor”, care este asociat cu conceptul de entropie informațională și este subiectul de studiu al teoriei informației .
Teoria informației ( teoria comunicării matematice ) - studiază procesele de stocare, transformare și transmitere a informațiilor. Se bazează pe metode științifice de măsurare a cantității de informații [19] . Teoria informației dezvoltată din nevoile teoriei comunicării. Sunt considerate fundamentale „Transmission of Information [20] ” de Ralph Hartley publicată în 1928 și „Works on Information Theory and Cybernetics [21] ” de Claude Shannon publicate în 1948. Teoria informației studiază limitele sistemelor de transmisie a datelor , precum și principiile de bază ale proiectării și implementării lor tehnice [22] .
Teoria informației este asociată cu ingineria radio ( teoria procesării semnalului ) și informatica , legată de măsurarea cantității de informații transmise, proprietățile acesteia și stabilirea de relații limitative pentru sisteme. Principalele ramuri ale teoriei informației sunt codarea sursă (codificare compresivă ) și codarea canalului (imunitară la zgomot). Informația nu se numără printre subiectele de studiu ale matematicii. Cu toate acestea, cuvântul „informație” este folosit în termeni matematici - informații proprii și informații reciproce , legate de partea abstractă (matematică) a teoriei informațiilor. Cu toate acestea, în teoria matematică, conceptul de „informație” este asociat cu obiecte exclusiv abstracte - variabile aleatoare, în timp ce în teoria informației modernă acest concept este considerat mult mai larg - ca o proprietate a obiectelor materiale. .
Legătura dintre acești doi termeni identici este de netăgăduit. A fost aparatul matematic al numerelor aleatoare care a fost folosit de autorul teoriei informației Claude Shannon. El însuși înțelege prin termenul „informație” ceva fundamental ( ireductibil ). Teoria lui Shannon presupune intuitiv că informația are conținut. Informația reduce incertitudinea generală și entropia informațională . Cantitatea de informații disponibile pentru măsurare. Cu toate acestea, el avertizează cercetătorii împotriva transferului mecanic de concepte din teoria sa în alte domenii ale științei. .
Fondatorul ciberneticii , Norbert Wiener , a dat următoarea definiție a informației: „Informația este o desemnare a conținutului primit de noi din lumea exterioară în procesul de adaptare a noastră și a sentimentelor noastre la aceasta” [5] .
Cibernetica consideră mașinile și organismele vii ca sisteme care percep, acumulează și transmit informații, precum și o procesează în semnale care le determină propria activitate [17] .
Un sistem material în cibernetică este considerat ca un set de obiecte care ele însele se pot afla în stări diferite, dar starea fiecăruia dintre ele este determinată de stările altor obiecte din sistem. În natură, setul de stări ale sistemului este informație, stările în sine sunt codul primar sau codul sursă . Astfel, fiecare sistem material este o sursă de informaţie.
Cibernetica definește informația subiectivă (semantică) ca semnificația sau conținutul unui mesaj. Informația este o caracteristică a unui obiect.
Ca ramură a matematicii, teoria algoritmică a informației a fost creată de A. N. Kolmogorov [23] . Două articole fundamentale despre ea au fost publicate în revista Information Transmission Problems în 1965 și 1969 [24] [25] [26] . Conceptul central în această teorie este conceptul de complexitate algoritmică (numită și Kolmogorov) a unui obiect informațional, adică un mod algoritmic de a-l descrie (formare); această complexitate este definită ca lungimea minimă a algoritmului care generează un astfel de obiect. Teorema lui Kolmogorov stabilește că printre algoritmii care formează un obiect informațional există și optimi, deși astfel de algoritmi nu sunt singurii și diferă pentru diferite moduri de reprezentare a algoritmilor, cu toate acestea, pentru două moduri optime date, lungimea (complexitatea) lor diferă prin nu mai mult decât o constantă aditivă. Sarcina de a calcula complexitatea algoritmică a unui obiect este de nerezolvat din punct de vedere algoritmic .
Semiotica este un complex de teorii științifice care studiază proprietățile sistemelor de semne . Cele mai semnificative rezultate au fost obţinute în ramura semiotică - semantică . Subiectul cercetării în semantică îl reprezintă semnificația unităților de limbaj, adică informația transmisă prin limbaj.
Un sistem de semne este un sistem de obiecte concrete sau abstracte (semne, cuvinte), cu fiecare dintre acestea o anumită valoare asociată într-un anumit fel. În teorie, se dovedește că pot exista două astfel de comparații. Primul tip de corespondență definește direct obiectul material care denotă acest cuvânt și se numește denotație (sau, în unele lucrări, nominalizare). Al doilea tip de corespondență determină semnificația semnului (cuvântului) și se numește concept. În același timp, sunt studiate proprietăți ale comparațiilor precum „sens”, „adevăr”, „definibilitate”, „urmărire”, „interpretare” etc.. Pentru cercetare se utilizează aparatul logicii matematice și al lingvisticii matematice.
Ideile de semantică , conturate de G. W. Leibniz și F. de Saussure în secolul al XIX-lea, au fost formulate și dezvoltate de .Ch
Principala realizare a teoriei este crearea unui aparat de analiză semantică care permite reprezentarea sensului unui text într-un limbaj natural ca înregistrare într-un limbaj semantic (semantic) formalizat.
Analiza semantică stă la baza creării dispozitivelor (programelor) pentru traducerea automată dintr-o limbă naturală în alta.
Orice informație, mesaje, date, indiferent de designul lor, sunt informații – un obiect tangibil sau intangibil implicat în orice relație. Dezvoltarea posibilităților tehnologice de prelucrare și transmitere a informațiilor a evidențiat-o ca subiect independent de producție, relații manageriale, ideologice și personale. Informația a devenit o marfă, un produs, un obiect de muncă și un obiect de servicii. În sistemul raporturilor juridice, este considerată de legea informației . Unele acte juridice internaționale și legislația unui număr de țări (inclusiv Rusia) proclamă dreptul omului de a căuta, primi, transfera, produce și distribui liber informații în orice mod care nu încalcă legile [3] .
Teoria informației cuantice are în vedere modelele generale de transmitere, stocare și transformare a informațiilor în sisteme care se modifică conform legilor mecanicii cuantice [27] .
De obicei[ unde? ] informațiile sunt notate printr-o litera i mică într-un cerc
Simbol | Unicode | Nume |
---|---|---|
ℹ | U+2139 | sursa de informatie |
ⓘ | U+24D8 | rotundă literă latină mică i |
Deși poate fi indicat și printr -un semn de întrebare într-un cerc ( )
Dezinformarea (de asemenea, dezinformarea) este una dintre modalitățile de manipulare a informațiilor, cum ar fi inducerea în eroare pe cineva prin furnizarea de informații incomplete sau informații complete, dar care nu mai sunt necesare, sau complete, dar nu în zona potrivită, denaturarea contextului, denaturarea unei părți din informatia.
Scopul unui astfel de impact este întotdeauna același - adversarul trebuie să acționeze așa cum are nevoie manipulatorul. Actul obiectului împotriva căruia se îndreaptă dezinformarea poate consta în luarea deciziei necesare manipulatorului sau în refuzul de a lua o decizie care este defavorabilă manipulatorului. Dar, în orice caz, scopul final este acțiunea care trebuie întreprinsă.
Dicționare și enciclopedii | |
---|---|
În cataloagele bibliografice |
|