Complexitatea informației-fluctuație este o valoare teoretică a informațiilor definită ca fluctuația informației în raport cu entropia informației . Este derivat din fluctuațiile prevalenței ordinii și haosului într-un sistem dinamic și este utilizat în diferite domenii de cunoaștere pentru a măsura complexitatea . Teoria a fost prezentată în lucrarea lui Bates și Shepard în 1993 [1] .
Complexitatea informației-fluctuație a unui sistem dinamic discret este o funcție a distribuției de probabilitate a stărilor acestui sistem supus intrărilor aleatorii de date. Scopul controlului unui sistem cu o sursă bogată de informații, cum ar fi un generator de numere aleatoare sau un semnal de zgomot alb , este de a explora dinamica internă a sistemului în același mod în care este utilizat un impuls bogat în frecvență în procesarea semnalului .
Dacă sistemul are stări posibile și probabilitățile stărilor sunt cunoscute, atunci entropia sa informațională este egală cu
unde se află informaţia de stat propriu .
Complexitatea informației-fluctuație a unui sistem este definită ca abaterea standard sau fluctuația de la valoarea sa medie :
sau
Fluctuația informațiilor de stare este zero într-un sistem maxim dezordonat cu toate ; sistemul simulează pur și simplu intrări aleatorii de date. este de asemenea zero atunci când sistemul este perfect ordonat și are o singură stare fixă , indiferent de intrări. este diferit de zero între aceste două extreme atunci când atât stările cu probabilitate mare, cât și stările cu probabilitate scăzută sunt posibile umplerea spațiului de stări.
Pe măsură ce un sistem dinamic complex se dezvoltă în timp, acesta trece de la o stare la alta. Modul în care apar aceste tranziții depinde de stimulii externi într-o manieră neregulată. În unele cazuri, sistemul poate fi mai sensibil la stimuli externi (instabil), în timp ce în altele poate fi mai puțin sensibil (stabil). Dacă o anumită stare are mai multe stări posibile următoare, informațiile externe determină care va fi următoarea, iar sistemul obține această informație urmând o anumită traiectorie în spațiul stărilor. Dar dacă mai multe stări diferite duc la aceeași stare următoare, atunci când intră în ea, sistemul pierde informații despre starea care a precedat-o. Astfel, pe măsură ce evoluează în timp, un sistem complex prezintă câștiguri și pierderi alternative de informații. Alternanțele sau fluctuațiile informațiilor echivalează cu amintirea și uitarea - stocarea temporară a informațiilor sau a memoriei - aceasta este o caracteristică esențială a calculelor non-triviale.
Câștigul sau pierderea de informații care însoțește tranzițiile de stat pot fi asociate cu propriile informații de stare. Câștigul net de informații în timpul trecerii de la stare la stare este informația obținută la ieșirea din stare minus pierderea de informații la intrarea în stare :
Iată probabilitatea condițională directă ca dacă starea curentă este , atunci starea următoare va fi și este probabilitatea condiționată inversă ca dacă starea curentă este , atunci starea anterioară a fost . Probabilitățile condiționate sunt legate de probabilitatea de tranziție , probabilitatea ca o tranziție de la stare la stare să se producă , prin:
Eliminând probabilitățile condiționate, obținem:
Prin urmare, informația netă obținută de sistem ca urmare a tranziției depinde doar de creșterea informațiilor de stare de la starea inițială la starea finală. Se poate demonstra că acest lucru este adevărat chiar și pentru mai multe tranziții consecutive [1] .
Formula seamănă cu relația dintre forță și energia potențială . este similară cu energia potențială și este forța din formulă . Informația externă „împinge” sistemul „în sus”, la o stare cu un potențial de informare mai mare pentru conservarea memoriei, la fel cum împingerea unui corp cu o anumită masă în sus, la o stare cu un potențial gravitațional mai mare, duce la acumularea de energie. Cantitatea de energie stocată depinde doar de înălțimea finală și nu de drumul în sus. De asemenea, cantitatea de informații stocate este independentă de calea de tranziție între două stări. Odată ce un sistem atinge o stare rară de potențial informațional ridicat, poate „cădea” înapoi la o stare normală, pierzând informațiile stocate anterior.
Poate fi util să se calculeze abaterea standard de la media ei (care este zero), și anume fluctuația câștigului net de informații [1] , dar ia în considerare ciclurile memoriei cu mai multe tranziții în spațiul de stare și, prin urmare, ar trebui să fie mai precisă. indicator al puterii de procesare a sistemului. În plus, este mai ușor de calculat, deoarece pot exista mult mai multe tranziții decât stări.
Un sistem dinamic care este sensibil la informațiile externe (instabil) prezintă un comportament haotic , în timp ce un sistem care este insensibil la informațiile externe (stabil) prezintă un comportament ordonat. Sub influența unei surse bogate de informații, un sistem complex prezintă ambele comportamente, oscilând între ele într-un echilibru dinamic. Gradul de fluctuație se măsoară cantitativ cu ; surprinde alternanța predominanței haosului și ordinii într-un sistem complex pe măsură ce se dezvoltă în timp.
Este dovedit că o variantă a automatului celular elementar conform regulii 110 este capabilă de calcule universale . Dovada se bazează pe existența și interacțiunea unor configurații celulare conectate și auto-conservabile cunoscute sub denumirea de „planare” sau „ nave spațiale ”, fenomenul apariției , care implică capacitatea grupurilor de celule automate de a-și aminti că un planor trece prin ele. Prin urmare, este de așteptat ca buclele de memorie să apară în spațiul de stare, ca urmare a alternanței câștigului și pierderii de informații, instabilității și stabilității, haosului și ordinii.
Luați în considerare un grup de trei celule adiacente ale unui automat celular care respectă regula 110:capăt-centru-capăt. Următoarea stare a celulei centrale depinde de starea sa curentă și de celulele frunzelor, așa cum se specifică în regulă:
grup de 3 celule | 1-1-1 | 1-1-0 | 1-0-1 | 1-0-0 | 0-1-1 | 0-1-0 | 0-0-1 | 0-0-0 |
---|---|---|---|---|---|---|---|---|
următoarea celulă centrală | 0 | unu | unu | 0 | unu | unu | unu | 0 |
Pentru a calcula complexitatea fluctuației informațiilor din acest sistem, se va atașa o celulă driver la fiecare capăt al unui grup de 3 celule pentru a furniza un stimul extern aleatoriu, de ex.driver→end-center-end←driver, astfel încât regula să poată fi aplicată celor două celule de capăt. Apoi trebuie să determine care este următoarea stare pentru fiecare stare curentă posibilă și pentru fiecare combinație posibilă de conținut de celule driver pentru a calcula probabilitățile condiționate directe.
Diagrama de stare a acestui sistem este prezentată mai jos. În ea, cercurile reprezintă stări, iar săgețile reprezintă tranziții între stări. Cele opt stări ale acestui sistem, de la1-1-1inainte de0-0-0sunt numerotate cu echivalente zecimale ale conținutului de 3 biți al unui grup de 3 celule: de la 7 la 0. Lângă săgețile de tranziție, sunt afișate valorile probabilităților condiționale directe. Schema arată variabilitatea divergenței și convergenței săgeților, care corespunde variabilității haosului și ordinii, sensibilității și insensibilității, achiziției și pierderii de informații externe din celulele driver.
Probabilitățile condiționale directe sunt determinate de proporția conținutului posibil al celulei driver care guvernează o anumită tranziție. De exemplu, pentru patru combinații posibile ale conținutului a două celule driver, starea 7 duce la stările 5, 4, 1 și 0, deci , , și sunt 1/4 sau 25%. De asemenea, starea 0 duce la stările 0, 1, 0 și 1, deci 1/2, sau 50% , corespunde. Si asa mai departe.
Probabilitățile de stare sunt legate prin formula
șiAceste ecuații algebrice liniare pot fi rezolvate manual sau cu un program de calculator pentru probabilități de stare, cu următoarele rezultate:
p0 _ | p1 _ | p2 _ | p 3 | p4 _ | p5 _ | p6 _ | p 7 |
2/17 | 2/17 | 1/34 | 5/34 | 2/17 | 2/17 | 2/17 | 4/17 |
Entropia și complexitatea informațiilor pot fi calculate din probabilitățile de stare:
băţ, pic.Trebuie remarcat faptul că entropia maximă posibilă pentru opt stări este egală cu un bit, ceea ce corespunde cazului în care toate cele opt stări sunt la fel de probabile, cu probabilități 1/8 (haotice). Prin urmare, regula 110 are o entropie relativ mare sau o utilizare a stării de 2,86 biți. Totuși, acest lucru nu exclude o fluctuație semnificativă a informațiilor de stare în raport cu entropia și, în consecință, o cantitate mare de complexitate. În timp ce entropia maximă ar exclude complexitatea.
O metodă alternativă poate fi utilizată pentru a obține probabilități de stare atunci când metoda analitică descrisă mai sus nu este fezabilă. Constă în conducerea sistemului prin intrările sale (celule driver) cu o sursă aleatorie timp de mai multe generații și observarea empiric a probabilităților de stare. Când se termină cu simulări pe computer pentru 10 milioane de generații, rezultatele sunt următoarele: [2]
numărul de celule | 3 | patru | 5 | 6 | 7 | opt | 9 | zece | unsprezece | 12 | 13 |
---|---|---|---|---|---|---|---|---|---|---|---|
(pic) | 2,86 | 3,81 | 4,73 | 5,66 | 6,56 | 7.47 | 8.34 | 9.25 | 10.09 | 10.97 | 11.78 |
(pic) | 0,56 | 0,65 | 0,72 | 0,73 | 0,79 | 0,81 | 0,89 | 0,90 | 1.00 | 1.01 | 1.15 |
0,20 | 0,17 | 0,15 | 0,13 | 0,12 | 0,11 | 0,11 | 0,10 | 0,10 | 0,09 | 0,10 |
Întrucât ambii parametri, și , cresc odată cu dimensiunea sistemului, pentru o mai bună comparare a sistemelor de dimensiuni diferite, se propune o relație adimensională , complexitate relativă Informație-fluctuație. Rețineți că rezultatele empirice și analitice sunt consistente pentru un automat cu 3 celule.
În lucrarea lui Bates și Shepard [1] , se calculează pentru toate regulile automatelor celulare elementare și s-a observat că cele care prezintă „planoare” cu mișcare lentă și eventual obiecte staționare, de exemplu, regula 110, sunt strâns asociate. cu valori mari de . Prin urmare, poate fi folosit ca filtru atunci când alegeți reguli capabile de calcul universal, ceea ce este obositor de demonstrat.
Deși derivarea formulei de complexitate a fluctuației informației se bazează pe fluctuațiile informațiilor într-un sistem dinamic, formula în sine depinde doar de probabilitățile de stare și, prin urmare, poate fi aplicată și oricărei distribuții de probabilitate, inclusiv celor derivate din imagini sau text statice.
De-a lungul anilor, lucrarea originală [1] a fost menționată de cercetători din multe domenii diferite: teoria complexității [3] , știința sistemelor complexe [4] , dinamica haotică [5] , ingineria mediului [6] , complexitatea ecologică [7] , analiza serii temporale ecologice [8] , reziliența ecosistemului [9] , poluarea aerului [10] și a apei [11] , analiza waveletelor hidrologice [12] , modelarea debitelor de apă în sol [13] , umiditatea solului [14] , bazin hidrografic scurgere [15] , adâncimea apei subterane [16] , controlul traficului aerian [17] , modelul de curgere [18] , topologia [19] , prognoza pieței de prețuri pentru metale [20] și electricitate [21] , informatica sanitară [22] , cogniția umană [23] , cinematica mersului uman [24] neurologie [25] Analiza EEG [26] analiza vorbirii [27] educație [28] investiție [29] estetică [30] .