Expansiunea gazului neural este un algoritm care permite gruparea adaptivă a datelor de intrare, adică nu numai să împartă spațiul în grupuri, ci și să determine numărul necesar al acestora pe baza caracteristicilor datelor în sine. Un gaz neural în expansiune nu necesită informații a priori despre date, cum ar fi o estimare a numărului de clustere sau a formei clusterelor.” [1] Aceasta este o nouă clasă de mecanisme de calcul. Numărul și locația neuronilor artificiali în spațiul caracteristic nu este predeterminat, ci este rezultatul unui calcul în procesul de antrenament a modelelor pe baza datelor introduse la intrare [2] . În acest model, vecinătatea nodurilor nu este fixă, ci se schimbă dinamic pe măsură ce gruparea se îmbunătățește. Variabilele nu sunt doar relații de vecinătate, ci și numărul de neuroni cluster.
Există tehnici care sunt capabile să selecteze cele mai asemănătoare obiecte din spațiu și să formeze grupuri din ele. În timpul analizei, setul de obiecte este organizat în subseturi în funcție de similitudinea măsurată. De obicei, metodele se bazează pe o schemă standard: optimizarea relației dintre aranjarea spațială a vectorilor și un set de obiecte, astfel încât fiecare vector determină structura clusterelor . Cu toate acestea, cele mai multe tehnici au două dezavantaje semnificative: analiza depinde de un număr dat de clustere, iar împărțirea în clustere este localizată în timp. Toate metodele moderne de clustering erau statice și nu puteau adapta rezultatele, dacă la date erau adăugate date noi, era necesară reexecutarea algoritmului.
Implementarea algoritmului începe cu doi neuroni. Apoi are loc o schimbare secvențială (de obicei în direcția creșterii) a numărului lor, în același timp, se creează conexiuni între neuroni care corespund cel mai bine distribuției vectorilor de intrare. Fiecărui neuron i se atribuie o variabilă internă care acumulează o „eroare locală”. Conexiunile dintre noduri sunt descrise de o variabilă numită „vârstă” [3] .
Dacă în această etapă nodurile sunt deplasate către vectorul de intrare, atunci câștigătorul tinde să „medieze” poziția sa față de semnalele de intrare situate în vecinătatea sa. În acest caz, cel mai bun neuron „trage” ușor neuronii vecini în direcția semnalului.
Cercetatorul poate seta el însuși forma structurii cluster, indiferent dacă gruparea va fi efectuată pentru o hipersferă , un hipertub sau un hiperplan . Dacă nu are aceste cunoștințe, atunci datorită valorii propriei matrice de covarianță , puteți determina forma necesară. Dacă structura are cel puțin o valoare proprie mai mică decât pragul ales de utilizator, atunci modelul va fi hiperliniar, în caz contrar structura trebuie considerată ca o varietate neliniară. Testele ulterioare vor arăta dacă modelul are formă de sferă sau tub. Testul pentru sfericitate depinde de îndeplinirea inegalității np/na>ψ, unde np este numărul de vectori din interiorul clusterului, care se găsește folosind teorema Jordan Brauer [4] , iar ap este aria suprafeței cluster, iar ψ este un prag specificat de utilizator. Dacă această inegalitate ia forma np/na<ψ, atunci forma clusterului va fi un „hipertub”. [3]
Pentru un cluster sub forma unui hipertub, se calculează o măsură a distanței radiale:
unde Aj este o matrice pozitivă, definită, calculată pentru a ține cont de excentricitatea și orientarea hipertubului [5] . Valoarea lui Aj pentru această ecuație este găsită folosind hiperlipsoidul Lowner folosind algoritmul Khachiyan [6] .
Pentru a determina distanțele într-un hiperplan, utilizați următoarea formulă:
unde Aj este o matrice de greutate simetrică definită arbitrar pozitivă. Și bj, k este estimat prin găsirea vectorilor proprii ai nodurilor neuronale ale modelului.
Pentru a determina distanța în hipersferă, trebuie să utilizați formula:
unde wi este fie valoarea medie a vectorilor conținuți în plan.
În spațiul 3D, datele sunt foarte ușor de vizualizat. [3] Îl puteți vedea în imagine.
Cu toate acestea, dacă spațiul nostru este mai mare decât tridimensional, atunci vizualizarea datelor este dificilă. Pentru a rezolva această problemă se utilizează o tehnică bazată pe TVA [7] . Esența construcției este că se găsește arborele de întindere minim al modelului. După finalizarea procesului de sortare, structura clusterului poate fi analizată prin pătrate lângă diagonală. În primul rând, în fiecare grafic izolat sunt calculați neuroni diferiți normalizați, perechi. Diferiții neuroni sunt apoi rearanjați pentru a crea cea mai densă distribuție intracluster. Apoi fiecare grup este vopsit în propria sa culoare și plasat de-a lungul diagonalei principale. Relațiile intracluster sunt de asemenea incluse în diagramă, distanța maximă dintre două clustere este indicată cu alb, iar cu negru distanța cea mai mică. Volumul clusterului poate fi adăugat ca o altă dimensiune, aceasta este înălțimea pătratelor.
Acest exemplu este oferit pentru a demonstra modul în care sistemul se adaptează atunci când sunt introduse date noi. Baza de date constă din 1050 de obiecte punct. La început, au fost efectuate 5000 de iterații și 75% din informații au intrat în algoritm. După ce o mică parte din 756 de puncte de date au fost introduse în sistem, vectorii neuronali au început să se adapteze pentru a forma distribuția prezentată în figura de mai jos.
După aceea, au fost lansati alți 150 de vectori noi. Acest lucru a condus la formarea unei noi clase sferice, indicată în figura de mai jos:
În ciuda proximității spațiale a clusterelor verzi și magenta, algoritmul a observat o creștere a clusterelor și s-a adaptat la aceste schimbări. În acest caz, restul de 120 de obiecte au fost amestecate în mod repetat între clusterele verzi și magenta. Algoritmul a distribuit ulterior datele între cele două clustere și a păstrat numărul inițial de clustere.
Tipuri de rețele neuronale artificiale | |
---|---|
|
Învățare automată și extragerea datelor | |
---|---|
Sarcini | |
Învățarea cu un profesor | |
analiza grupului | |
Reducerea dimensionalității | |
Prognoza structurală | |
Detectarea anomaliilor | |
Modele grafice probabilistice | |
Rețele neuronale | |
Consolidarea învățării |
|
Teorie | |
Reviste și conferințe |
|