Mașina Boltzmann restricționată ( eng. mașină Boltzmann restricționată ), abreviată ca RBM , este un tip de rețea neuronală stocastică generativă care determină distribuția probabilității pe eșantioanele de date de intrare.
Prima mașină Boltzmann limitată a fost construită în 1986 de Paul Smolensky sub numele Harmonium [1] , dar a câștigat popularitate abia după invenția de către Hinton a algoritmilor de învățare rapidă la mijlocul anilor 2000.
Mașina a căpătat acest nume ca o modificare a mașinii obișnuite Boltzmann , în care neuronii erau împărțiți în vizibili și ascunși, iar conexiunile sunt permise doar între neuroni de diferite tipuri, limitând astfel conexiunile. Mult mai târziu, în anii 2000, mașinile Boltzmann limitate au câștigat mai multă popularitate și nu mai erau considerate variații ale mașinii Boltzmann, ci componente speciale în arhitectura rețelelor de învățare profundă . Combinarea mai multor cascade de mașini Boltzmann mărginite formează o rețea de credință profundă , un tip special de rețele neuronale multistrat care se pot auto-învăța fără un profesor folosind algoritmul de backpropagation [2] .
O caracteristică a mașinilor Boltzmann limitate este capacitatea de a fi instruiți fără un profesor , dar în anumite aplicații, mașinile Boltzmann limitate sunt instruite cu un profesor. Stratul ascuns al mașinii este caracteristicile profunde ale datelor care sunt dezvăluite în timpul procesului de învățare (vezi și Exploatarea datelor ).
Mașinile Boltzmann limitate au o gamă largă de aplicații - acestea sunt problemele de reducere a dimensionalității datelor [ 3 ] , problemele de clasificare [4] , filtrarea colaborativă [5] , învățarea caracteristicilor [ 6] și modelarea subiectelor [7] .
Într-o mașină Boltzmann restricționată , neuronii formează un grafic bipartit , pe o parte a graficului sunt neuroni vizibili (intrare), iar pe de altă parte, cei ascunși și sunt stabilite legături încrucișate între fiecare neuron vizibil și fiecare ascuns. Un astfel de sistem de conexiuni face posibilă aplicarea metodei de coborâre a gradientului cu divergență contrastivă la antrenamentul rețelei [8] .
Mașina Boltzmann restricționată se bazează pe elemente binare cu o distribuție Bernoulli care alcătuiesc straturile vizibile și ascunse ale rețelei. Legăturile dintre straturi sunt specificate folosind o matrice de greutăți (dimensiunea m × n ), precum și decalaje pentru stratul vizibil și pentru stratul ascuns.
Conceptul de energie de rețea ( v , h ) este introdus ca
sau sub formă de matrice
Rețeaua Hopfield are, de asemenea, o funcție energetică similară . Ca și în cazul mașinii obișnuite Boltzmann , probabilitatea de distribuție pe vectorii straturilor vizibile și ascunse este determinată prin energie [9] :
unde este funcția de partiție definită ca pentru toate rețelele posibile (cu alte cuvinte, este o constantă de normalizare care garantează că suma tuturor probabilităților este egală cu unu). Determinarea probabilității pentru un vector de intrare separat (distribuție marginală) se realizează în mod similar prin suma configurațiilor tuturor straturilor ascunse posibile [9] :
Datorită structurii rețelei ca graf bipartit, elementele individuale ale stratului ascuns sunt independente unele de altele și activează stratul vizibil și invers, elementele individuale ale stratului vizibil sunt independente unele de altele și activează stratul ascuns. stratul [8] . Pentru elementele vizibile și pentru elementele ascunse, probabilitățile condiționate v sunt determinate prin produsele probabilităților h :
și invers, probabilitățile condiționate h sunt definite în funcție de produsul probabilităților v :
Probabilitățile de activare specifice pentru un element sunt definite ca
șiunde este funcția logistică pentru activarea stratului.
Straturile vizibile pot avea și o distribuție multinomială , în timp ce straturile ascunse au o distribuție Bernoulli . În cazul multinomialității, softmax este utilizat în locul funcției logistice :
unde K este numărul de valori discrete ale elementelor vizibile. Această reprezentare este utilizată în probleme de modelare a subiectelor [7] și în sistemele de recomandare [5] .
Mașina Boltzmann restricționată este un caz special al mașinii Boltzmann obișnuite și al rețelei Markov [10] [11] . Modelul lor grafic corespunde modelului grafic al analizei factoriale [12] .
Scopul învățării este de a maximiza probabilitatea unui sistem cu un set dat de eșantioane (o matrice în care fiecare rând corespunde unui eșantion al vectorului vizibil ), definit ca produsul probabilităților
sau, ceea ce este același, maximizarea logaritmului produsului: [10] [11]
Pentru a antrena rețeaua neuronală, algoritmul de divergență contrastiva (CD) este utilizat pentru a găsi ponderile optime ale matricei , a fost propus de Geoffrey Hinton , inițial pentru antrenarea modelelor PoE (“produsul estimărilor expertului”) [13] [14] . Algoritmul folosește eșantionarea Gibbs pentru a organiza o procedură de coborâre a gradientului , similară cu metoda de backpropagation pentru rețelele neuronale.
În general, un pas al divergenței contrastive (CD-1) arată astfel:
Îndrumări practice privind implementarea procesului de învățare pot fi găsite pe pagina personală a lui Jeffrey Hinton [9] .
Tipuri de rețele neuronale artificiale | |
---|---|
|
Învățare automată și extragerea datelor | |
---|---|
Sarcini | |
Învățarea cu un profesor | |
analiza grupului | |
Reducerea dimensionalității | |
Prognoza structurală | |
Detectarea anomaliilor | |
Modele grafice probabilistice | |
Rețele neuronale | |
Consolidarea învățării |
|
Teorie | |
Reviste și conferințe |
|