Invatare profunda

Versiunea actuală a paginii nu a fost încă examinată de colaboratori experimentați și poate diferi semnificativ de versiunea revizuită la 5 iunie 2022; verificările necesită 7 modificări .

Învățare profundă ( învățare profundă ; ing.  Învățare profundă ) - un set de metode de învățare automată ( cu un profesor , cu implicare parțială a unui profesor , fără profesor , cu întărire ) bazate pe reprezentări ale învățării (învățare caracteristică/reprezentare ing.  ), și nu algoritmi specializați în sarcini specifice. Multe metode de învățare profundă erau cunoscute încă din anii 1980 (și chiar mai devreme [1] ), dar rezultatele nu au fost impresionante [2], în timp ce progresele în teoria rețelelor neuronale artificiale (pre-antrenarea rețelelor neuronale folosind un caz special al unui model grafic nedirecțional, așa-numita mașină Boltzmann limitată ) și puterea de calcul de la mijlocul anilor 2000 (inclusiv utilizarea acceleratoarelor grafice ). , matrice de porți programabile de utilizator și diverse forme de procesoare neuronale ) nu au permis crearea de arhitecturi tehnologice complexe ale rețelelor neuronale care să aibă performanțe suficiente și să permită rezolvarea unei game largi de probleme care nu puteau fi rezolvate efectiv înainte, de exemplu, pe calculator . viziunea , traducerea automată , recunoașterea vorbirii și calitatea soluției sunt acum comparabile în multe cazuri, iar în unele depășesc eficiența umană [3] .

Istorie

În ciuda faptului că termenul „ învățare profundă ” a apărut în comunitatea științifică a învățării automate abia în 1986, după lucrările lui Rina Dekhter [4] , primul algoritm de lucru general pentru perceptronii multistrat cu feed-forward profund a fost publicat în cartea sovieticului. oamenii de știință Alexei Grigorievich Ivakhnenko și Valentin Grigorievich Lapa „Dispozitive predictive cibernetice”, încă din 1965 [5]

Alte arhitecturi profunde, în special cele specializate în recunoașterea modelelor , își au originea în neocognitronul dezvoltat de Kunihiko Fukushima.în 1980. În 1989, Jan LeCun a reușit să folosească algoritmul de backpropagation pentru a antrena rețele neuronale profunde pentru a rezolva problema recunoașterii codurilor poștale scrise de mână [6] . În ciuda experienței de succes, a fost nevoie de trei zile pentru a antrena modelul, ceea ce a limitat semnificativ aplicabilitatea acestei metode. Rata scăzută de învățare este asociată cu mulți factori, inclusiv problema gradienților de dispariție din cauza răspândirii mari a valorilor parametrilor antrenabili, care a fost analizată în 1991 de Jörgen Schmidhuber și Sepp Hochreiter. Din cauza acestor probleme, rețelele neuronale au făcut loc pentru a sprijini mașinile vectoriale în anii 1990 .

Până în 1991, astfel de sisteme au fost folosite pentru a recunoaște cifre izolate scrise de mână 2D, iar recunoașterea obiectelor 3D a fost realizată prin potrivirea imaginilor 2D cu un model de obiect 3D realizat manual. În 1992, a fost creat un model de cresceptron [7] [8] [9] pentru recunoașterea obiectelor tridimensionale în scene aglomerate.

În 1994, André de Carvalho, împreună cu Mike Fairhurst și David Bisset, au publicat rezultatele experimentale ale unei rețele neuronale booleene cu mai multe straturi, cunoscută și ca o rețea neuronală fără greutate, constând dintr-un modul de rețea neuronală auto-organizată cu trei straturi pentru extragerea caracteristicilor ( SOFT) și apoi o clasificare a modulelor de rețea neuronală stratificată (GSN). Fiecare modul a fost supus unei instruiri independente. Fiecare strat din modul a preluat obiecte cu o complexitate crescândă în raport cu stratul anterior. [zece]

În 1995, Brendan Frey a demonstrat că este posibil să se antreneze (în două zile) o rețea care conține șase straturi complet conectate și câteva sute de unități ascunse folosind un algoritm somn-veghe dezvoltat cu Peter Dayan și Hinton [11] . Mulți factori contribuie la viteza scăzută, inclusiv problema gradientului de dispariție analizată în 1991 de Sepp Hochreiter [12] [13] .

Modelele mai simple care utilizează lucru manual specific sarcinii, cum ar fi filtrele Gabor și mașinile vectoriale suport (SVM), au fost alegeri populare în anii 1990 și 2000 din cauza costului de calcul al rețelelor neuronale artificiale (ANN) și a lipsei de înțelegerea modului în care creierul își leagă rețelele biologice.

Atât învățarea de suprafață, cât și cea profundă (de exemplu, rețele recurente) ANN-urile au fost studiate de mulți ani [14] [15] [16] . Aceste metode nu au depășit niciodată modelele eterogene mixte Gaussian și Markov ascunse bazate pe modele de vorbire generativă antrenate discriminator [17] . Au fost analizate dificultăți cheie, inclusiv reducerea gradientului [12] și structura de corelație temporală slabă în modelele predictive neuronale [18] [19] . Dificultăți suplimentare au fost lipsa datelor de antrenament și puterea de calcul limitată.

Învățarea profundă a câștigat popularitate la mijlocul anilor 2000, când totul s-a reunit: computerele au devenit suficient de puternice pentru a antrena rețele neuronale mari (au învățat să delege calculele către GPU -uri , ceea ce a accelerat procesul de învățare cu un ordin de mărime), seturile de date au devenit suficient de mari pentru antrena rețele mari a avut sens, iar un alt progres a avut loc în teoria rețelelor neuronale artificiale - articole de Hinton , Osinderero și Tae [20] , precum și Bengio [21] , în care autorii au arătat că este posibil să se preinstruiască eficient. o rețea neuronală multistrat dacă fiecare strat este antrenat separat la utilizarea unei mașini Boltzmann limitate și apoi reinstruire folosind metoda de backpropagation .

Revoluția învățării profunde

În 2012, o echipă condusă de George E. Dahl a câștigat Merck Molecular Activity Challenge folosind rețele neuronale profunde multitasking pentru a prezice ținta biomoleculară a unui singur medicament [22] . În 2014, grupul lui Hochreiter a folosit învățarea profundă pentru a identifica efectele nețintă și toxice ale substanțelor chimice de mediu în nutrienți, produse de uz casnic și medicamente și a câștigat „Tox21 Data Challenge” de la Institutul Național de Sănătate din SUA , Administrația pentru Alimente și Medicamente din SUA . calitatea alimentelor și medicamentelor și NCATS [23] .

O dezvoltare semnificativă în recunoașterea imaginilor sau a obiectelor a fost resimțită între 2011 și 2012. În timp ce rețelele neuronale convoluționale retropropagate (CNN) există de zeci de ani, iar GPU-urile implementează rețele neuronale de mulți ani, inclusiv CNN-uri, implementările rapide ale CNN-urilor pe GPU au fost folosite pentru a avansa vederea computerizată. În 2011, această abordare a atins performanțe supraomenești pentru prima dată într-o competiție de recunoaștere a modelelor vizuale. Tot în 2011 a câștigat concursul de scris de mână ICDAR, iar în mai 2012, concursul de segmentare a imaginii ISBI [24] . Până în 2011, CNN-urile nu au jucat un rol major la conferințele de viziune computerizată, dar în iunie 2012, o prezentare a lui Ciresan [25] la conferința emblematică CVPR a arătat cum integrarea maximă a CNN-urilor pe un GPU poate îmbunătăți semnificativ multe rezultate de referință. În octombrie 2012, un sistem similar a fost dezvoltat de Krizhevsky [26] , a cărui echipă a câștigat competiția la scară largă ImageNet cu o marjă semnificativă față de metodele de învățare automată de suprafață. În noiembrie 2012, echipa Ciresan a câștigat și concursul ICPR pentru analiză de imagini medicale mari pentru depistarea cancerului, iar în anul următor Marea Provocare MICCAI pe aceeași temă [27] . În 2013 și 2014, rata de eroare în sarcina ImageNet folosind învățarea profundă a fost redusă și mai mult datorită unei tendințe similare în recunoașterea vorbirii la scară largă. Steven Wolfram a publicat aceste îmbunătățiri ca parte a Proiectului de identificare a imaginii [28] .

Clasificarea imaginilor a fost apoi extinsă la sarcina mai complexă de a genera descrieri (legende) pentru imagini, adesea ca o combinație de CNN și LSTM [29] [30] [31] [32] .

Unii cercetători cred că victoria ImageNet din octombrie 2012 a marcat începutul unei „revoluții de învățare profundă” care a schimbat industria AI [33] .

În martie 2019, Yoshua Bengio , Geoffrey Hinton și Yann LeCun au primit Premiul Turing pentru descoperiri conceptuale și inginerești care au făcut din rețelele neuronale profunde o componentă critică a calculului.

Rețele neuronale

Rețelele neuronale artificiale (ANN)  sunt sisteme de calcul bazate pe principiile rețelelor neuronale biologice care alcătuiesc creierul animalului. Astfel de sisteme învață (își îmbunătățesc treptat abilitățile) să execute sarcini, de obicei fără a fi programate pentru a rezolva sarcini specifice. De exemplu, în recunoașterea imaginilor pisicilor, aceștia pot învăța să recunoască imaginile care conțin pisici analizând exemple de imagini care au fost etichetate manual „pisică” sau „fără pisică” și folosind rezultatele analizei pentru a identifica pisicile în alte imagini. ANN-urile și-au găsit cea mai mare utilizare în aplicațiile software care sunt dificil de exprimat cu un algoritm computerizat tradițional folosind programarea bazată pe reguli .

ANN-urile se bazează pe un set de unități conectate numite neuroni artificiali (similar cu neuronii biologici din creierul biologic). Fiecare conexiune (sinapsă) dintre neuroni poate transmite un semnal către alt neuron. Neuronul receptor (postsinaptic) poate procesa semnalul (semnalele) și apoi semnala neuronilor conectați la acesta. Neuronii pot avea o stare, reprezentată de obicei prin numere reale, de obicei între 0 și 1. Neuronii și sinapsele pot avea și greutăți care se modifică în timpul învățării, ceea ce poate crește sau scădea puterea semnalului pe care îl trimite.

De obicei, neuronii sunt organizați în straturi. Straturi diferite pot efectua diferite tipuri de transformări. Semnalele călătoresc de la primul strat (de intrare) la ultimul (de ieșire), eventual după ce au trecut prin straturi de mai multe ori.

Scopul inițial al abordării rețelei neuronale a fost de a rezolva probleme în același mod ca și creierul uman. De-a lungul timpului, atenția s-a concentrat pe selecția anumitor abilități intelectuale, ceea ce a dus la abateri de la biologie, precum retropropagarea, sau transmiterea de informații în sens invers și înființarea unei rețele care să reflecte aceste informații.

Rețelele neuronale sunt utilizate pentru o varietate de sarcini, inclusiv viziunea artificială, recunoașterea vorbirii, traducerea automată, filtrarea rețelelor sociale, jocurile video și diagnosticarea medicală.

Începând cu 2017, rețelele neuronale au de obicei câteva mii până la câteva milioane de unități și milioane de conexiuni. În ciuda faptului că acest număr este cu câteva ordine de mărime mai mic decât numărul de neuroni din creierul uman, aceste rețele pot îndeplini multe sarcini la un nivel care depășește capacitățile oamenilor (de exemplu, recunoașterea feței, jocul go ) [34] .

Rețele neuronale profunde

O rețea neuronală profundă (DNN, DNN - Deep neuronal network) este o rețea neuronală artificială (ANN) cu mai multe straturi între straturile de intrare și de ieșire [35] [36] . GNN găsește metoda corectă de transformare matematică pentru a transforma intrarea într-o ieșire, indiferent dacă corelația este liniară sau neliniară . Rețeaua se deplasează prin straturi, calculând probabilitatea fiecărei ieșiri. De exemplu, un DNN care este antrenat să recunoască rasele de câini va trece printr-o anumită imagine și va calcula probabilitatea ca un câine din imagine să aparțină unei anumite rase. Utilizatorul poate vizualiza rezultatele și selecta probabilitățile pe care rețeaua ar trebui să le afișeze (peste un anumit prag, de exemplu) și poate returna o etichetă sugerată rețelei. Fiecare transformare matematică este considerată un strat, iar GNN-urile complexe au multe straturi, de unde și denumirea de rețele „deep” sau „deep”.

GNN-urile pot modela relații neliniare complexe. Arhitecturile GNN generează modele compoziționale în care un obiect este exprimat ca o compoziție pe mai multe niveluri de primitive [37] . Straturile suplimentare permit elementelor să fie compuse de la niveluri inferioare, potențial modelând date complexe cu mai puține unități decât o rețea fină cu metrici similare [35] .

Arhitectura profundă include multe variații ale mai multor abordări de bază. Fiecare arhitectură a găsit succes în anumite domenii. Nu este întotdeauna posibilă compararea performanței mai multor arhitecturi decât dacă acestea au fost evaluate pe aceleași seturi de date.

GNN-urile sunt de obicei rețele feed-forward în care datele sunt transferate de la un strat de intrare la un strat de ieșire fără feedback. În primul rând, GNN creează o hartă a neuronilor virtuali și atribuie valori numerice aleatorii sau „greutăți” conexiunilor dintre ei. Greutățile și datele de intrare sunt multiplicate și returnează un semnal de ieșire de la 0 la 1. Dacă rețeaua nu recunoaște cu acuratețe un anumit model, algoritmul va ajusta ponderile până când va determina coeficienții care procesează corect datele. [38]

Definiții

Algoritmi de învățare automată

Învățarea profundă este caracterizată ca o clasă de algoritmi de învățare automată care [39] :

Toate definițiile indică

  1. prezența mai multor straturi de prelucrare neliniară
  2. învățarea supravegheată sau nesupravegheată a prezentat fiecare strat, formând o ierarhie de la niveluri scăzute la niveluri înalte [39] .

Compoziția straturilor neliniare specifice depinde de problema rezolvată. Sunt utilizate atât straturi ascunse ale rețelei neuronale, cât și straturi de transformări logice complexe [40] . Sistemul poate include variabile latente organizate în straturi în modele generative profunde, cum ar fi noduri într-o rețea profundă de încredere și o mașină Boltzmann profund restricționată .

Algoritmii de învățare profundă se opun algoritmilor de învățare superficială în ceea ce privește numărul de transformări parametrizate pe care le întâlnește semnalul pe măsură ce se propagă de la nivelul de intrare la cel de ieșire, unde o transformare parametrizată este considerată a fi o unitate de procesare a datelor care are parametri antrenabili, cum ar fi ca greutăți sau praguri [41] . Lanțul de transformări de la intrare la ieșire se numește CAP - prin transfer de responsabilitate ( calea de atribuire a creditelor în engleză  , CAP ). CAP-urile descriu relații cauzale potențiale de-a lungul rețelei de la intrare la ieșire, iar calea în diferite ramuri poate avea lungimi diferite. Pentru o rețea neuronală feedforward, adâncimea CAP nu diferă de adâncimea rețelei și este egală cu numărul de straturi ascunse plus unul (stratul de ieșire este, de asemenea, parametrizat). Pentru rețelele neuronale recurente , în care semnalul poate sări prin straturi ocolindu-le pe cele intermediare, CAP este potențial nelimitat în lungime datorită feedback-ului. Nu există un prag universal agreat pentru adâncimea de divizare a învățării superficiale din învățarea profundă, dar învățarea profundă este în general considerată a fi caracterizată de mai multe straturi neliniare (CAP > 2). Jorgen Schmidhuber subliniază, de asemenea, „învățarea foarte profundă” atunci când CAP > 10 [41] .

Cuprins

Învățarea profundă este un algoritm de învățare automată pentru modelarea abstracțiilor la nivel înalt folosind transformări multiple neliniare [39] [40] [41] [42] [43] .

În primul rând, învățarea profundă include următoarele metode și variațiile acestora:

Prin combinarea acestor metode, sunt create sisteme complexe care corespund diverselor sarcini de inteligență artificială .

Învățarea profundă este o selecție validată dintr-o familie largă de metode de învățare automată pentru reprezentarea datelor care se potrivesc cel mai bine naturii problemei. O imagine, de exemplu, poate fi reprezentată în mai multe moduri, cum ar fi un vector de intensitate a valorilor pe pixel sau (într-o formă mai abstractă) ca un set de primitive, regiuni de o anumită formă etc. Reprezentări de date de succes ușurează rezolvarea problemelor specifice - de exemplu, recunoașterea feței și expresiile faciale [44] ). În sistemele de învățare profundă, automatizează procesul de selecție și reglare a caracteristicilor, realizând învățarea caracteristicilor fără un profesor sau cu implicarea parțială a unui profesor , folosind algoritmi eficienți și extragerea ierarhică a caracteristicilor [45] pentru aceasta .

Cercetările în acest domeniu au îmbunătățit modelele de lucru cu volume mari de date neetichetate. Unele abordări au apărut din progresele în domeniul neuroștiinței , progresele în interpretarea procesării informațiilor, construirea de modele de comunicare în sistemul nervos , cum ar fi codificarea neuronală asociată cu determinarea relației dintre stimul și răspunsurile neuronale și relația dintre activitatea electrică. neuronii din creier [46] .

Sistemele de învățare profundă și-au găsit aplicații în domenii precum viziunea computerizată , recunoașterea vorbirii , procesarea limbajului natural , recunoașterea audio, bioinformatica , unde au fost demonstrate rezultate semnificativ mai bune decât anterior pentru o serie de sarcini.

În ciuda succesului utilizării învățării profunde, aceasta are încă o limitare fundamentală: modelele de învățare profundă sunt limitate în ceea ce pot reprezenta, iar majoritatea programelor nu pot fi exprimate ca o transformare geometrică continuă a unei varietăți de date [47] .

Cu toate acestea, rămâne noțiunea sceptică că învățarea profundă  nu este altceva decât un cuvânt la modă sau un rebrand pentru rețelele neuronale [48] [49] .

Vezi și

Note

  1. De fapt, primele rețele profunde au apărut la mijlocul anilor 1960: rețelele sub formă de perceptroni profundi au fost descrise în lucrările oamenilor de știință sovietici A. G. Ivakhnenko și V. G. Lapa - vezi secțiunea Istorie de mai jos.
  2. Cercetătorul de rețele neuronale John Denker a observat în 1994: „Rețelele neuronale sunt a doua modalitate cea mai bună de a face aproape orice”.
  3. Ciresan, Dan; Meier, U.; Schmidhuber, J. Rețele neuronale profunde cu mai multe coloane pentru clasificarea imaginilor  //  2012 IEEE Conference on Computer Vision and Pattern Recognition : jurnal. - 2012. - iunie. - P. 3642-3649 . - doi : 10.1109/cvpr.2012.6248110 .
  4. Rina Dechter (1986). Învățare în timpul căutării în probleme de satisfacție a constrângerilor Arhivat 19 aprilie 2016 la Wayback Machine . Universitatea din California, Departamentul de Informatică, Laboratorul de Sisteme Cognitive.
  5. Ivakhnenko A. G. , Lapa V. G. Cybernetic predictive devices. - K . : „Naukova Dumka”, 1965. - 216 p. - ISBN 978-5-458-61159-6 .
  6. Yann LeCun și colab. Backpropagation aplicată recunoașterii codului poștal scris de mână (link nu este disponibil) . Preluat la 28 august 2014. Arhivat din original la 29 mai 2015. 
  7. J. Weng, N. Ahuja și TS Huang. Cresceptron: o rețea neuronală auto-organizată care crește adaptiv  // Proc. Conferința internațională comună privind rețelele neuronale, Baltimore, Maryland, vol I, pp. 576-581. - iunie 1992. Arhivat din original la 21 septembrie 2017.
  8. J. Weng, N. Ahuja și TS Huang,. Învățarea recunoașterii și segmentării obiectelor 3D din imagini 2D  // Proc. A 4-a Conf. Internațională. Computer Vision, Berlin, Germania, pp. 121-128. - Mai, 1993. Arhivat din original la 21 septembrie 2017.
  9. J. Weng, N. Ahuja și TS Huang,. Recunoașterea învățării și segmentarea utilizând Cresceptron  // Jurnalul Internațional de Viziune pe Computer, vol. 25, nr. 2, pp. 105-139. nov. 1997. Arhivat din original la 25 ianuarie 2021.
  10. de Carvalho, Andre CLF; Fairhurst, Mike C.; Bisset, David (08-08-1994). O rețea neuronală booleană integrată pentru clasificarea modelelor  // Pattern Recognition Letters.. — pp. 807–813 . - doi : 10.1016/0167-8655(94)90009-4. . Arhivat din original pe 25 august 2019.
  11. Hinton, Geoffrey E.; Dayan, Petru; Frey, Brendan J.; Neal, Radford. Algoritmul veghe-somn pentru rețele neuronale nesupravegheate  // Știință. 268 (5214): 1158–1161 .. - 26-05-1995. doi : 10.1126 / science.7761831. . Arhivat din original pe 25 august 2019.
  12. ↑ 1 2 S. Hochreiter. Untersuchungen zu dynamischen neuronalen Netzen  // Teză de diplomă. institut f. Informatic, Technische Univ. Munchen. Consilier: J. Schmidhuber. - 1991. Arhivat 6 martie 2015.
  13. Hochreiter, S.; et al. Fluxul de gradient în rețele recurente: dificultatea de a învăța dependențe pe termen lung  // În Kolen, John F.; Kremer, Stefan C. (eds.). Un ghid de teren pentru rețelele recurente dinamice. John Wiley & Sons.- 15 ianuarie 2001. - ISBN 978-0-7803-5369-5 . . Arhivat din original pe 19 august 2020.
  14. Morgan, Nelson; Bourlard, Herve; Renali, Steve; Cohen, Michael; Franco, Horacio. Rețea neuronală hibridă/sisteme model markov ascunse pentru recunoașterea continuă a vorbirii // International Journal of Pattern Recognition and Artificial Intelligence.. — 1993-08-01. - Nr 07 (4): 899–916 . — ISSN 0218-0014 . - doi : 10.1142/s0218001493000455 .
  15. Robinson, T. Un sistem de recunoaștere a cuvintelor în rețea de propagare a erorilor recurente în timp real. — ICASSP. Icassp'92: 617–620 .. - 1992. - ISBN 9780780305328 ..
  16. Waibel, A.; Hanazawa, T.; Hinton, G.; Shikano, K.; Lang, KJ Recunoașterea fonemelor folosind rețele neuronale cu întârziere în timp // Tranzacții IEEE privind acustică, vorbire și procesare a semnalului. 37(3): 328–339. - martie 1989. - ISSN 0096-3518 . - doi : 10.1109/29.21701. hdl:10338.dmlcz/135496 .
  17. Baker, J.; Deng, Li; Sticla, Jim; Khudanpur, S.; Lee, C.-H.; Morgan, N.; O'Shaughnessy, D. 2009. Dezvoltări de cercetare și direcții în recunoașterea și înțelegerea vorbirii, partea 1 // Revista de procesare a semnalului IEEE.. - nr.26 (3): 75–80 . - doi : 10.1109/msp.2009.932166 .
  18. Bengio, Y. Artificial Neural Networks and their Application to Speech/Sequence Recognition  // Universitatea McGill Ph.D. teză.. - 1991. Arhivat din original la 9 mai 2021.
  19. Deng, L.; Hassanein, K.; Elmasry, M. Analiza structurii de corelație pentru un model predictiv neuronal cu aplicații la recunoașterea vorbirii // Rețele neuronale. 7(2). - 1994. - S. 331-339 . - doi : 10.1016/0893-6080(94)90027-2 .
  20. Un algoritm de învățare rapidă pentru rețelele de credință profundă . Consultat la 24 ianuarie 2018. Arhivat din original la 23 decembrie 2015.
  21. Bengio, Yoshua (2012), Recomandări practice pentru antrenamentul bazat pe gradient al arhitecturilor profunde, arΧiv : 1206.5533 . 
  22. Anunțul câștigătorilor Merck Molecular Activity Challenge . Consultat la 27 noiembrie 2019. Arhivat din original la 21 iunie 2017.
  23. NCATS anunță câștigătorii Tox21 Data Challenge . Consultat la 27 noiembrie 2019. Arhivat din original la 8 septembrie 2015.
  24. Ciresan, Dan; Giusti, Alessandro; Gambardella, Luca M.; Schmidhuber, Juergen. Advances in Neural Information Processing Systems  // Curran Associates, Inc. - 2012. - P. 2843–2851. . Arhivat din original pe 9 august 2017.
  25. Ciresan, D.; Meier, U.; Schmidhuber, J. Rețele neuronale profunde cu mai multe coloane pentru clasificarea imaginilor // IEEE Conference on Computer Vision and Pattern Recognition. - 2012. - S. 3642–3649 . — ISBN 978-1-4673-1228-8 . - doi : 10.1109/cvpr.2012.6248110 . - arXiv : 1202.2745. .
  26. Krijevski, Alex; Sutskever, Ilya; Hinton, Geoffrey. Clasificare ImageNet cu rețele neuronale convoluționale profunde  // NIPS 2012: Neural Information Processing Systems, Lake Tahoe, Nevada.. - 2012. Arhivat la 10 ianuarie 2017.
  27. Ciresan, D.; Giusti, A.; Gambardella, L.M.; Schmidhuber, J. Mitosis Detection in Breast Cancer Histology Images using Deep Neural Networks // Proceedings MICCAI. Note de curs în informatică. 7908 (Pt 2): 411–418. - 2013. - ISBN 978-3-642-38708-1 . - doi : 10.1007/978-3-642-40763-5_51 . — PMID 24579167 .
  28. ^ „Proiectul de identificare a imaginii în limbajul Wolfram”. www.imageidentify.com. Accesat 2017-03-22. . Preluat la 29 noiembrie 2019. Arhivat din original la 22 iulie 2020.
  29. Vinyals, Oriol; Toshev, Alexandru; Bengio, Samy; Erhan, Dumitru. Show and Tell: A Neural Image Caption Generator // [cs.CV]. - 2014. - arXiv : 1411.4555 .
  30. Fang, Hao; Gupta, Saurabh; Iandola, Forrest; Srivastava, Rupesh; Deng, Li; Dollar, Piotr; Gao, Jianfeng; El, Xiaodong; Mitchell, Margaret; Platt, John C; Lawrence Zitnick, C; Zweig, Geoffrey. De la subtitrări la concepte vizuale și înapoi // [cs.CV]. - 2014. - arXiv : https://arxiv.org/abs/1411.4952 .
  31. Kiros, Ryan; Salakhutdinov, Ruslan; Zemel, Richard S. Unifying Visual-Semantic Embeddings with Multimodal Neural Language Models // [cs.LG]. - 2014. - arXiv : https://arxiv.org/abs/1411.2539 .
  32. Zhong, Sheng-hua; Liu, Yan; Liu, Yang. Bilinear Deep Learning for Image Classification // Proceedings of the 19th ACM International Conference on Multimedia. MM '11. New York, NY, SUA: ACM. - 2011. - S. 343–352 . — ISBN 9781450306164 . - doi : 10.1145/2072298.2072344 .
  33. De ce învățarea profundă îți schimbă brusc viața . Fortune (2016. Consultat la 13 aprilie 2018). Consultat la 30 noiembrie 2019. Arhivat din original la 14 aprilie 2018.
  34. Silver, David; Huang, Aja; Maddison, Chris J.; Guez, Arthur; Sifre, Laurent; Driessche, George van den; Schrittwieser, Julian; Antonoglou, Ioannis; Panneershelvam, Veda. Stăpânirea jocului Go cu rețele neuronale profunde și căutarea arborilor // Nature: 529 (7587):. - ianuarie 2016. - ISSN 1476-4687 . - doi : 10.1038/nature16961 . — . — PMID 26819042 .
  35. ↑ 1 2 Bengio, Yoshua. Învățare arhitecturi profunde pentru AI  // Fundamente și tendințe în învățarea automată. 2(1):1–127. - 2009. - doi : 10.1561/2200000006 .
  36. Schmidhuber, J. Deep Learning in Neural Networks: An Overview // Neural Networks. 61:85–117. - 2015. - doi : 10.1016/j.nenet.2014.09.003 . - arXiv : 1404,7828 . — PMID 25462637 .
  37. Szegedy, creștin; Toshev, Alexandru; Erhan, Dumitru. Rețele neuronale profunde pentru detectarea obiectelor  // Progrese în sistemele de procesare a informațiilor neuronale. - 2013. - S. 2553-2561 . Arhivat din original pe 29 iunie 2017.
  38. Hof, Robert D. În sfârșit, inteligența artificială devine proprie?  // MIT Technology Review. Accesat 2018-07-10. Arhivat din original pe 31 martie 2019.
  39. 1 2 3 Deng, L.; Yu, D. Deep Learning: Methods and Applications  (nedefinit)  // Foundations and Trends in Signal Processing. - 2014. - V. 7 , Nr. 3-4 . - S. 1-199 . - doi : 10.1561/2000000039 .
  40. 1 2 Bengio, Yoshua. Învățare arhitecturi profunde pentru AI  (neopr.)  // Fundamente și tendințe în învățarea automată. - 2009. - V. 2 , Nr. 1 . - S. 1-127 . - doi : 10.1561/2200000006 . Arhivat din original pe 4 martie 2016. Copie arhivată (link indisponibil) . Consultat la 24 noiembrie 2017. Arhivat din original la 4 martie 2016. 
  41. 1 2 3 Schmidhuber, J. Deep Learning in Neural Networks: An Overview  (nedefinite)  // Neural Networks. - 2015. - T. 61 . - S. 85-117 . - doi : 10.1016/j.nenet.2014.09.003 . - arXiv : 1404,7828 . — PMID 25462637 .
  42. Bengio, Y.; Courville, A.; Vincent, P. Învățarea reprezentării: o revizuire și perspective noi  // IEEE Transactions on Pattern Analysis and Machine Intelligence  [  : journal. - 2013. - Vol. 35 , nr. 8 . - P. 1798-1828 . - doi : 10.1109/tpami.2013.50 . - arXiv : 1206,5538 .
  43. Bengio, Yoshua; LeCun, Yann; Hinton, Geoffrey. Învățare profundă  (engleză)  // Natură. - 2015. - Vol. 521 . - P. 436-444 . - doi : 10.1038/nature14539 . — PMID 26017442 .
  44. Glauner, P. (2015). Rețele neuronale convoluționale profunde pentru recunoașterea zâmbetului (teză de master). Colegiul Imperial din Londra, Departamentul de Calcul. arXiv : 1508,06535 .
  45. ^ Song, Lee, Neural Information Processing, 2013
  46. Olshausen, BA Apariția proprietăților câmpului receptiv al celulelor simple prin învățarea unui cod rar pentru imagini naturale  //  Nature : journal. - 1996. - Vol. 381 , nr. 6583 . - P. 607-609 . - doi : 10.1038/381607a0 . — . — PMID 8637596 .
  47. Francois Chollet. Capitolul 9, Secțiunea 2 // Învățare profundă cu Python. - Manning, 2017. - 350 p. — ISBN 9781617294433 .
  48. Deep Learning for Efficient Discriminative Parsing . Timp de la începutul sursei: 7min 45s. Arhivat pe 19 octombrie 2020 la Wayback Machine
  49. Gomes, Maestrul de învățare automată Michael Jordan despre iluziile date mari și alte eforturi uriașe de inginerie

Literatură