Expansiunea nenegativă a matricei

Descompunerea matricei nenegative ( NMP ), de asemenea, aproximarea matricei nenegative [1] [2] , este un grup de algoritmi de analiză multivariată și algebră liniară , în care matricea V este descompusă în (de obicei) două matrici W și H , cu proprietatea că toate cele trei matrice au intrări nenegative. Această non-negativitate face matricele rezultate mai ușor de studiat. În aplicații precum procesarea spectrogramelor audio sau datele privind activitatea musculară, non-negativitatea este inerentă datelor în cauză. Deoarece problema este în general de nerezolvată, de obicei este aproximată numeric.

RMN și-a găsit aplicație în domenii precum astronomia [3] [4] , viziunea computerizată , gruparea documentelor [1] , chimiometria , procesarea semnalului audio , sistemele de recomandare , [5] [6] și bioinformatica [7] .

Istorie

În chimiometrie , descompunerea matricei nenegative are o istorie lungă sub denumirea de „rezoluție curbă auto-similară” [8] În acest context, vectorii din matricea dreaptă sunt curbe continue, nu vectori discreti. Lucrările timpurii privind descompunerea matricei nenegative au fost făcute de un grup finlandez de cercetători la mijlocul anilor 1990 numită descompunere a matricei pozitive [9] [10] . Metoda a devenit mai cunoscută sub numele de descompunere a matricei nenegative , după ce Li și Seung au investigat proprietățile algoritmului și au publicat câțiva algoritmi simpli utili pentru două tipuri de descompunere [11] [12] .

Fundal

Fie matricea V produsul matricelor W și H ,

Înmulțirea matricei poate fi implementată prin calculul vectorului coloană al matricei V ca o combinație liniară de vectori coloană în W folosind coeficienții din coloanele matricei H . Adică, fiecare coloană a matricei V poate fi calculată după cum urmează:

unde v i este vectorul i-lea coloană al produsului matricei V și h i este vectorul i - lea coloană al matricei H.

La înmulțirea matricelor, dimensiunile factorilor matricei pot fi semnificativ mai mici decât dimensiunea produsului matricelor, iar aceasta este proprietatea care aduce baza sub NMP. RMN creează factori cu dimensiuni semnificativ reduse în comparație cu matricea originală. De exemplu, dacă V este o matrice m × n , W este o matrice m × p și H este o matrice p × n , atunci p poate fi substanțial mai mic decât m și n .

Iată un exemplu bazat pe o aplicație de analiză a textului:

Această ultimă proprietate este baza HMP, deoarece putem considera fiecare document original din exemplul nostru ca fiind construit dintr-un set mic de caracteristici latente. RMN creează aceste caracteristici.

Este util să ne gândim la fiecare caracteristică (vector coloană) din matricea de caracteristici W ca un prototip de document, inclusiv un set de cuvinte, în care fiecare celulă corespunzătoare unui cuvânt determină rangul cuvântului în caracteristică - cu atât valoarea este mai mare. în celula cuvântului, cu atât rangul cuvântului este mai mare în caracteristică . O coloană din matricea coeficienților H reprezintă documentul original cu valori ale celulelor care determină rangul documentului pentru caracteristică. Acum putem reconstrui documentul (vector coloană) din matricea noastră de intrare ca o combinație liniară a caracteristicilor noastre (vectori coloană din W ), unde fiecare caracteristică este luată cu o pondere dată de valoarea caracteristicii din vectorul coloană al matricei H .

Proprietatea de grupare

RMN are o proprietate intrinsecă de grupare [13] , i.e. grupează automat coloanele de date de intrare . Aceasta este proprietatea cerută de majoritatea aplicațiilor HMP.

Mai precis, aproximarea prin mijloace este realizată prin reducerea la minimum a funcției de eroare

in conditii

Mai mult, matricea calculată oferă un indicator al clusterelor, adică. dacă , acest fapt arată că intrarea aparține grupului k --lea. Matricea calculată oferă centrele clusterelor, adică. Coloana k -a definește centrul grupului k --lea. Această reprezentare a centrilor poate fi îmbunătățită semnificativ de HMP convex.

Dacă ortogonalitatea nu este specificată în mod explicit, ortogonalitatea este suficient de puternică și este valabilă și proprietatea de grupare. Clusteringul este obiectivul principal al majorității aplicațiilor HMP data mining .

Dacă distanța Kullback-Leibler este utilizată ca funcție de eroare , HMP este identică cu analiza semantică latentă probabilistică , o metodă populară de grupare a documentelor [14] .

Tipuri

Descompunerea matricei nenegative aproximative

De obicei, numărul de coloane ale matricei W și numărul de rânduri ale matricei H din HMP sunt alese astfel încât produsul WH să devină o aproximare la V . Descompunerea completă a matricei V constă apoi din două matrice nenegative W și H , precum și o matrice reziduală U astfel încât V = WH + U . Elementele matricei reziduale pot fi atât pozitive, cât și negative.

Dacă W și H sunt mai mici decât V , sunt mai ușor de reținut și mai ușor de lucrat. Un alt motiv pentru descompunerea V în matrici mai mici W și H este că, dacă putem reprezenta aproximativ elementele lui V printr-o cantitate semnificativ mai mică de date, atunci putem deduce o structură implicită a datelor.

Descompunerea matricei convexe nenegative

În HMP standard, multiplicatorul ,i.e. matricea W poate fi oricare în acest spațiu. HMP convex [15] restricționează coloanele matricei W la combinații convexe ale vectorilor de intrare . Acest lucru îmbunătățește semnificativ calitatea reprezentării datelor din matricea W. În plus, factorul H devine mai rar și mai ortogonal.

Descompunerea rangului nenegativ

În cazul în care rangul nenegativ matricei V este egal cu rangul obișnuit, V = WH se numește factorizare de rang nenegativ (NRF) [ 16] [17] [18] . Se știe că problema găsirii unei matrice NPP V , dacă aceasta există, este NP-hard [19] .  

Diverse funcții de cost și regularizare

Există diferite tipuri de descompunere a matricei nenegative. Diferite puncte de vedere apar din utilizarea diferitelor funcții de cost pentru a măsura discrepanța dintre V și WH și posibila regularizare a matricei W și/sau a matricei H [1] .

Două funcții de discrepanță simple pe care Lee și Seung le-au studiat au fost abaterea standard (sau norma Frobenius ) și extinderea conceptului de distanță Kullback-Leibler la matrici pozitive ( distanța Kullback-Leibler a fost definită inițial pentru distribuțiile de probabilitate). Fiecare funcție de discrepanță duce la propriul algoritm HMP, care de obicei minimizează discrepanța folosind reguli de actualizare iterativă.

Problema de descompunere în versiunea funcției de eroare pătrată pentru HMP poate fi formulată după cum urmează: Având în vedere matricea , trebuie să găsiți matrici nenegative W și H care minimizează funcția

Un alt tip de RMN pentru imagini se bazează pe norma determinată de variația totală [20] .

Dacă la HMP se adaugă regularizarea L1 (similar cu Lasso , English  Least Absolute Shrinkage and Selection Operator ) cu o funcție obiectiv egală cu pătratul mediu al erorii, problema rezultată poate fi numită codare rară nenegativă datorită asemănarea cu problema de codificare rară [21] [22] , deși poate fi denumită și HMP [23] .

RMN online

Mulți algoritmi standard HMP analizează toate datele împreună. Acestea. întreaga matrice este disponibilă de la început. Acest lucru poate fi inacceptabil pentru aplicațiile în care datele ocupă prea multă memorie pentru a le încadra pe toate în același timp sau în care datele vin sub formă de flux . Această situație este tipică pentru filtrarea colaborativă în sistemele de recomandare , unde pot fi mulți utilizatori și multe obiecte de recomandat și ar fi ineficient să recalculăm totul atunci când un utilizator sau un obiect este adăugat la sistem. Funcția obiectivă pentru optimizare în aceste cazuri poate fi sau nu aceeași ca în HMP standard, dar algoritmii trebuie să fie diferiți [24] [25] [26] .

Algoritmi

Există mai multe moduri în care pot fi găsite W și H. Regula de actualizare multiplicativă Lee și Seung [12] a fost populară datorită ușurinței sale de implementare.

Algoritm:

Inițializare: W și H nu sunt negative. Actualizați valorile în W și H evaluând (aici , indicele de iterație) și Până se stabilizează W și H.

Rețineți că actualizarea se realizează element cu element, nu prin înmulțirea matricei.


Recent, a fost dezvoltat un alt algoritm. Unele abordări se bazează pe metoda celor mai mici pătrate intercalate cu ponderi nenegative (OINS) - la fiecare pas al unui astfel de algoritm, mai întâi H este fix și W este căutat folosind OIE, apoi W este fix și acum H se găsește în același mod. Procedurile utilizate pentru găsirea W și H pot fi aceleași [27] sau diferite, deoarece unele variante ale HMP regularizează una dintre matricele W sau H [21] . Unele abordări includ metode de coborâre a gradientului proiectat [27] [28] , metode de constrângere activă [5] [29] , metoda gradientului optim [30] și metoda pivotului principal bloc [31] [32] , printre altele .

Algoritmii care există în prezent sunt suboptimi, deoarece garantează găsirea doar a minimului local, și nu global, al funcției obiectiv. Este puțin probabil ca algoritmi optimi dovediți să apară în viitorul apropiat, deoarece s-a demonstrat că problema generalizează metoda k-means, despre care se știe că este NP-complet [13] . Cu toate acestea, ca și în multe alte probleme de analiză a datelor, cunoașterea minimului local este, de asemenea, utilă.

Serial RMN

Construcția secvențială a componentelor HMR ( W și H ) a fost utilizată inițial pentru a lega HMR la metoda componentelor principale (PCA) în astronomie [33] . Contribuțiile componentelor PCA sunt ordonate după mărimea valorilor proprii respective. Pentru un NMP, componentele sale pot fi clasate empiric dacă sunt construite una după alta (succesiv), adică. construim componenta -a cu primele componente deja construite.

Contribuțiile componentelor RMN succesive pot fi comparate utilizând teorema Karhunen-Loeve folosind un grafic cu valori proprii. Alegerea tipică a numărului de componente din PCA se bazează pe punctul „genunchi”, atunci existența unei regiuni plane indică faptul că PCA nu consumă datele în mod eficient, iar dacă există o scădere neașteptată, aceasta indică zgomot aleatoriu și intrarea într-un regim de supraadaptare [34] [35] . Pentru RMN secvenţial, graficul cu valori proprii este aproximat de graficul variaţiei reziduale relative, unde curba scade continuu şi converge la o valoare mai mare decât PCA [4] , indicând o supraadaptare mai mică a RMN serială.

RMN precis

Soluțiile exacte pentru variantele HMP pot fi verificate (în timp polinomial) dacă sunt îndeplinite constrângeri suplimentare pe matricea V. Un algoritm în timp polinomial pentru rezolvarea unei descompunere de rang nenegativ atunci când matricea V conține o submatrice monomială cu rang egal cu rangul matricei a fost dat de Campbell și Poole în 1981 [36] . Kalofoljas și Gallopoulus (2012) [37] au rezolvat un analog simetric al acestei probleme, unde V este simetric și conține o submatrice principală diagonală de rang r. Algoritmul lor rulează în timp în cazul dens. Arora și un grup de cercetători au propus un algoritm în timp polinomial pentru HMP exact care funcționează atunci când unul dintre factorii W satisface condiția de separabilitate [38] .

Relația cu alte tehnici

În lucrarea Exploring Parts of Objects by Non-Negative Matrix Descompositions, Li și Seung [39] au propus RMN în principal pentru descompunerea imaginilor bazate pe părți. Articolul compară HMP cu cuantizarea vectorială și analiza componentelor principale și arată că, deși aceste trei tehnici pot fi scrise ca descompunere, ele preiau constrângeri diferite și, prin urmare, dau rezultate diferite.

Mai târziu s-a demonstrat că unele tipuri de RMN sunt exemple ale unui model probabilistic mai general numit „PCA multinomial” [40] . Dacă RMN-ul este obținut prin minimizarea distanței Kullback-Leibler , aceasta este, de fapt, echivalentă cu o altă instanță de PCA multinomială, analiză semantică latentă probabilistică [41] reglată cu estimarea de maximă probabilitate . Această metodă este folosită în mod obișnuit pentru analizarea și gruparea datelor textuale și este, de asemenea, asociată cu modelul de clasă latentă .

HMR cu o funcție obiectivă a metodei celor mai mici pătrate este echivalentă cu o formă slăbită a metodei k-medii - factorul matriceal W conține centroizii clusterului, iar H conține indicatorii de apartenență a clusterului [13] [42] . Aceasta oferă o justificare teoretică pentru utilizarea HMP pentru gruparea datelor. Cu toate acestea, k-means nu oferă non-negativitate pe centroizi, așa că cea mai apropiată analogie este, de fapt, „semi-HMP” [15] .

RMN poate fi privit ca un model grafic orientat pe două niveluri , cu un nivel de variabile aleatoare observate și un nivel de variabile aleatoare ascunse [43] .

RMN poate fi extins de la matrice la tensori de ordin arbitrar [44] [45] [46] . Această extensie poate fi considerată ca un analog nenegativ al, de exemplu, modelul PARAFAC .

Alte extensii ale HMP includ descompunerea în comun a mai multor matrici și tensori, unde unii dintre factori sunt aceiași. Astfel de modele sunt utile pentru împerecherea senzorilor și învățarea conexiunii [47] .

NMP este o instanță de programare pătratică non-negativă (NQP), la fel ca mașina vectorului suport (SVM). Cu toate acestea, SVM și RMN sunt mai strâns legate decât doar prin NCL, ceea ce permite aplicarea directă a algoritmilor dezvoltați pentru rezolvarea oricăreia dintre cele două metode la probleme din ambele domenii [48] .

Unicitate

Descompunerea nu este unică - o matrice și inversul ei pot fi utilizate pentru a transforma două matrici de descompunere prin, de exemplu, [49] ,

Dacă două matrice noi și sunt nenegative , ele formează o altă parametrizare de descompunere.

Urmează non - negativitatea dacă cel puțin B este o matrice monomială nenegativă . În acest caz simplu, aceasta corespunde doar cu scalarea și rearanjarea .

Control suplimentar asupra ambiguității HMP este dobândit prin limitarea completității matricelor [50] .

Aplicații

Astronomie

În astronomie, RMN este o tehnică promițătoare pentru reducerea dimensionalității, în sensul că semnalele astrofizice sunt nenegative. RMN este utilizat pentru observații spectroscopice [3] și observații directe [4] ca metodă de studiere a proprietăților generale ale unui obiect astronomic și post-procesare a observațiilor astronomice. Progresul în observațiile spectroscopice de către cercetătorii Blanton și Rose (2007) [3] este asociat cu luarea în considerare a incertitudinii observațiilor astronomice, care a fost ulterior îmbunătățită de Zoo (2016) [33] , care a luat în considerare și lipsa datelor și a folosit paralel . de calcul . Metodele lor au fost apoi adaptate de Ren et al.(2018) [4] pentru câmpul vizual direct ca una dintre metodele de detectare a exoplanetelor , în special pentru observarea directă a discurilor circumstelare .

Ren și colab.(2018) [4] au reușit să arate stabilitatea componentelor RMN atunci când sunt construite secvențial (adică unul după altul), ceea ce asigură liniaritatea procesului de modelare RMN. Proprietatea de liniaritate a fost folosită pentru a separa lumina stelară de lumina împrăștiată de exoplanete și discurile circumstelare .

În observația directă, au fost adaptate diferite metode statistice pentru a distinge exoplanetele slabe și discurile circumstelare de lumina strălucitoare din jur, care are un contrast tipic de 10⁵ până la 10¹⁰, [51] [52] [34] , dar separarea luminii de exoplanete. sau discurile circumstelare suferă de obicei.suprafitting, astfel încât modelarea ulterioară trebuie aplicată pentru a detecta fluxul adevărat [53] [35] . Simulările sunt în prezent optimizate pentru surse punctuale [35] dar nu pentru structuri cu forme neregulate, cum ar fi discurile circumstelare. În această situație, RMN este o metodă excelentă care suferă mai puțin de supraadaptare în sensul non-negativității și rarii coeficienților de simulare RMN, astfel încât simularea poate fi efectuată cu mai mulți factori de scalare [4] în loc de reprocesarea de date intensivă din punct de vedere computațional pe modele obţinute.

Exploatarea textului

HMP poate fi folosit pentru extragerea textului . Acest proces construiește o matrice termen-document cu ponderi ale diferitelor obiecte (de obicei informații ponderate despre frecvența de apariție a cuvintelor) dintr-un set de documente. Matricea este descompusă în matrice obiect-atribut și atribut-document . Caracteristicile sunt derivate din contextul documentului, iar matricea caracteristică-document descrie grupuri de date ale documentelor conexe.

O aplicație folosește HMP ierarhic pe un subset mic de abstracții științifice din PubMed [54] . Un alt grup de cercetători a grupat setul de e-mail al lui Enron [55] (65033 mesaje și 91133 obiecte) în 50 de grupuri [56] . HMP se aplică, de asemenea, datelor de citare, cu un exemplu de grupare a articolelor Wikipedia în limba engleză și a revistelor științifice bazate pe citările științifice din Wikipedia în engleză [57] .

Arora și colab. au propus algoritmi de timp polinomial pentru învățarea modelelor de subiecte folosind HMP. Algoritmul presupune că matricea topică satisface condiția de separabilitate, ceea ce este adesea cazul în astfel de condiții [38] .

Analiza datelor spectrale

RMN este, de asemenea, utilizat în analiza datelor spectrale. O astfel de aplicație este clasificarea obiectelor interplanetare și a resturilor [58] .

Predicție scalabilă a distanței de rețea

HMP este utilizat în predicția de distanță a rețelei scalabile pe Internet (timp de călătorie dus-întors). Pentru o rețea cu gazde care utilizează HMP, distanțele tuturor conexiunilor de la un punct la altul pot fi prezise numai după măsurători. Acest tip de metodă a fost propus pentru prima dată în Internet Distance Estimation Service (IDES) [59] . Ulterior, ca abordare complet descentralizată, a fost propus sistemul de coordonate al rețelei Phoenix [ 60] . Ea a obținut o mai bună predictibilitate prin introducerea conceptului de greutate.   

Eliminarea zgomotului non-staționar dintr-o conversație

Eliminarea zgomotului dintr-o conversație a fost o problemă de lungă durată în procesarea semnalului audio . Există un număr mare de algoritmi de eliminare a zgomotului dacă zgomotul este staționar. De exemplu, filtrul Wiener este potrivit pentru zgomotul Gaussian aditiv . Cu toate acestea, dacă zgomotul este non-staționar, algoritmii clasici de eliminare a zgomotului au de obicei performanțe slabe, deoarece informațiile statistice despre zgomotul non-staționar sunt dificil de evaluat. Schmidt și colaboratorii [61] au folosit RMN pentru a elimina zgomotul non-staționar în conversație, care este complet diferit de abordările statistice clasice. Ideea cheie este că un semnal pur poate fi reprezentat printr-un vocabular de conversație, dar zgomotul non-staționar nu poate fi reprezentat. În mod similar, zgomotul non-staționar poate fi reprezentat de un dicționar de zgomot, dar conversația nu poate.

Algoritmul pentru eliminarea zgomotului folosind HMP funcționează după cum urmează. Este necesar să antrenați două dicționare offline, unul pentru conversație, celălalt pentru zgomot. De îndată ce este servită o conversație cu zgomot, mai întâi calculăm valoarea transformării Fourier în fereastră . Apoi îl împărțim în două părți folosind HMP, o parte poate fi reprezentată de un dicționar de conversație, iar cealaltă parte poate fi reprezentată de un dicționar de zgomot. În al treilea pas, partea reprezentată de dicționarul de conversație este evaluată ca conversație pură.

Bioinformatica

RMN a fost aplicat cu succes în bioinformatică pentru gruparea expresiei genelor și a datelor de metilare a ADN-ului și pentru căutarea genelor care reprezintă cele mai multe grupuri [22] [62] [63] [64] . În analiza mutațiilor canceroase, aceasta este utilizată pentru a evidenția mecanismele comune de mutație care apar în multe tipuri de cancer și care, eventual, au cauze diferite [65] .

Imagistica cu radionuclizi

RMN, denumită în acest domeniu analiză factorială, a fost utilizată aici încă din anii 1980 [66] pentru analiza secvenței de imagini în SPECT și PET . Ambiguitatea RMN a fost rezolvată prin impunerea unei constrângeri de sparsity [67] .

Cercetări curente

Cercetările actuale (din 2010) privind descompunerea matricei nenegative includ, dar nu se limitează la următoarele întrebări

  1. Întrebări algoritmice: căutarea minimului global de factori și inițializarea factorului [68] .
  2. Probleme de scalare: cum să descompuneți matricele de milioane cu miliarde care apar la analiza datelor în rețele. Consultați articolele „Factorizarea cu matrice non-negativă distribuită (DNMF)” [69] și „Factorizarea cu matrice non-negativă scalabilă (ScalableNMF)” [70] .
  3. Procesare online: cum se actualizează descompunerea atunci când apar date noi, fără a face un calcul complet de la zero [71] .
  4. Co-Descompunere: Descompunerea mai multor matrici intrinsec legate pentru gruparea cu mai multe poziții, a se vedea CoNMF [72] și MultiNMF [73] .
  5. Problema lui Cohen și Rothblum din 1993: O matrice rațională are întotdeauna un NMP de dimensiune intrinsecă minimă ai cărui factori sunt și raționali. Recent, la această întrebare s-a răspuns negativ [74] .

Vezi și

Note

  1. 1 2 3 Dhillon, Sra, 2005 .
  2. Tandon, Sra, 2010 .
  3. 1 2 3 Blanton, Roweis, 2007 , p. 734-754.
  4. 1 2 3 4 5 6 7 Ren, Pueyo, Zhu, Duchêne, 2018 , p. 104.
  5. 1 2 Gemulla, Nijkamp, ​​​​Haas, Sismanis, 2011 , p. 69–77.
  6. Bao, 2014 .
  7. Murrell, 2011 , p. e28898.
  8. Lawton, Sylvestre, 1971 , p. 617+.
  9. Paatero și Tapper 1994 , p. 111–126.
  10. Anttila, Paatero, Tapper, Järvinen, 1995 , p. 1705-1718.
  11. 1 2 Lee, Seung, 1999 , p. 788-791.
  12. 1 2 Lee, Seung, 2001 , p. 556-562.
  13. 1 2 3 Ding, He, Simon, 2005 , p. 606-610.
  14. Ding, Li, Peng, 2008 , p. 3913-3927.
  15. 1 2 Ding, Li, Iordania, 2010 , p. 45-55.
  16. Berman, Plemmons, 1974 , p. 161–172.
  17. Berman, Plemmons, 1994 .
  18. Thomas, 1974 , p. 393–394.
  19. Vavasis, 2009 , p. 1364–1377.
  20. Zhang, Fang, Liu, Tang et al., 2008 , p. 1824–183
  21. 12 Hoyer , 2002 .
  22. 1 2 Taslaman, Nilsson, 2012 , p. e46331.
  23. Hsieh, Dhillon, 2011 , p. 1064.
  24. Copie arhivată . Consultat la 16 octombrie 2018. Arhivat din original la 24 septembrie 2015.
  25. Fung, Li, Cheung, 2007 , p. 284–287.
  26. Guan, Tao, Luo, Yuan, 2012 , p. 1087–1099.
  27. 12 Lin , 2007 , p. 2756–2779.
  28. Lin, 2007 , p. 1589–1596
  29. Kim, Park, 2008 , p. 713-730.
  30. Guan, Tao, Luo, Yuan, 2012 , p. 2882–2898.
  31. Kim, Park, 2011 , p. 3261-3281.
  32. Kim, He, Park, 2013 , p. 285-319.
  33. 1 2 Zhu, Guangtun B. (2016-12-19), Nonnegative Matrix Factorization (NMF) with Heteroscedastic Uncertainties and Missing data, arΧiv : 1612.06037 [astro-ph.IM]. 
  34. 1 2 Soummer, Pueyo, Larkin, 2012 , p. L28.
  35. 1 2 3 Pueyo, 2016 , p. 117.
  36. Campbell, Poole, 1981 , p. 175–182.
  37. Kalofolias, Gallopoulos, 2012 , p. 421–435.
  38. 1 2 Arora, Ge, Halpern, Mimno et al., 2013 .
  39. Lee, Seung, 1999 , p. 788–791.
  40. Buntine, 2002 , p. 23–34.
  41. Gaussier și Goutte 2005 , p. 601–602.
  42. Zass, Shashua, 2005 .
  43. Welling, Rosen-zvi, Hinton, 2004 .
  44. Paatero, 1999 , p. 854-888.
  45. Welling, Weber, 2001 , p. 1255-1261.
  46. Kim, Park, 2012 , p. 311-326.
  47. Yilmaz, Cemgil, Simsekli, 2011 .
  48. Potluru, Plis, Morup, Calhoun, Lane, 2009 , p. 1218–1229.
  49. Xu, Liu, Gong, 2003 , p. 267-273.
  50. Eggert, Körner, 2004 , p. 2529-2533.
  51. Lafrenière, Maroid, Doyon, Barman, 2009 .
  52. Amara, Quanz, 2012 , p. 948.
  53. Wahhaj, Cieza, Mawet, Yang et al., 2015 , p. A24.
  54. Nielsen, Balslev, Hansen, 2005 , p. 520–522.
  55. Cohen, 2005 .
  56. Berry și Browne, 2005 , p. 249-264.
  57. Nielsen, 2008 .
  58. Berry, Browne, Langville, Pauca, Plemmons, 2007 , p. 155-173.
  59. Mao, Saul, Smith, 2006 , p. 2273-2284.
  60. Chen, Wang, Shi, 2011 , p. 334–347.
  61. Schmidt, Larsen, Hsiao, 2007 , p. 431–436.
  62. Devarajan, 2008 , p. e1000029.
  63. Kim, Park, 2007 , p. 1495-1502.
  64. Schwalbe, 2013 , p. 359-371.
  65. Alexandrov, Nik-Zainal, Wedge, Campbell, Stratton, 2013 , p. 246–259.
  66. Di Paola, Bazin, Aubry, Aurengo et al., 1982 , p. 1310–21.
  67. Sitek, Gullberg, Huesman, 2002 , p. 216–25.
  68. Boutsidis, Gallopoulos, 2008 , p. 1350–1362
  69. Liu, Yang, Fan, He, Wang, 2010 .
  70. ^ Yin, Gao, Zhang, 2014 .
  71. Wang, Vipperla, Evans, Zheng, 2013 , p. 44–56.
  72. He, Kan, Xie, Chen, 2014 .
  73. Liu, Wang, Gao, Han, 2013 , p. 252–260.
  74. Chistikov, Dmitri; Kiefer, Stefan; Marusic, Ines; Shirmohammadi, Mahsa & Worrell, James (2016-05-22), Nonnegative Matrix Factorization Requires Irrationality, arΧiv : 1605.06848 [cs.CC]. 

Literatură

Lectură suplimentară