Icke-negativ matrisexpansion

Icke-negativ matrisupplösning ( NMP ), även icke-negativ matrisapproximation [1] [2] , är en grupp algoritmer i multivariat analys och linjär algebra , där en matris V delas upp i (vanligtvis) två matriser W och H , med egenskapen att alla tre matriserna har icke-negativa poster. Denna icke-negativitet gör de resulterande matriserna lättare att studera. I applikationer som audiospektrogrambehandling eller muskelaktivitetsdata är icke-negativitet inneboende i data i fråga. Eftersom problemet i allmänhet är olösligt, är det vanligtvis ungefärligt numeriskt.

NMR har funnit tillämpning inom områden som astronomi [3] [4] , datorseende , dokumentkluster [ 1] , kemometri , ljudsignalbehandling , rekommendatorsystem [ 5] [6] och bioinformatik [7] .

Historik

Inom kemometri har icke-negativ matrisnedbrytning en lång historia under namnet "self-similar curve resolution" [8] I detta sammanhang är vektorerna i den högra matrisen kontinuerliga kurvor, inte diskreta vektorer. Tidigt arbete med icke-negativ matrisnedbrytning gjordes av en finsk grupp forskare i mitten av 1990-talet kallad positiv matrisupplösning [9] [10] . Metoden blev mer allmänt känd som icke-negativ matrisnedbrytning , efter att Li och Seung undersökt algoritmens egenskaper och publicerat flera enkla användbara algoritmer för två typer av nedbrytning [11] [12] .

Bakgrund

Låt matrisen V vara produkten av matriserna W och H ,

Matrismultiplikation kan implementeras genom att beräkna kolumnvektorn för matris V som en linjär kombination av kolumnvektorer i W med hjälp av koefficienterna från kolumnerna i matris H . Det vill säga att varje kolumn i matrisen V kan beräknas enligt följande:

där v i är den i:te kolumnvektorn av produkten av matrisen V , och hi är den i :te kolumnvektorn av matrisen H.

När man multiplicerar matriser kan dimensionerna av matrisfaktorerna vara betydligt mindre än dimensionen av produkten av matriser, och detta är egenskapen som förs in under NMP. NMR skapar faktorer med signifikant reducerade dimensioner jämfört med den ursprungliga matrisen. Till exempel, om V är en m × n matris, W är en m × p matris och H är en p × n matris, då kan p vara väsentligt mindre än både m och n .

Här är ett exempel baserat på en textanalysapplikation:

Denna sista egenskap är grunden för HMP, eftersom vi kan betrakta varje originaldokument i vårt exempel som byggt av en liten uppsättning latenta egenskaper. NMR skapar dessa egenskaper.

Det är användbart att tänka på varje funktion (kolumnvektor) i funktionsmatrisen W som en dokumentprototyp, inklusive en uppsättning ord, där varje cell som motsvarar ett ord bestämmer rangordningen för ordet i objektet - ju högre värde i ordcellen, desto högre rankning har ordet i funktionen . En kolumn i matrisen med koefficienter H representerar originaldokumentet med cellvärden som bestämmer dokumentets rangordning för attributet. Vi kan nu rekonstruera dokumentet (kolumnvektorn) från vår inmatningsmatris som en linjär kombination av våra egenskaper (kolumnvektorer från W ), där varje funktion tas med en vikt som ges av egenskapsvärdet från kolumnvektorn i matrisen H .

Klustringsegenskap

NMR har en inneboende egenskap av klustring [13] , dvs. den kluster automatiskt indatakolumnerna . Detta är den egenskap som krävs av de flesta HMP-applikationer.

Närmare bestämt uppnås approximation medelst medel genom att minimera felfunktionen

under förhållanden

Dessutom ger den beräknade matrisen en indikator på kluster, dvs. om visar detta faktum att ingången tillhör det k -te klustret. Den beräknade matrisen ger centra för kluster, d.v.s. Den k -te kolumnen definierar mitten av det k -te klustret. Denna representation av centra kan förbättras avsevärt av den konvexa HMP.

Om ortogonalitet inte är explicit specificerad är ortogonalitet tillräckligt stark och klustringsegenskapen gäller också. Klustring är huvudmålet för de flesta HMP -applikationer för datautvinning .

Om Kullback-Leibler-avståndet används som felfunktion , är HMP identisk med probabilistisk latent semantisk analys , en populär metod för dokumentklustring [14] .

Typer

Ungefärlig icke-negativ matrisupplösning

Vanligtvis väljs antalet kolumner i matrisen W och antalet rader i matrisen H i HMP så att produkten WH blir en approximation till V . Den fullständiga nedbrytningen av matrisen V består då av två icke-negativa matriser W och H , samt en restmatris U så att V = WH + U . Elementen i restmatrisen kan vara både positiva och negativa.

Om W och H är mindre än V är de lättare att komma ihåg och lättare att arbeta med. Ett annat skäl till att dekomponera V i mindre matriser W och H är att om vi ungefär kan representera elementen i V med en betydligt mindre mängd data, så kan vi sluta oss till någon implicit datastruktur.

Konvex icke-negativ matrisupplösning

I standard HMP, multiplikatorn , dvs. matrisen W kan vara vilken som helst i detta utrymme. Den konvexa HMP [15] begränsar kolumnerna i matrisen W till konvexa kombinationer av ingångsvektorerna . Detta förbättrar avsevärt kvaliteten på datarepresentationen av W -matrisen . Dessutom blir faktorn H mer sparsam och ortogonal.

Nedbrytning av icke-negativ rang

I det fall då den icke-negativa rangordningen matrisen V är lika med den vanliga rangordningen, kallas V = WH för icke-negativ rangfaktorisering (NRF) [ 16] [17] [18] . Det är känt att problemet med att hitta en NPP-matris V , om sådan finns, är NP-hårt [19] .  

Olika kostnadsfunktioner och reglering

Det finns olika typer av icke-negativ matrisnedbrytning. Olika uppfattningar uppstår genom användningen av olika kostnadsfunktioner för att mäta diskrepansen mellan V och WH och den eventuella regulariseringen av W -matrisen och/eller H -matrisen [1] .

Två enkla diskrepansfunktioner som Lee och Seung studerade var standardavvikelsen (eller Frobenius-normen ) och utvidgningen av begreppet Kullback-Leibler-avstånd till positiva matriser ( Kullback-Leibler-avståndet definierades ursprungligen för sannolikhetsfördelningar). Varje avvikelsefunktion leder till sin egen HMP-algoritm, som vanligtvis minimerar avvikelsen med iterativa uppdateringsregler.

Nedbrytningsproblemet i versionen av den kvadratiska felfunktionen för HMP kan formuleras på följande sätt: Givet matrisen måste du hitta icke-negativa matriser W och H som minimerar funktionen

En annan typ av NMR för bilder är baserad på den norm som bestäms av total variation [20] .

Om L1-regularisering (liknande Lasso , engelska  Least Absolute Shrinkage and Selection Operator ) läggs till HMP med en objektiv funktion lika med medelkvadraten för felet, kan det resulterande problemet kallas icke-negativ sparse coding p.g.a. likheten med det sparsamma kodningsproblemet [21] [22] , även om det också kan kallas HMP [23] .

Online NMR

Många vanliga HMP-algoritmer analyserar all data tillsammans. De där. hela matrisen är tillgänglig från början. Detta kan vara oacceptabelt för applikationer där data tar upp för mycket minne för att få plats med allt samtidigt, eller där data kommer in som en ström . Denna situation är typisk för kollaborativ filtrering i rekommendatorsystem , där det kan finnas många användare och många objekt att rekommendera, och det skulle vara ineffektivt att räkna om allt när en användare eller ett objekt läggs till i systemet. Den objektiva funktionen för optimering i dessa fall kan eller kanske inte är densamma som i standard HMP, men algoritmerna måste vara olika [24] [25] [26] .

Algoritmer

Det finns flera sätt på vilka W och H kan hittas . Den multiplikativa uppdateringsregeln Lee och Seung [12] var populär på grund av dess enkla implementering.

Algoritm:

Initialisering: W och H är inte negativa. Uppdatera värdena i W och H genom att utvärdera (här , iterationsindex) och Tills W och H stabiliseras.

Observera att uppdateringen utförs element för element, inte genom matrismultiplikation.


Nyligen har en annan algoritm utvecklats. Vissa tillvägagångssätt är baserade på den interfolierade minsta kvadratmetoden med icke-negativa vikter (OINS) - vid varje steg i en sådan algoritm är först H fixerad och W söks med OIE, sedan är W fixerad och nu H hittas på samma sätt. Procedurerna som används för att hitta W och H kan vara samma [27] eller olika, eftersom vissa varianter av HMP reglerar en av W- eller H -matriserna [21] . Vissa tillvägagångssätt inkluderar projicerade gradientnedstigningsmetoder [27] [28] , aktiva tvångsmetoder [5] [29] , optimal gradientmetod [30] och blockprincipal pivot-metod [31] [32] , bland andra .

Algoritmerna som för närvarande existerar är suboptimala, eftersom de garanterar att endast det lokala, och inte det globala, minimum av objektivfunktionen hittas. Beprövade optimala algoritmer kommer sannolikt inte att dyka upp inom en snar framtid, eftersom problemet har visat sig generalisera k-medelmetoden, som är känd för att vara NP-komplett [13] . Men som i många andra dataanalysproblem är det också användbart att känna till det lokala minimumet.

Seriell NMR

Sekventiell konstruktion av HMR-komponenterna ( W och H ) användes ursprungligen för att relatera HMR till huvudkomponentmetoden (PCA) inom astronomi [33] . Bidragen från PCA-komponenterna rangordnas efter storleken på deras respektive egenvärden. För en NMP kan dess komponenter rangordnas empiriskt om de byggs efter varandra (successivt), d.v.s. vi bygger den -e komponenten med de första komponenterna redan byggda.

Bidragen från successiva NMR-komponenter kan jämföras med hjälp av Karhunen-Loeve-satsen med hjälp av en egenvärdesplot. Det typiska valet av antalet komponenter i PCA baseras på "knäpunkten", då förekomsten av en platt region indikerar att PCA inte förbrukar data effektivt, och om det finns ett oväntat fall indikerar detta slumpmässigt brus och komma in i ett överanpassat läge [34] [35] . För sekventiell NMR approximeras egenvärdesplotten av den relativa restvariansdiagrammet, där kurvan minskar kontinuerligt och konvergerar till ett större värde än PCA [4] , vilket indikerar mindre överanpassning av seriell NMR.

Exakt NMR

Exakta lösningar för HMP-varianter kan verifieras (i polynomtid) om ytterligare begränsningar på matrisen V är uppfyllda . En polynom-tidsalgoritm för att lösa en icke-negativ rangnedbrytning när matrisen V innehåller en monomial submatris med rang lika med matrisens rang gavs av Campbell och Poole 1981 [36] . Kalofoljas och Gallopoulus (2012) [37] löste en symmetrisk analog till detta problem, där V är symmetrisk och innehåller en diagonal huvudsubmatris med rang r. Deras algoritm går i tid i det täta fallet. Arora och en grupp forskare föreslog en polynom-tidsalgoritm för exakt HMP som fungerar när en av faktorerna W uppfyller separerbarhetsvillkoret [38] .

Förhållande till andra tekniker

I artikeln Exploring Parts of Objects by Non-Negative Matrix Decompositions föreslog Li och Seung [39] NMR främst för delbaserad bildnedbrytning. Artikeln jämför HMP med vektorkvantisering och principal komponentanalys och visar att även om dessa tre tekniker kan skrivas som nedbrytningar, tar de olika begränsningar och ger därför olika resultat.

Senare visades det att vissa typer av NMR är exempel på en mer generell probabilistisk modell som kallas "multinomial PCA" [40] . Om NMR erhålls genom att minimera Kullback-Leibler-avståndet , är detta i själva verket ekvivalent med en annan instans av multinomial PCA, probabilistisk latent semantisk analys [41] inställd med maximal sannolikhetsuppskattning . Denna metod används ofta för att analysera och klustra textdata och är också associerad med den latenta klassmodellen .

HMR med en objektiv funktion av minsta kvadratmetoden är ekvivalent med en försvagad form av k-medelmetoden - matrisfaktorn W innehåller klustrets tyngdpunkter och H innehåller klustermedlemskapsindikatorerna [13] [42] . Detta ger en teoretisk motivering för användningen av HMP för dataklustring. Men k-medel ger inte icke-negativitet på centroider, så den närmaste analogin är faktiskt "semi-HMP" [15] .

NMR kan ses som en tvånivåorienterad grafisk modell med en nivå av observerade slumpvariabler och en nivå av dolda slumpvariabler [43] .

NMR kan utökas från matriser till tensorer av godtycklig ordning [44] [45] [46] . Denna förlängning kan betraktas som en icke-negativ analog till till exempel PARAFAC -modellen .

Andra förlängningar av HMP inkluderar den gemensamma nedbrytningen av flera matriser och tensorer, där några av faktorerna är desamma. Sådana modeller är användbara för sensorparning och anslutningsinlärning [47] .

NMP är en instans av icke-negativ kvadratisk programmering (NQP), precis som stödvektormaskinen (SVM). SVM och NMR är dock närmare besläktade än bara genom NCL, vilket tillåter direkt tillämpning av algoritmer utvecklade för att lösa någon av de två metoderna på problem inom båda områdena [48] .

Unikhet

Nedbrytningen är inte unik - en matris och dess invers kan användas för att transformera två nedbrytningsmatriser via till exempel [49] ,

Om två nya matriser och är icke-negativa bildar de en annan nedbrytningsparametrisering.

Icke - negativitet följer om åtminstone B är en icke-negativ monomial matris . I detta enkla fall motsvarar det bara skalning och omarrangering .

Ytterligare kontroll över tvetydigheten hos HMP erhålls genom att begränsa matrisernas fullhet [50] .

Applikationer

Astronomi

Inom astronomi är NMR en lovande teknik för dimensionalitetsreduktion i den meningen att astrofysiska signaler är icke-negativa. NMR används för spektroskopiska observationer [3] och direkta observationer [4] som en metod för att studera de allmänna egenskaperna hos ett astronomiskt objekt och efterbearbetning av astronomiska observationer. Framsteg i spektroskopiska observationer av forskarna Blanton och Rose (2007) [3] är förknippade med att ta hänsyn till osäkerheten i astronomiska observationer, som senare förbättrades av Zoo (2016) [33] , som också övervägde bristen på data och använde parallellt datoranvändning . Deras metoder anpassades sedan av Ren et al (2018) [4] för det direkta synfältet som en av metoderna för att detektera exoplaneter , särskilt för direkt observation av cirkumstellära skivor .

Ren et al. (2018) [4] kunde visa stabiliteten hos NMR-komponenterna när de byggs sekventiellt (dvs den ena efter den andra), vilket säkerställer linjäriteten i NMR-modelleringsprocessen. Linjäritetsegenskapen har använts för att separera stjärnljus från spritt ljus från exoplaneter och cirkumstellära skivor .

I direkt observation har olika statistiska metoder anpassats för att skilja svaga exoplaneter och cirkumstellära skivor från det omgivande starkt ljus, som har en typisk kontrast på 10⁵ till 10¹⁰, [51] [52] [34] , men separationen av ljus från exoplaneter eller cirkumstellära skivor lider vanligtvis av övermontering, så att efterföljande modellering måste tillämpas för att detektera det sanna flödet [53] [35] . Simuleringar är för närvarande optimerade för punktkällor [35] men inte för strukturer med oregelbundna former som s cirkumstellära skivor. I denna situation är NMR en utmärkt metod som lider mindre av överanpassning i betydelsen icke-negativitet och gleshet i NMR-simuleringskoefficienterna, så simuleringen kan utföras med flera skalningsfaktorer [4] istället för beräkningsintensiv databearbetning på erhållna modeller.

Text mining

HMP kan användas för textutvinning . Denna process konstruerar en term-dokumentmatris med vikter av olika objekt (vanligtvis viktad information om frekvensen av förekomst av ord) från en uppsättning dokument. Matrisen är uppdelad i objektattribut- och attribut-dokumentmatriser . Funktionerna härleds från dokumentkontexten, och funktion-dokumentmatrisen beskriver datakluster av relaterade dokument.

En applikation använder hierarkisk HMP på en liten delmängd av vetenskapliga abstraktioner från PubMed [54] . En annan grupp forskare grupperade Enrons [55] e -postuppsättning (65033 meddelanden och 91133 objekt) i 50 kluster [56] . HMP tillämpas också på citeringsdata, med ett exempel på att gruppera engelska Wikipedia- artiklar och vetenskapliga tidskrifter baserade på vetenskapliga citat i engelska Wikipedia [57] .

Arora et al har föreslagit polynomtidsalgoritmer för inlärning av ämnesmodeller med hjälp av HMP. Algoritmen antar att ämnesmatrisen uppfyller separerbarhetsvillkoret, vilket ofta är fallet under sådana förhållanden [38] .

Spektraldataanalys

NMR används också vid analys av spektraldata. En sådan tillämpning är klassificeringen av interplanetära föremål och skräp [58] .

Skalbar nätverksavståndsförutsägelse

HMP används i internet skalbar nätverksavståndsförutsägelse (pakettid för tur och retur). För ett nätverk med värdar som använder HMP, kan avstånden för alla anslutningar från punkt till punkt förutsägas efter endast mätningar. Denna typ av metod föreslogs först i Internet Distance Estimation Service (IDES) [59] . Därefter, som ett helt decentraliserat tillvägagångssätt, föreslogs Phoenix -nätverkets koordinatsystem [ 60] . Hon uppnådde bättre förutsägbarhet genom att introducera viktbegreppet.   

Ta bort icke-stationärt brus från en konversation

Att ta bort brus från en konversation har varit ett långvarigt problem inom ljudsignalbehandling . Det finns ett stort antal brusreduceringsalgoritmer om bruset är stationärt. Till exempel är Wiener-filtret lämpligt för additivt Gaussiskt brus . Men om bruset är icke-stationärt har klassiska brusreduceringsalgoritmer vanligtvis dålig prestanda eftersom statistisk information om icke-stationärt brus är svår att utvärdera. Schmidt et al [61] använde NMR för att ta bort icke-stationärt brus i samtal, vilket är helt annorlunda än klassiska statistiska metoder. Nyckelidén är att en ren signal kan representeras av en konversationsvokabulär, men icke-stationärt brus kan inte representeras. På liknande sätt kan icke-stationärt brus representeras av en brusordbok, men konversation kan inte.

Algoritmen för brusborttagning med HMP fungerar enligt följande. Det är nödvändigt att träna två ordböcker offline, en för konversation, den andra för buller. Så snart en konversation med brus serveras, beräknar vi först värdet på den fönsterförsedda Fouriertransformen . Sedan delar vi upp det i två delar med hjälp av HMP, en del kan representeras av en konversationslexikon, och den andra delen kan representeras av en brusordbok. I det tredje steget utvärderas den del som representeras av samtalslexikonet som ren konversation.

Bioinformatik

NMR har framgångsrikt tillämpats i bioinformatik för att samla genuttryck och DNA-metyleringsdata och söka efter gener som de flesta representerar kluster [22] [62] [63] [64] . I cancermutationsanalys används detta för att belysa vanliga mutationsmekanismer som förekommer i många cancerformer och eventuellt har olika orsaker [65] .

Radionuklidavbildning

NMR, som inom detta område kallas faktoranalys, har använts här sedan 1980 -talet [66] för bildsekvensanalys i SPECT och PET . Tvetydigheten i NMR löstes genom att införa en sparsitetsbegränsning [67] .

Aktuell forskning

Aktuell forskning (sedan 2010) om icke-negativ matrisupplösning inkluderar men är inte begränsad till följande frågor

  1. Algoritmiska frågor: sök efter det globala minimum av faktorer och initiering av faktorn [68] .
  2. Skalningsproblem: hur man bryter ner de miljon-för-miljard-matriser som uppstår när man analyserar data i nätverk. Se artiklarna "Distribuerad icke-negativ matrisfaktorering (DNMF)" [69] och "Skalbar icke-negativ matrisfaktorering (ScalableNMF)" [70] .
  3. Onlinebearbetning: hur man uppdaterar nedbrytningen när nya data kommer in, utan att göra en fullständig beräkning från grunden [71] .
  4. Co-Decomposition: Nedbrytning av flera i sig besläktade matriser för multi-position klustring, se CoNMF [72] och MultiNMF [73] .
  5. Cohen och Rothblums problem från 1993: Har en rationell matris alltid en NMP med minsta inneboende dimension vars faktorer också är rationella. Nyligen besvarades denna fråga nekande [74] .

Se även

Anteckningar

  1. 1 2 3 Dhillon, Sra, 2005 .
  2. Tandon, Sra, 2010 .
  3. 1 2 3 Blanton, Roweis, 2007 , sid. 734-754.
  4. 1 2 3 4 5 6 7 Ren, Pueyo, Zhu, Duchêne, 2018 , sid. 104.
  5. 1 2 Gemulla, Nijkamp, ​​​​Haas, Sismanis, 2011 , sid. 69–77.
  6. Bao, 2014 .
  7. Murrell, 2011 , sid. e28898.
  8. Lawton, Sylvestre, 1971 , sid. 617+.
  9. Paatero och Tapper 1994 , sid. 111–126.
  10. Anttila, Paatero, Tapper, Järvinen, 1995 , sid. 1705-1718.
  11. 1 2 Lee, Seung, 1999 , sid. 788-791.
  12. 1 2 Lee, Seung, 2001 , sid. 556-562.
  13. 1 2 3 Ding, He, Simon, 2005 , sid. 606-610.
  14. Ding, Li, Peng, 2008 , sid. 3913-3927.
  15. 1 2 Ding, Li, Jordanien, 2010 , sid. 45-55.
  16. Berman, Plemmons, 1974 , sid. 161–172.
  17. Berman, Plemmons, 1994 .
  18. Thomas, 1974 , sid. 393–394.
  19. Vavasis, 2009 , sid. 1364–1377.
  20. Zhang, Fang, Liu, Tang et al., 2008 , sid. 1824–183
  21. 12 Hoyer , 2002 .
  22. 1 2 Taslaman, Nilsson, 2012 , sid. e46331.
  23. Hsieh, Dhillon, 2011 , sid. 1064.
  24. Arkiverad kopia . Hämtad 16 oktober 2018. Arkiverad från originalet 24 september 2015.
  25. Fung, Li, Cheung, 2007 , sid. 284–287.
  26. Guan, Tao, Luo, Yuan, 2012 , sid. 1087–1099.
  27. 12 Lin , 2007 , sid. 2756–2779.
  28. Lin, 2007 , sid. 1589–1596
  29. Kim, Park, 2008 , sid. 713-730.
  30. Guan, Tao, Luo, Yuan, 2012 , sid. 2882–2898.
  31. Kim, Park, 2011 , sid. 3261-3281.
  32. Kim, He, Park, 2013 , sid. 285-319.
  33. 1 2 Zhu, Guangtun B. (2016-12-19), Nonnegative Matrix Factorization (NMF) with Heteroscedastic Uncertainties and Missing data, arΧiv : 1612.06037 [astro-ph.IM]. 
  34. 1 2 Soummer, Pueyo, Larkin, 2012 , sid. L28.
  35. 1 2 3 Pueyo, 2016 , sid. 117.
  36. Campbell, Poole, 1981 , sid. 175–182.
  37. Kalofolias, Gallopoulos, 2012 , sid. 421–435.
  38. 1 2 Arora, Ge, Halpern, Mimno et al., 2013 .
  39. Lee, Seung, 1999 , sid. 788–791.
  40. Buntine, 2002 , sid. 23–34.
  41. Gaussier och Goutte 2005 , sid. 601–602.
  42. Zass, Shashua, 2005 .
  43. Welling, Rosen-zvi, Hinton, 2004 .
  44. Paatero, 1999 , sid. 854-888.
  45. Welling, Weber, 2001 , sid. 1255-1261.
  46. Kim, Park, 2012 , sid. 311-326.
  47. Yilmaz, Cemgil, Simsekli, 2011 .
  48. Potluru, Plis, Morup, Calhoun, Lane, 2009 , sid. 1218–1229.
  49. Xu, Liu, Gong, 2003 , sid. 267-273.
  50. Eggert, Körner, 2004 , sid. 2529-2533.
  51. Lafrenière, Maroid, Doyon, Barman, 2009 .
  52. Amara, Quanz, 2012 , sid. 948.
  53. Wahhaj, Cieza, Mawet, Yang et al., 2015 , sid. A24.
  54. Nielsen, Balslev, Hansen, 2005 , sid. 520–522.
  55. Cohen, 2005 .
  56. Berry och Browne, 2005 , sid. 249-264.
  57. Nielsen, 2008 .
  58. Berry, Browne, Langville, Pauca, Plemmons, 2007 , sid. 155-173.
  59. Mao, Saul, Smith, 2006 , sid. 2273-2284.
  60. Chen, Wang, Shi, 2011 , sid. 334–347.
  61. Schmidt, Larsen, Hsiao, 2007 , sid. 431–436.
  62. Devarajan, 2008 , sid. e1000029.
  63. Kim, Park, 2007 , sid. 1495-1502.
  64. Schwalbe, 2013 , sid. 359-371.
  65. Alexandrov, Nik-Zainal, Wedge, Campbell, Stratton, 2013 , sid. 246–259.
  66. Di Paola, Bazin, Aubry, Aurengo et al., 1982 , sid. 1310–21.
  67. Sitek, Gullberg, Huesman, 2002 , sid. 216–25.
  68. Boutsidis, Gallopoulos, 2008 , sid. 1350–1362
  69. Liu, Yang, Fan, He, Wang, 2010 .
  70. Yin, Gao, Zhang, 2014 .
  71. Wang, Vipperla, Evans, Zheng, 2013 , sid. 44–56.
  72. He, Kan, Xie, Chen, 2014 .
  73. Liu, Wang, Gao, Han, 2013 , sid. 252–260.
  74. Chistikov, Dmitrij; Kiefer, Stefan; Marusic, Ines; Shirmohammadi, Mahsa & Worrell, James (2016-05-22), Icke-negativ matrisfaktorisering kräver irrationalitet, arΧiv : 1605.06848 [cs.CC]. 

Litteratur

Ytterligare läsning