Canonical Correlation Analysis ( CCA ) är ett sätt att få information från korskorrelationsmatriser . Om vi har två vektorer och slumpvariabler , och det finns korrelationer mellan dessa variabler, kommer kanonisk korrelationsanalys att hitta den linjära kombinationen av X och Y som har den maximala korrelationen [1] . T. R. Knapp observerade att "nästan alla vanliga parametriska signifikanstester kan behandlas som ett specialfall av kanonisk korrelationsanalys, vilket är en allmän procedur för att undersöka samband mellan två uppsättningar av variabler" [2] . Metoden introducerades först av Harold Hotelling 1936 [3] .
Med tanke på två kolumnvektorer och slumpvariabler med ändliga sekundmoment , kan man definiera korskorrelation som en matris vars element är kovarianser . I praktiken uppskattar vi kovariansmatrisen baserat på exempeldata från och (dvs från ett par datamatriser).
Kanonisk korrelationsanalys letar efter vektorer ( ) och ( ) så att de slumpmässiga variablerna och maximerar korrelationen . Slumpvariabler och är det första paret av kanoniska variabler . Sedan genomsöks vektorer som maximerar samma korrelation med begränsningen att de inte är korrelerade med det första paret av kanoniska variabler, detta ger det andra paret av kanoniska variabler . Denna procedur kan fortsätta upp till gånger.
( a " , b " ) = argmax a , b corr ( a T X , b T Y ) {\displaystyle (a',b')={\underset {a,b}{\operatörsnamn {argmax} }}\operatörsnamn {corr} (a^{T}X,b^{T}Y)}Låt och . Maximerad parameter
I det första steget ändrar vi grunden och bestämmer
Då har vi
Av Cauchy-Bunyakovsky ojämlikheten får vi
En ojämlikhet blir en likhet om vektorerna och är kolinjära . Dessutom uppnås den maximala korrelationen när är egenvektorn med det maximala egenvärdet för matrisen (se Rayleigh relation ). Nästa par hittas genom att använda det näst största egenvärdet . Ortogonalitet garanteras av symmetrin hos korrelationsmatriserna.
Lösning:
Följaktligen också
Med en omvänd förändring av koordinater får vi
De kanoniska variablerna definieras av likheterna:
CCA kan beräknas med hjälp av singularvärdesuppdelningen av korrelationsmatrisen [4] . Kanonisk korrelation är tillgänglig som en funktion i följande system [5] .
Varje rad testas för signifikans med hjälp av följande metod. Eftersom korrelationerna är sorterade, innebär påståendet att raden är noll att alla ytterligare korrelationer också är noll. Om vi har oberoende observationer i urvalet och är den uppskattade korrelationen för , för den -th raden kommer signifikanskriteriet att vara:
som är asymptotiskt fördelad som en chi-kvadrat med frihetsgrader för stor [6] . Eftersom alla korrelationer från till är noll, är produkten av termer efter denna punkt irrelevant.
En typisk användning av kanonisk korrelation i ett experimentellt sammanhang är att betrakta två uppsättningar av variabler och undersöka vad de två uppsättningarna har gemensamt [7] . Till exempel, inom psykologisk forskning kan man ta två etablerade multivariata personlighetstest såsom Minnesota Multidimensional Personality Inventory (MMPI-2) och NEO . Genom att titta på hur MMPI-2-faktorerna relaterar till NEO-faktorerna kan man upptäcka vilka egenskaper som visade sig vara gemensamma mellan de två testerna och hur mycket variablerna är gemensamma. Till exempel kan man finna att egenskaper som extraversion eller neuroticism utgör en väsentlig del av de gemensamma variablerna för de två testerna.
Du kan också använda kanonisk korrelationsanalys för att erhålla en likhet som relaterar två uppsättningar av variabler, såsom en uppsättning prestandamätningar och en uppsättning förklarande variabler, eller en utdatauppsättning och en ingångsuppsättning. Begränsande villkor kan ställas på en sådan modell för att ge teoretiska eller intuitivt uppenbara krav. Denna typ av modell är känd som den maximala korrelationsmodellen [8] .
Visualisering av resultaten av kanonisk korrelation görs vanligtvis genom ett stapeldiagram av koefficienterna för två uppsättningar av variabler för par av kanoniska variabler, som visar en signifikant korrelation. Vissa författare föreslår att det är bättre att visualisera resultaten på en heliograf, som är ett cirkeldiagram med staplar som strålar, varav hälften representerar en uppsättning variabler och den andra halvan en andra uppsättning [9] .
Låt med noll matematisk förväntan , d.v.s. . Om , dvs. och är helt korrelerade, då till exempel och , så det första (endast för detta exempel) paret av kanoniska variabler är och . Om , dvs. och är helt anti-relaterade, sedan och , så det första (endast för detta exempel) paret av kanoniska variabler är och . Observera att i båda fallen , vilket visar att kanonisk korrelationsanalys fungerar exakt likadant med korrelerade variabler som med antikorrelerade.
Låt oss anta det och ha noll matematiska förväntningar , dvs. . Deras kovariansmatriser och kan betraktas som Gram-matriser med inre produkt för resp . I denna tolkning behandlas slumpvariabler, element i vektorn och element i vektorn , som element i ett vektorrum med den skalära produkten som ges av kovariansen .
Definitionen av kanoniska variabler och är då ekvivalent med definitionen av rotvektorer för par av delrum som spänns av och , med hänsyn till denna skalära produkt . Den kanoniska korrelationen är lika med cosinus för vinkeln mellan delrum.
CCA kan också betraktas som en speciell blekningstransformation [10] , där de slumpmässiga vektorerna och samtidigt transformeras på ett sådant sätt att korskorrelationsmatrisen mellan de blekta vektorerna och är diagonal [11] .
De kanoniska korrelationerna tolkas sedan som regressionskoefficienter för , och , och de kan vara negativa. Att se på CCA som en regression ger ett sätt att bygga en latent variabel generativ probabilistisk modell för CCA med okorrelerade latenta variabler som representerar den totala och partiella variansen.
Maskininlärning och datautvinning | |
---|---|
Uppgifter | |
Att lära sig med en lärare | |
klusteranalys | |
Dimensionalitetsreduktion | |
Strukturell prognos | |
Anomali upptäckt | |
Grafisk probabilistiska modeller | |
Neurala nätverk | |
Förstärkningsinlärning |
|
Teori | |
Tidskrifter och konferenser |
|