Analiza de corelație canonică ( CCA ) este o modalitate de a obține informații din matrice de corelație încrucișată . Dacă avem doi vectori și variabile aleatoare și există corelații între aceste variabile, atunci analiza corelației canonice va găsi combinația liniară a X și Y care are corelația maximă [1] . T. R. Knapp a remarcat că „practic toate testele parametrice utilizate în mod obișnuit semnificația poate fi tratată ca un caz special de analiză a corelației canonice, care este o procedură generală de explorare a relațiilor dintre două seturi de variabile” [2] . Metoda a fost introdusă pentru prima dată de Harold Hotelling în 1936 [3] .
Având în vedere doi vectori coloană și variabile aleatoare cu momente secunde finite , se poate defini corelația încrucișată ca o matrice ale cărei elemente sunt covarianțe . În practică, estimăm matricea de covarianță pe baza datelor eșantion de la și (adică dintr-o pereche de matrice de date).
Analiza corelației canonice caută vectori ( ) și ( ) astfel încât variabilele aleatoare și să maximizeze corelația . Variabile aleatoare și sunt prima pereche de variabile canonice . Apoi sunt căutați vectori care maximizează aceeași corelație cu constrângerea că nu sunt corelați cu prima pereche de variabile canonice, aceasta dă a doua pereche de variabile canonice . Această procedură poate fi continuată de până la ori.
( A ′ , b ′ ) = argmax A , b corr ( A T X , b T Y ) {\displaystyle (a',b')={\underset {a,b}{\operatorname {argmax} }}\operatorname {corr} (a^{T}X,b^{T}Y)}Lasă și . Parametru maximizat
La primul pas, schimbăm baza și determinăm
Atunci noi avem
Prin inegalitatea Cauci-Bunyakovsky, obținem
O inegalitate devine o egalitate dacă vectorii și sunt coliniari . În plus, corelația maximă este atinsă când este vectorul propriu cu valoarea proprie maximă pentru matrice (vezi relația Rayleigh ). Următoarea pereche este găsită folosind următoarea valoare proprie cea mai mare . Ortogonalitatea este garantată de simetria matricelor de corelație.
Soluţie:
În consecință, de asemenea
Cu o schimbare inversă a coordonatelor, obținem
Variabilele canonice sunt definite de egalitățile:
CCA poate fi calculat folosind descompunerea valorii singulare a matricei de corelație [4] . Corelația canonică este disponibilă ca o caracteristică în următoarele sisteme [5] .
Fiecare rând este testat pentru semnificație folosind următoarea metodă. Deoarece corelațiile sunt sortate, afirmația că rândul este nul implică faptul că toate corelațiile ulterioare sunt, de asemenea, nule. Dacă avem observații independente în eșantion și este corelația estimată pentru , pentru rândul --lea criteriul de semnificație va fi:
care este distribuit asimptotic ca un chi-pătrat cu grade de libertate pentru mari [6] . Deoarece toate corelațiile de la până la sunt zero, produsul termenilor după acest punct este irelevant.
O utilizare tipică a corelației canonice într-un context experimental este de a lua în considerare două seturi de variabile și de a examina ce au în comun cele două seturi [7] . De exemplu, în cercetarea psihologică, se pot lua două teste de personalitate multivariate stabilite , cum ar fi Minnesota Multidimensional Personality Inventory (MMPI-2) și NEO . Privind modul în care factorii MMPI-2 se leagă de factorii NEO, se poate descoperi care caracteristici au fost găsite a fi comune între cele două teste și cât de mult sunt comune variabilele. De exemplu, s-ar putea descoperi că caracteristici precum extraversia sau nevroticismul constituie o parte substanțială a variabilelor comune pentru cele două teste.
De asemenea, puteți utiliza analiza de corelație canonică pentru a obține o egalitate care leagă două seturi de variabile, cum ar fi un set de măsurători de performanță și un set de variabile explicative sau un set de ieșire și un set de intrare. Un astfel de model pot fi impuse condiții limitative pentru a oferi cerințe teoretice sau intuitiv evidente. Acest tip de model este cunoscut ca model de corelație maximă [8] .
Vizualizarea rezultatelor corelației canonice se face de obicei printr-un grafic cu bare a coeficienților a două seturi de variabile pentru perechi de variabile canonice, arătând o corelație semnificativă. Unii autori sugerează că este mai bine să vizualizați rezultatele pe un heliograf, care este o diagramă circulară cu bare ca raze, dintre care jumătate reprezintă un set de variabile și cealaltă jumătate un al doilea set [9] .
Fie cu zero așteptări matematice , i.e. . Dacă , adică și sunt complet corelate, atunci, de exemplu, și , deci prima (doar pentru acest exemplu) pereche de variabile canonice este și . Dacă , adică și sunt complet anticorelate, atunci și , deci prima (doar pentru acest exemplu) pereche de variabile canonice este și . Rețineți că în ambele cazuri , ceea ce arată că analiza corelației canonice funcționează exact la fel cu variabilele corelate ca și cu cele anticorelate.
Să presupunem că și să avem zero așteptări matematice , i.e. . Matricele lor de covarianță și pot fi considerate ca matrici Gram cu produs interior pentru și respectiv. În această interpretare, variabilele aleatoare, elementele vectorului și elementele vectorului , sunt tratate ca elemente ale unui spațiu vectorial cu produsul scalar dat de covarianță .
Definiția variabilelor canonice și este apoi echivalentă cu definiția vectorilor rădăcină pentru perechile de subspații acoperite de și , ținând cont de acest produs scalar . Corelația canonică este egală cu cosinusul unghiului dintre subspații.
CCA poate fi considerată și ca o transformare specială de albire [10] , în care vectorii aleatori și sunt transformați simultan în așa fel încât matricea de corelație încrucișată dintre vectorii albiți și să fie diagonală [11] .
Corelațiile canonice sunt apoi interpretate ca coeficienți de regresie relaționând , și , și pot fi negative. Privind la CCA ca regresie oferă o modalitate de a construi un model probabilist generativ de variabile latente pentru CCA cu variabile latente necorelate reprezentând varianța totală și parțială.
Învățare automată și extragerea datelor | |
---|---|
Sarcini | |
Învățarea cu un profesor | |
analiza grupului | |
Reducerea dimensionalității | |
Prognoza structurală | |
Detectarea anomaliilor | |
Modele grafice probabilistice | |
Rețele neuronale | |
Consolidarea învățării |
|
Teorie | |
Reviste și conferințe |
|