Descompunerea spectrală a unei matrice sau descompunerea unei matrice pe baza vectorilor proprii este o reprezentare a unei matrice pătrate ca produs a trei matrice , unde este o matrice ale cărei coloane sunt vectorii proprii ai matricei , este o matrice diagonală cu valori proprii corespunzătoare pe diagonala principală, este inversul matricei .
Numai matricele care au un set complet de vectori proprii, adică o mulțime de n vectori proprii liniar independenți , unde n este ordinul matricei , pot fi reprezentate în această formă .
Descompunerea spectrală poate fi utilizată pentru a găsi valori proprii și vectori proprii ai unei matrice, rezolva sisteme de ecuații liniare, inversează o matrice, găsiți determinantul unei matrici și calcula funcțiile analitice ale matricelor.
Un vector N - dimensional diferit de zero este un vector propriu al unei matrice pătrate dacă satisface ecuația liniară
,unde este un scalar numit valoare proprie a matricei și corespunzător vectorului propriu . Adică, vectorii proprii sunt vectorii pe care transformarea liniară doar îi prelungește sau îi scurtează, iar valoarea proprie este factorul de modificare a lungimii. Ecuația de mai sus se numește ecuație cu valori proprii sau problemă cu valori proprii .
Ecuația de mai sus poate fi privită ca un sistem omogen de ecuații liniare
,unde este un parametru scalar și este o soluție netrivială a unui sistem omogen de ecuații liniare. Soluțiile netriviale ale unui sistem omogen de ecuații liniare există numai atunci când determinantul matricei sistemului este egal cu zero, i.e.
Polinomul se numește polinomul caracteristic al matricei , iar ecuația de mai sus se numește ecuație caracteristică . Ecuația caracteristică este o ecuație polinomială de ordinul al N -lea în variabilă . Această ecuație are rădăcini diferite , unde . Mulțimea soluțiilor, adică valorile proprii, se numește spectrul matricei [1] [2] [3] .
Factorizăm polinomul caracteristic :
Numărul natural n i se numește multiplicitatea algebrică a valorii proprii . Dacă câmpul scalarilor este închis algebric , suma multiplicităților algebrice este N :
Pentru fiecare valoare proprie, se rezolvă o ecuație separată pentru vectorii proprii:
Există soluții liniar independente pentru fiecare astfel de ecuație. Combinațiile liniare de m i soluții sunt vectori proprii asociați cu valoarea proprie . Numărul întreg m i se numește multiplicitatea geometrică a valorii . Multiplicitatea algebrică și multiplicitatea geometrică pot să nu coincidă, dar întotdeauna . Numărul total de vectori proprii liniar independenți poate fi calculat prin însumarea multiplicităților geometrice
Vectorii proprii pot fi indexați prin valori proprii folosind un indice dublu, ceea ce ar însemna atunci j -lea vector propriu pentru i -a valoare proprie. O indexare mai simplă folosește un singur index unde .
Fie o matrice pătrată cu n vectori proprii liniar independenți q i ( ). Apoi te poți descompune
,unde este o matrice pătrată a cărei i - a coloană este vectorul propriu al matricei , și este o matrice diagonală ale cărei elemente diagonale sunt valorile proprii corespunzătoare, . Rețineți că numai matricele diagonalizabile pot fi descompuse în acest fel. De exemplu, o matrice de deplasare nu poate fi diagonalizată.
De obicei, vectorii proprii q i sunt normalizați , dar acest lucru nu este necesar; un set nenormalizat de n vectori proprii v i poate fi, de asemenea, utilizat ca coloane de matrice .
Descompunerea poate fi obținută din proprietatea fundamentală a vectorilor proprii:
Matrice reală
poate fi redusă la o formă diagonală prin înmulțire cu o matrice nesingulară
Apoi
pentru o matrice diagonală reală .
Înmulțind ambele părți ale egalității din stânga cu , obținem:
Egalitatea de mai sus poate fi descompusă în două sisteme de ecuații :
Scoaterea valorilor proprii x și y :
Primim
care ne oferă două ecuații vectoriale:
Ultimul sistem poate fi reprezentat printr-o singură ecuație vectorială, incluzând soluții pentru două valori proprii:
,unde reprezintă cele două valori proprii x și y și reprezintă vectorii și .
Deplasându -ne în partea stângă și scoatem , obținem
Deoarece matricea nu este degenerată, este important ca vectorul să nu fie nul. De aceea,
Apoi
ne oferă soluțiile cu valori proprii pentru matrice ca sau , iar matricea diagonală rezultată din descompunerea matricei este atunci .
Dacă înlocuim soluțiile înapoi în sistemul de ecuații de mai sus, obținem
Rezolvând ecuațiile, obținem
Atunci matricea necesară pentru factorizarea matricei este
Acesta este:
Fie ca matricea să aibă o descompunere spectrală și niciuna dintre valorile proprii ale matricei să nu fie egală cu zero. În acest caz, matricea nu este singulară , iar matricea sa inversă se găsește prin formula
Dacă matricea este o matrice simetrică , atunci matricea este garantată a fi ortogonală , adică . Și, deoarece matricea este diagonală , atunci inversul său este ușor de calculat:
Valoare practică [4]Dacă descompunerea vectorului propriu este utilizată pe o matrice măsurată cu date reale , atunci matricea inversă poate fi condiționată mai rău dacă toate valorile proprii sunt utilizate în formă neschimbată. Ideea este că atunci când valorile proprii devin relativ mici, contribuția inverselor lor la matricea inversă este mare. Aceste valori aproape de zero sau „zgomot” ale sistemului de măsurare vor avea o influență nejustificată și pot interfera cu soluția de inversare.
Au fost propuse două opțiuni de atenuare: eliminarea valorilor proprii mici sau zero și copierea celei mai mici valori de încredere în altele mai mici.
Prima opțiune de atenuare este similară cu matricea rară inițială, în care sunt eliminate elementele care sunt considerate nesemnificative. Cu toate acestea, dacă se constată că procesul de soluție este aproape de nivelul de zgomot, rollback-ul poate elimina componentele care afectează soluția dorită.
A doua opțiune de atenuare copiază valoarea proprie, astfel încât valorile mai mici să aibă un efect mai mic asupra rezultatului inversării, dar totuși să contribuie astfel încât să poată fi găsite soluții chiar și apropiate de nivelul de zgomot.
O valoare proprie de încredere poate fi găsită în ipoteza că valorile proprii sunt extrem de apropiate, iar valoarea scăzută este o bună reprezentare a zgomotului de măsurare (care se presupune că este scăzut pentru majoritatea sistemelor).
Dacă valorile proprii sunt ordonate după mărime, o valoare proprie de încredere poate fi găsită prin minimizarea Laplacianului valorilor proprii sortate [5] :
,unde valorile proprii sunt marcate cu s pentru a indica sortarea (din engleză sortat). Locația minimului este cea mai mică valoare proprie de încredere. În sistemele de măsurare, rădăcina pătrată a acestei valori proprii de încredere este zgomotul mediu în raport cu celelalte componente ale sistemului.
Fie ca matricea pătrată să aibă o descompunere . Apoi, ridicarea matricei la o putere naturală se calculează printr-o formulă simplă:
aici produsele se anulează în expresia intermediară . Operația de ridicare la o putere naturală vă permite să definiți diferite funcții peste matrici, care sunt exprimate sub formă de serii de puteri. Fie ca funcția să aibă o expansiune într-o serie de puteri
Descompunerea unei matrice în termeni de valori proprii vă permite să calculați rapid seria de puteri din matrice. Fie f ( x ) dat de o serie de puteri
În conformitate cu formula pentru puterea matricei de mai sus, seria de puteri pentru matrice poate fi calculată folosind formula
,unde este o funcție a matricei diagonale , care poate fi calculată foarte ușor:
În acest caz, elementele off-diagonale ale matricei sunt egale cu zero. Adică este și o matrice diagonală. Ca urmare, calculul unei funcții dintr-o matrice se reduce la un simplu calcul al unei funcții din fiecare dintre valorile proprii.
O tehnică similară funcționează și în general în calculul funcțional holomorf , folosind formula
este posibil să se calculeze serii de puteri din matrice care conțin exponenți negativi. Aici din nou se folosește că .
Rădăcina pătrată a unei matrice:
Să-l pătram și să ne asigurăm că este corect:
Exponentul matricei este definit într-un mod similar :
O matrice pătrată complexă este normală (adică unde este conjugat hermitian ) dacă și numai dacă poate fi descompusă
unde este unitar (ceea ce înseamnă că ) și este o matrice diagonală [6] . Coloanele matricei formează o bază ortonormală și sunt vectori proprii ai matricei cu valorile proprii corespunzătoare .
Dacă clasa de matrici este limitată la matrici hermitiene ( ), atunci are doar valori reale. Dacă clasa de matrici este limitată la matrici unitare, atunci toate valorile se află pe cercul unitar complex, adică .
Pentru orice matrice simetrică reală , valorile proprii sunt reale, iar vectorii proprii pot fi aleși să fie reali și ortonormali . Astfel, o matrice simetrică reală poate fi descompusă în
unde este o matrice ortogonală ale cărei coloane sunt vectorii proprii ai matricei și este o matrice diagonală ale cărei valori pe diagonală sunt egale cu valorile proprii ale matricei [7] .
Să presupunem că este necesar să se calculeze valorile proprii ale unei matrice date. Dacă dimensiunile matricei sunt mici, valorile proprii pot fi calculate simbolic folosind polinomul caracteristic . Cu toate acestea, acest lucru nu este adesea posibil pentru matrice mari, caz în care sunt utilizate metode numerice .
În practică, valorile proprii ale matricelor mari nu sunt calculate folosind polinomul caracteristic. Calculul unui polinom devine în sine consumator de timp și consumator de timp, iar rădăcinile exacte (simbolice) ale unui polinom de grad înalt sunt greu de calculat și exprimat - rezultă din teorema lui Abel privind imposibilitatea de rezolvare a ecuațiilor în radicali că rădăcinile polinoamelor de grad înalt (5 și mai mare) nu pot fi în cazul general sunt prezentate ca expresii din rădăcinile de gradul al n -lea . Din acest motiv, algoritmii generali pentru găsirea vectorilor proprii și a valorilor proprii funcționează iterativ .
Există algoritmi numerici iterativi pentru aproximarea rădăcinilor polinoamelor, cum ar fi metoda lui Newton , dar, în general, este imposibil să construiți un polinom caracteristic și apoi să aplicați aceste metode. Un motiv este că erorile mici de rotunjire în coeficienții polinomului caracteristic pot duce la erori mari în valorile proprii și vectorii proprii — rădăcinile sunt o funcție extrem de prost condiționată a coeficienților [8] .
O metodă iterativă simplă și precisă este metoda puterii - se selectează un vector aleatoriu și se calculează o secvență de vectori unitari
Această secvență converge aproape întotdeauna către un vector propriu care corespunde celei mai mari valori proprii, cu condiția ca vectorul corespunzător acestui vector propriu să aibă o componentă diferită de zero pe baza vectorilor proprii (și, de asemenea, cu condiția să existe doar o singură valoare proprie cea mai mare). Acest algoritm simplu este util în unele aplicații practice. De exemplu, Google îl folosește pentru a calcula clasamentul link-urilor documentelor din motorul lor de căutare [9] . De asemenea, metoda puterii este punctul de plecare pentru mulți alți algoritmi complexi. De exemplu, dacă stocați nu numai ultimul vector al secvenței, ci priviți în intervalul liniar al tuturor vectorilor secvenței, puteți obține o aproximare mai bună (convergând mai rapid) a vectorului propriu, iar această idee stă la baza lui Arnoldi . iterație [8] . De asemenea, algoritmul QR important se bazează pe o metodă de putere ușor modificată [8] .
Odată ce valorile proprii au fost calculate, vectorii proprii pot fi calculați prin rezolvarea ecuației
folosind eliminarea gaussiana sau orice alta metoda de rezolvare a unei ecuatii matriceale .
Cu toate acestea, în metodele practice de găsire a valorilor proprii ale matricelor mari, vectorii proprii sunt de obicei calculați în alte moduri ca un produs secundar al calculului valorilor proprii. În metoda puterii , de exemplu, vectorul propriu este în general calculat înainte de a fi calculată valoarea proprie (care este de obicei calculată conform relației Rayleigh pentru vectorul propriu) [8] . În algoritmul QR pentru o matrice hermitiană (sau orice matrice normală ), vectorii proprii ortonormali sunt obținuți ca un produs matriceal din etapele algoritmului [8] . (Pentru matrici mai generale, algoritmul QR efectuează mai întâi o descompunere Schur , din care vectorii proprii pot fi obținuți prin înlocuire inversă [10] ) Pentru matricele hermitiene , algoritmul de căutare a valorilor proprii divide-and-conquer este mai eficient decât Algoritm QR dacă sunt necesari atât vectorii proprii, cât și valorile proprii [8] .
Reamintim că multiplicitatea geometrică a unei valori proprii poate fi descrisă ca dimensiunea spațiului propriu asociat, nucleul matricei . Multiplicitatea algebrică poate fi gândită și ca o dimensiune - este dimensiunea spațiului propriu generalizat asociat (în primul sens), care este nucleul unei matrice pentru orice k suficient de mare . Adică, este spațiul vectorilor proprii generalizați (în primul sens), unde un vector propriu generalizat este orice vector care devine în cele din urmă 0 dacă este aplicat de destule ori. Orice vector propriu este un vector propriu generalizat și, prin urmare, orice spațiu propriu este conținut în spațiul propriu generalizat asociat. Aceasta oferă o dovadă simplă că multiplicitatea geometrică nu depășește niciodată multiplicitatea algebrică.
Această utilizare nu trebuie confundată cu problema valorilor proprii generalizate descrisă mai jos.
Un vector propriu conjugat este un vector care, după o transformare liniară, trece (până la înmulțirea cu un scalar) în conjugatul său. Scalarul se numește atunci valoarea proprie conjugată a transformării liniare. Vectorii proprii și valorile proprii conjugați reprezintă în esență aceleași informații ca vectorii și valorile proprii obișnuite, dar apar atunci când sunt utilizate alte sisteme de coordonate. Egalitatea corespunzătoare va fi
De exemplu, în teoria împrăștierii electromagnetice coerente, transformarea liniară reprezintă acțiunea întreprinsă de obiectul de împrăștiere, iar vectorii proprii reprezintă stările de polarizare ale undei electromagnetice. În optică , sistemul de coordonate este definit din punct de vedere al undei, cunoscut sub numele de Forward Scattering Alignment ( eng. Forward Scattering Alignment , FSA), și generează ecuații obișnuite cu valori proprii, în timp ce în radar , sistemul de coordonate este definit din parte a radarului, este cunoscut sub denumirea de aliniere cu dispersie inversă ( Eng. Back Scattering Alignment , BSA) și generează ecuații pentru vectorii proprii conjugați.
Problema generalizată a găsirii valorilor proprii (în al doilea sens) este problema găsirii unui vector care satisface egalitatea
unde și sunt matrici. Dacă satisface această egalitate pentru unele , atunci numim vectorul propriu generalizat al matricelor și (în al doilea sens), și se numește valoarea proprie generalizată a matricelor și (în al doilea sens), corespunzător vectorului propriu generalizat . Valorile posibile trebuie să satisfacă următoarea egalitate
Dacă este posibil să găsim vectori liniar independenți astfel încât pentru orice , , definim matrici și după cum urmează
Atunci este valabilă următoarea egalitate
Dovada
Și întrucât este reversibil, înmulțim cu acest invers și obținem rezultatul dorit.
Setul de matrici de forma , unde este un număr complex, se numește snop . Termenul snop de matrice se poate referi și la o pereche de matrice [11] .
Dacă matricea este inversabilă, atunci problema inițială poate fi rescrisă ca
care este problema standard de valori proprii. În majoritatea situațiilor, totuși, este de nedorit să se efectueze această inversare, ci să se rezolve problema cu valori proprii generalizate. Acest lucru este deosebit de important dacă matricele și sunt hermitiene , deoarece în acest caz de obicei nu este hermitian în general și proprietățile importante ale soluției nu mai apar.
Dacă ambele matrice și sunt simetrice și hermitiene și sunt, de asemenea , definite pozitive , valorile proprii sunt reale, iar vectorii proprii și cu valori proprii diferite sunt -ortogonali ( ) [12] . În acest caz, vectorii proprii pot fi aleși astfel încât matricea definită mai sus să îndeplinească condițiile
sau ,și există o bază de vectori proprii generalizați (nu este o matrice de defect ) [11] . Acest caz este uneori numit un snop definit hermitian [11] .
Vectori și matrici | |||||||||
---|---|---|---|---|---|---|---|---|---|
Vectori |
| ||||||||
matrici |
| ||||||||
Alte |