Descompunerea spectrală a unei matrice

Descompunerea spectrală a unei matrice sau descompunerea unei matrice pe baza vectorilor proprii este o reprezentare a unei matrice pătrate ca produs a trei matrice , unde este o matrice ale cărei coloane sunt vectorii proprii ai matricei , este o matrice diagonală cu valori proprii corespunzătoare pe diagonala principală, este inversul matricei .

Numai matricele care au un set complet de vectori proprii, adică o mulțime de n vectori proprii liniar independenți , unde n este ordinul matricei , pot fi reprezentate în această formă .

Descompunerea spectrală poate fi utilizată pentru a găsi valori proprii și vectori proprii ai unei matrice, rezolva sisteme de ecuații liniare, inversează o matrice, găsiți determinantul unei matrici și calcula funcțiile analitice ale matricelor.

Teoria vectorilor proprii și a valorilor proprii matriceale

Un vector N - dimensional diferit de zero este un vector propriu al unei matrice pătrate dacă satisface ecuația liniară

,

unde este un scalar numit valoare proprie a matricei și corespunzător vectorului propriu . Adică, vectorii proprii sunt vectorii pe care transformarea liniară doar îi prelungește sau îi scurtează, iar valoarea proprie este factorul de modificare a lungimii. Ecuația de mai sus se numește ecuație cu valori proprii sau problemă cu valori proprii .

Ecuația de mai sus poate fi privită ca un sistem omogen de ecuații liniare

,

unde este un parametru scalar și este o soluție netrivială a unui sistem omogen de ecuații liniare. Soluțiile netriviale ale unui sistem omogen de ecuații liniare există numai atunci când determinantul matricei sistemului este egal cu zero, i.e.

Polinomul se numește polinomul caracteristic al matricei , iar ecuația de mai sus se numește ecuație caracteristică . Ecuația caracteristică este o ecuație polinomială de ordinul al N -lea în variabilă . Această ecuație are rădăcini diferite , unde . Mulțimea soluțiilor, adică valorile proprii, se numește spectrul matricei [1] [2] [3] .

Factorizăm polinomul caracteristic :

Numărul natural n i se numește multiplicitatea algebrică a valorii proprii . Dacă câmpul scalarilor este închis algebric , suma multiplicităților algebrice este N :

Pentru fiecare valoare proprie, se rezolvă o ecuație separată pentru vectorii proprii:

Există soluții liniar independente pentru fiecare astfel de ecuație. Combinațiile liniare de m i soluții sunt vectori proprii asociați cu valoarea proprie . Numărul întreg m i se numește multiplicitatea geometrică a valorii . Multiplicitatea algebrică și multiplicitatea geometrică pot să nu coincidă, dar întotdeauna . Numărul total de vectori proprii liniar independenți poate fi calculat prin însumarea multiplicităților geometrice

Vectorii proprii pot fi indexați prin valori proprii folosind un indice dublu, ceea ce ar însemna atunci j -lea vector propriu pentru i -a valoare proprie. O indexare mai simplă folosește un singur index unde .

Descompunerea matricei folosind vectori proprii

Fie o matrice pătrată cu n vectori proprii liniar independenți q i ( ). Apoi te poți descompune

,

unde este o matrice pătrată a cărei i - a coloană este vectorul propriu al matricei , și este o matrice diagonală ale cărei elemente diagonale sunt valorile proprii corespunzătoare, . Rețineți că numai matricele diagonalizabile pot fi descompuse în acest fel. De exemplu, o matrice de deplasare nu poate fi diagonalizată.

De obicei, vectorii proprii q i sunt normalizați , dar acest lucru nu este necesar; un set nenormalizat de n vectori proprii v i poate fi, de asemenea, utilizat ca coloane de matrice .

Descompunerea poate fi obținută din proprietatea fundamentală a vectorilor proprii:

Exemplu

Matrice reală

poate fi redusă la o formă diagonală prin înmulțire cu o matrice nesingulară

Apoi

pentru o matrice diagonală reală .

Înmulțind ambele părți ale egalității din stânga cu , obținem:

Egalitatea de mai sus poate fi descompusă în două sisteme de ecuații :

Scoaterea valorilor proprii x și y :

Primim

care ne oferă două ecuații vectoriale:

Ultimul sistem poate fi reprezentat printr-o singură ecuație vectorială, incluzând soluții pentru două valori proprii:

,

unde reprezintă cele două valori proprii x și y și reprezintă vectorii și .

Deplasându -ne în partea stângă și scoatem , obținem

Deoarece matricea nu este degenerată, este important ca vectorul să nu fie nul. De aceea,

Apoi

ne oferă soluțiile cu valori proprii pentru matrice ca sau , iar matricea diagonală rezultată din descompunerea matricei este atunci .

Dacă înlocuim soluțiile înapoi în sistemul de ecuații de mai sus, obținem

Rezolvând ecuațiile, obținem

Atunci matricea necesară pentru factorizarea matricei este

Acesta este:

Inversarea matricei prin expansiunea vectorului propriu

Fie ca matricea să aibă o descompunere spectrală și niciuna dintre valorile proprii ale matricei să nu fie egală cu zero. În acest caz, matricea nu este singulară , iar matricea sa inversă se găsește prin formula

Dacă matricea este o matrice simetrică , atunci matricea este garantată a fi ortogonală , adică . Și, deoarece matricea este diagonală , atunci inversul său este ușor de calculat:

Valoare practică [4]

Dacă descompunerea vectorului propriu este utilizată pe o matrice măsurată cu date reale , atunci matricea inversă poate fi condiționată mai rău dacă toate valorile proprii sunt utilizate în formă neschimbată. Ideea este că atunci când valorile proprii devin relativ mici, contribuția inverselor lor la matricea inversă este mare. Aceste valori aproape de zero sau „zgomot” ale sistemului de măsurare vor avea o influență nejustificată și pot interfera cu soluția de inversare.

Au fost propuse două opțiuni de atenuare: eliminarea valorilor proprii mici sau zero și copierea celei mai mici valori de încredere în altele mai mici.

Prima opțiune de atenuare este similară cu matricea rară inițială, în care sunt eliminate elementele care sunt considerate nesemnificative. Cu toate acestea, dacă se constată că procesul de soluție este aproape de nivelul de zgomot, rollback-ul poate elimina componentele care afectează soluția dorită.

A doua opțiune de atenuare copiază valoarea proprie, astfel încât valorile mai mici să aibă un efect mai mic asupra rezultatului inversării, dar totuși să contribuie astfel încât să poată fi găsite soluții chiar și apropiate de nivelul de zgomot.

O valoare proprie de încredere poate fi găsită în ipoteza că valorile proprii sunt extrem de apropiate, iar valoarea scăzută este o bună reprezentare a zgomotului de măsurare (care se presupune că este scăzut pentru majoritatea sistemelor).

Dacă valorile proprii sunt ordonate după mărime, o valoare proprie de încredere poate fi găsită prin minimizarea Laplacianului valorilor proprii sortate [5] :

,

unde valorile proprii sunt marcate cu s pentru a indica sortarea (din engleză sortat). Locația minimului este cea mai mică valoare proprie de încredere. În sistemele de măsurare, rădăcina pătrată a acestei valori proprii de încredere este zgomotul mediu în raport cu celelalte componente ale sistemului.

Calcul funcțional

Fie ca matricea pătrată să aibă o descompunere . Apoi, ridicarea matricei la o putere naturală se calculează printr-o formulă simplă:

aici produsele se anulează în expresia intermediară . Operația de ridicare la o putere naturală vă permite să definiți diferite funcții peste matrici, care sunt exprimate sub formă de serii de puteri. Fie ca funcția să aibă o expansiune într-o serie de puteri

Descompunerea unei matrice în termeni de valori proprii vă permite să calculați rapid seria de puteri din matrice. Fie f  ( x ) dat de o serie de puteri

În conformitate cu formula pentru puterea matricei de mai sus, seria de puteri pentru matrice poate fi calculată folosind formula

,

unde este o funcție a matricei diagonale , care poate fi calculată foarte ușor:

În acest caz, elementele off-diagonale ale matricei sunt egale cu zero. Adică este și o matrice diagonală. Ca urmare, calculul unei funcții dintr-o matrice se reduce la un simplu calcul al unei funcții din fiecare dintre valorile proprii.

O tehnică similară funcționează și în general în calculul funcțional holomorf , folosind formula

este posibil să se calculeze serii de puteri din matrice care conțin exponenți negativi. Aici din nou se folosește că .

Exemple

Rădăcina pătrată a unei matrice:

Să-l pătram și să ne asigurăm că este corect:

Exponentul matricei este definit într-un mod similar :

Descompunerea matricelor speciale

Matrici normale

O matrice pătrată complexă este normală (adică unde este conjugat hermitian ) dacă și numai dacă poate fi descompusă

unde este unitar (ceea ce înseamnă că ) și este o matrice diagonală [6] . Coloanele matricei formează o bază ortonormală și sunt vectori proprii ai matricei cu valorile proprii corespunzătoare .

Dacă clasa de matrici este limitată la matrici hermitiene ( ), atunci are doar valori reale. Dacă clasa de matrici este limitată la matrici unitare, atunci toate valorile se află pe cercul unitar complex, adică .

Matrici simetrice reale

Pentru orice matrice simetrică reală , valorile proprii sunt reale, iar vectorii proprii pot fi aleși să fie reali și ortonormali . Astfel, o matrice simetrică reală poate fi descompusă în

unde este o matrice ortogonală ale cărei coloane sunt vectorii proprii ai matricei și este o matrice diagonală ale cărei valori pe diagonală sunt egale cu valorile proprii ale matricei [7] .

Fapte utile

Informații utile despre valorile proprii

  • Produsul valorilor proprii este egal cu determinantul matricei Rețineți că fiecare valoare proprie este ridicată la puterea n i , o multiplicitate algebrică.
  • Suma valorilor proprii este egală cu urma matricei Rețineți că fiecare valoare proprie este înmulțită cu n i , o multiplicitate algebrică.
  • Dacă există valori proprii ale matricei și este inversabilă, atunci valorile proprii ale matricei sunt pur și simplu .
  • Dacă există valori proprii ale matricei , atunci valorile proprii ale matricei sunt pur și simplu egale pentru orice funcție holomorfă f .

Informații utile despre vectorii proprii

  • Dacă matricea este hermitiană și are rang complet, baza vectorului propriu poate fi aleasă să fie reciproc ortogonală . Valorile proprii sunt reale.
  • Vectorii proprii ai matricei sunt aceiași cu vectorii proprii ai matricei .
  • Vectorii proprii sunt definiți până la un factor constant. Adică, dacă , atunci este și un vector propriu pentru orice scalar c ≠ 0 . În special, și (pentru orice ) sunt, de asemenea, vectori proprii.
  • În cazul valorilor proprii degenerate (o valoare proprie apare de mai multe ori), vectorii proprii au un grad suplimentar de libertate de rotație, adică orice combinație liniară (ortonormală) de vectori proprii cu aceeași valoare proprie este ea însăși un vector propriu.

Fapte utile despre descompunerea vectorului propriu

  • O matrice poate fi descompusă folosind vectori proprii dacă și numai dacă numărul de vectori proprii liniar independenți este egal cu dimensiunea vectorului propriu:
  • Dacă nu are rădăcini multiple, adică dacă , atunci poate fi descompus.
  • Din afirmația „matricea poate fi descompusă” nu rezultă că are inversă.
  • Din afirmația „matricea are un invers” nu rezultă că poate fi descompusă folosind vectori proprii. Contraexemplul este matrix , care este o matrice de defect inversabilă .

Fapte utile despre matricea inversă

  • O matrice este inversabilă dacă și numai dacă
  • Dacă și , matricea inversă este dată de egalitate

Calcule numerice

Calculul numeric al valorilor proprii

Să presupunem că este necesar să se calculeze valorile proprii ale unei matrice date. Dacă dimensiunile matricei sunt mici, valorile proprii pot fi calculate simbolic folosind polinomul caracteristic . Cu toate acestea, acest lucru nu este adesea posibil pentru matrice mari, caz în care sunt utilizate metode numerice .

În practică, valorile proprii ale matricelor mari nu sunt calculate folosind polinomul caracteristic. Calculul unui polinom devine în sine consumator de timp și consumator de timp, iar rădăcinile exacte (simbolice) ale unui polinom de grad înalt sunt greu de calculat și exprimat - rezultă din teorema lui Abel privind imposibilitatea de rezolvare a ecuațiilor în radicali că rădăcinile polinoamelor de grad înalt (5 și mai mare) nu pot fi în cazul general sunt prezentate ca expresii din rădăcinile de gradul al n -lea . Din acest motiv, algoritmii generali pentru găsirea vectorilor proprii și a valorilor proprii funcționează iterativ .

Există algoritmi numerici iterativi pentru aproximarea rădăcinilor polinoamelor, cum ar fi metoda lui Newton , dar, în general, este imposibil să construiți un polinom caracteristic și apoi să aplicați aceste metode. Un motiv este că erorile mici de rotunjire în coeficienții polinomului caracteristic pot duce la erori mari în valorile proprii și vectorii proprii — rădăcinile sunt o funcție extrem de prost condiționată a coeficienților [8] .

O metodă iterativă simplă și precisă este metoda puterii - se selectează un vector aleatoriu și se calculează o secvență de vectori unitari

Această secvență converge aproape întotdeauna către un vector propriu care corespunde celei mai mari valori proprii, cu condiția ca vectorul corespunzător acestui vector propriu să aibă o componentă diferită de zero pe baza vectorilor proprii (și, de asemenea, cu condiția să existe doar o singură valoare proprie cea mai mare). Acest algoritm simplu este util în unele aplicații practice. De exemplu, Google îl folosește pentru a calcula clasamentul link-urilor documentelor din motorul lor de căutare [9] . De asemenea, metoda puterii este punctul de plecare pentru mulți alți algoritmi complexi. De exemplu, dacă stocați nu numai ultimul vector al secvenței, ci priviți în intervalul liniar al tuturor vectorilor secvenței, puteți obține o aproximare mai bună (convergând mai rapid) a vectorului propriu, iar această idee stă la baza lui Arnoldi . iterație [8] . De asemenea, algoritmul QR important se bazează pe o metodă de putere ușor modificată [8] .

Calculul numeric al vectorilor proprii

Odată ce valorile proprii au fost calculate, vectorii proprii pot fi calculați prin rezolvarea ecuației

folosind eliminarea gaussiana sau orice alta metoda de rezolvare a unei ecuatii matriceale .

Cu toate acestea, în metodele practice de găsire a valorilor proprii ale matricelor mari, vectorii proprii sunt de obicei calculați în alte moduri ca un produs secundar al calculului valorilor proprii. În metoda puterii , de exemplu, vectorul propriu este în general calculat înainte de a fi calculată valoarea proprie (care este de obicei calculată conform relației Rayleigh pentru vectorul propriu) [8] . În algoritmul QR pentru o matrice hermitiană (sau orice matrice normală ), vectorii proprii ortonormali sunt obținuți ca un produs matriceal din etapele algoritmului [8] . (Pentru matrici mai generale, algoritmul QR efectuează mai întâi o descompunere Schur , din care vectorii proprii pot fi obținuți prin înlocuire inversă [10] ) Pentru matricele hermitiene , algoritmul de căutare a valorilor proprii divide-and-conquer este mai eficient decât Algoritm QR dacă sunt necesari atât vectorii proprii, cât și valorile proprii [8] .

Subiecte suplimentare

Spații proprii generalizate

Reamintim că multiplicitatea geometrică a unei valori proprii poate fi descrisă ca dimensiunea spațiului propriu asociat, nucleul matricei . Multiplicitatea algebrică poate fi gândită și ca o dimensiune - este dimensiunea spațiului propriu generalizat asociat (în primul sens), care este nucleul unei matrice pentru orice k suficient de mare . Adică, este spațiul vectorilor proprii generalizați (în primul sens), unde un vector propriu generalizat este orice vector care devine în cele din urmă 0 dacă este aplicat de destule ori. Orice vector propriu este un vector propriu generalizat și, prin urmare, orice spațiu propriu este conținut în spațiul propriu generalizat asociat. Aceasta oferă o dovadă simplă că multiplicitatea geometrică nu depășește niciodată multiplicitatea algebrică.

Această utilizare nu trebuie confundată cu problema valorilor proprii generalizate descrisă mai jos.

Conjugat vectorul propriu

Un vector propriu conjugat este un vector care, după o transformare liniară, trece (până la înmulțirea cu un scalar) în conjugatul său. Scalarul se numește atunci valoarea proprie conjugată a transformării liniare. Vectorii proprii și valorile proprii conjugați reprezintă în esență aceleași informații ca vectorii și valorile proprii obișnuite, dar apar atunci când sunt utilizate alte sisteme de coordonate. Egalitatea corespunzătoare va fi

De exemplu, în teoria împrăștierii electromagnetice coerente, transformarea liniară reprezintă acțiunea întreprinsă de obiectul de împrăștiere, iar vectorii proprii reprezintă stările de polarizare ale undei electromagnetice. În optică , sistemul de coordonate este definit din punct de vedere al undei, cunoscut sub numele de Forward Scattering Alignment ( eng. Forward Scattering Alignment , FSA), și generează ecuații obișnuite cu valori proprii, în timp ce în radar , sistemul de coordonate este definit din parte a radarului, este cunoscut sub denumirea de aliniere cu dispersie inversă ( Eng. Back Scattering Alignment , BSA) și generează ecuații pentru vectorii proprii conjugați.   

Problema generalizată a găsirii valorilor proprii

Problema generalizată a găsirii valorilor proprii (în al doilea sens) este problema găsirii unui vector care satisface egalitatea

unde și sunt matrici. Dacă satisface această egalitate pentru unele , atunci numim vectorul propriu generalizat al matricelor și (în al doilea sens), și se numește valoarea proprie generalizată a matricelor și (în al doilea sens), corespunzător vectorului propriu generalizat . Valorile posibile trebuie să satisfacă următoarea egalitate

Dacă este posibil să găsim vectori liniar independenți astfel încât pentru orice , , definim matrici și după cum urmează

Atunci este valabilă următoarea egalitate

Dovada

Și întrucât este reversibil, înmulțim cu acest invers și obținem rezultatul dorit.

Setul de matrici de forma , unde este un număr complex, se numește snop . Termenul snop de matrice se poate referi și la o pereche de matrice [11] .

Dacă matricea este inversabilă, atunci problema inițială poate fi rescrisă ca

care este problema standard de valori proprii. În majoritatea situațiilor, totuși, este de nedorit să se efectueze această inversare, ci să se rezolve problema cu valori proprii generalizate. Acest lucru este deosebit de important dacă matricele și sunt hermitiene , deoarece în acest caz de obicei nu este hermitian în general și proprietățile importante ale soluției nu mai apar.

Dacă ambele matrice și sunt simetrice și hermitiene și sunt, de asemenea , definite pozitive , valorile proprii sunt reale, iar vectorii proprii și cu valori proprii diferite sunt -ortogonali ( ) [12] . În acest caz, vectorii proprii pot fi aleși astfel încât matricea definită mai sus să îndeplinească condițiile

sau ,

și există o bază de vectori proprii generalizați (nu este o matrice de defect ) [11] . Acest caz este uneori numit un snop definit hermitian [11] .

Vezi și

Note

  1. Golub, Van Loan, 1996 , p. 310.
  2. Kreyszig, 1972 , p. 273.
  3. Nering, 1970 , p. 270.
  4. Hayde, Twede, 2002 , p. 355.
  5. Hayde, Twede, 2002 , p. 299.
  6. Horn și Johnson, 1985 , p. 133 Teorema 2.5.3.
  7. Horn și Johnson, 1985 , p. 136 Teorema 2.5.3 Corolarul 2.5.11.
  8. 1 2 3 4 5 6 Trefethen, Bau, 1997 .
  9. Ipsen, Wills, 2005 .
  10. Quarteroni, Sacco, Saleri, 2000 , p. cincisprezece.
  11. 1 2 3 Bai, Demmel, 2000 .
  12. Parlett, 1998 , p. 345.

Literatură

  • Hayde AF, Twede DR Observații privind relația dintre valorile proprii, zgomotul instrumentului și performanța de detecție // Spectrometrie imagistică VIII. / Sylvia S. Shen. - 2002. - T. 4816 . - doi : 10.1117/12.453777 . - Cod .
  • Twede DR, Hayden AF Rafinarea și generalizarea metodei de extensie a inversării matricei de covarianță prin regularizare // Imaging Spectrometry IX .. - 2004. - T. 5159 . - doi : 10.1117/12.506993 . - Cod .
  • Lloyd N. Trefethen, David Bau. Algebră liniară numerică. - „SIAM, 1997. - ISBN 978-0-89871-361-9 .
  • Alfio Quarteroni, Riccardo Sacco, Fausto Saleri. secțiunea 5.8.2 // Matematică numerică . - „Springer, 2000. - ISBN 978-0-387-98959-4 .
  • Beresford N. Parlett. Problema valorii proprii simetrice . - Reprint.. - Philadelphia: „Society for Industrial and Applied Mathematics, 1998. - ISBN 978-0-89871-402-9 . - doi : 10.1137/1.9781611971163 .
    • Tradus de B. Parlett. Problema cu valori proprii simetrice. - Moscova: Mir, 1983.
  • Ilse Ipsen, Rebecca M. Wills. Analiza și calculul PageRank de la Google // Al 7-lea Simpozion internațional IMACS privind metodele iterative în calculul științific, Fields Institute, Toronto, Canada, 5–8 mai 2005 . — 2005.
  • Generalized Hermitian Eigenvalue Problems // Templates for the Solution of Algebraic Eigenvalue Problems: A Practical Guide / Z. Bai, J. Demmel, J. Dongarra, A. Ruhe, H. Van Der Vorst. - Philadelphia: SIAM, 2000. - ISBN 978-0-89871-471-5 .
  • Joel N. Franklin. Teoria matricelor . Dover Publications. — ISBN 978-0-486-41179-8 .
  • Gene H. Golub, Charles F. Van Loan. Calcule matriceale. — al 3-lea. - Baltimore: Johns Hopkins University Press , 1996. - ISBN 978-0-8018-5414-9 .
    • Traducere de J. Golub, C. Van Lone. Calculele matriceale. - Moscova: Mir, 1999. - ISBN 5-03-002406-9 .
  • Roger A. Horn, Charles R. Johnson. analiza matriceală. - Cambridge University Press, 1985. - ISBN 978-0-521-38632-6 .
    • Traducere Horn R., Johnson C. Analiza matricei. - „Mir”, 1989. - ISBN 978-5-458-26504-1 (YOYO Media).
  • Roger A. Horn, Charles R. Johnson. Subiecte în analiza matricelor . - Cambridge University Press, 1991. - ISBN 978-0-521-46713-1 .
  • Erwin Kreyszig. Matematică avansată de inginerie . — al 3-lea. - New York: Wiley , 1972. - ISBN 978-0-471-50728-4 .
  • Evar D. Nering. Algebra liniară și teoria matricelor. — al 2-lea. — New York: Wiley , 1970.
  • Strang G. Introducere în algebra liniară. — al 3-lea. - Wellesley-Cambridge Press, 1998. - ISBN 978-0-9614088-5-5 .

Link -uri