Matrice pătrată

În matematică , o matrice pătrată  este o matrice în care numărul de rânduri este același cu numărul de coloane, iar acest număr se numește ordinea matricei. Oricare două matrice pătrate de același ordin pot fi adăugate și înmulțite.

Matricele pătrate sunt adesea folosite pentru a reprezenta mapări liniare simple  , cum ar fi warp sau rotație . De exemplu, dacă R  este o matrice pătrată care reprezintă o rotație ( matrice de rotație ) și v  este un vector coloană care definește poziția unui punct în spațiu, produsul Rv dă un alt vector care definește poziția punctului după rotație. Dacă v  este un vector rând , aceeași transformare poate fi obținută folosind vR T , unde R T  este matricea transpusă în R.

Diagonala principală

Elementele a ii ( i = 1, …, n ) formează diagonala principală a unei matrice pătrate. Aceste elemente se află pe o linie dreaptă imaginară care trece din colțul din stânga sus în colțul din dreapta jos al matricei [1] . De exemplu, diagonala principală a matricei 4x4 din figură conține elementele a 11 = 9, a 22 = 11, a 33 = 4, a 44 = 10.

Diagonala unei matrice pătrate care trece prin colțurile din stânga jos și din dreapta sus se numește latura .

Tipuri speciale

Nume Exemplu cu n = 3
Matricea diagonală
Matrice triunghiulară inferioară
Matricea triunghiulară superioară

Matrici diagonale și triunghiulare

Dacă toate elementele din afara diagonalei principale sunt zero, se spune că A este diagonală . Dacă toate elementele de deasupra (dedesubt) diagonalei principale sunt zero, A se numește matrice triunghiulară inferioară (superioară) . O matrice triunghiulară cu toate intrările diagonale egale cu 1 se numește uniunghiular [2] [3] .

Matricea de identitate

Matricea de identitate E n de dimensiunea n  este o matrice n × n în care toate elementele de pe diagonala principală sunt egale cu 1, iar elementele rămase sunt egale cu 0 (deseori se folosește litera I în locul literei E [4] ) [1] . În acest fel,

Înmulțirea cu matricea de identitate lasă matricea neschimbată:

{{{1}}} pentru orice n × n matrice A .

Matrici simetrice și antisimetrice

O matrice pătrată A care se potrivește cu cea transpusă , adică A = A T , se numește simetrică . Dacă A diferă de matricea transpusă în semn, adică A = − A T , atunci A se numește antisimetric (sau skew-simetric ) [4] [5] . În cazul matricelor complexe, conceptul de simetrie este adesea înlocuit cu conceptul de autoadjunct , iar o matrice care satisface egalitatea A ∗ = A se numește Hermitian (sau autoadjunct ); aici, asteriscul denotă operația de conjugare hermitiană , al cărei sens este înlocuirea fiecărui element al matricei originale cu un număr complex conjugat , urmată de transpunerea matricei rezultate [6] [7] .

Conform teoremei spectrale , pentru matricele simetrice reale și matricele hermitiene complexe, există baze formate din vectori proprii ; astfel, orice vector spațial poate fi reprezentat ca o combinație liniară de vectori proprii. În ambele cazuri, toate valorile proprii sunt reale [8] . Această teoremă poate fi extinsă la cazul cu dimensiuni infinite, când matricele au infinit de rânduri și coloane.

Matrici inversabile

O matrice pătrată A se spune că este inversabilă sau nesingulară dacă există o matrice B astfel încât

AB = BA = E [9] [10] .

Dacă matricea B există, este unică și se numește inversa lui A și se scrie ca A −1 .

Definite Matrix

definit pozitiv nedefinită
Q ( x , y ) = 1/4 x 2 + 1/4 y 2 Q ( x , y ) = 1/4 x 2 − 1/4 y 2

Puncte care satisfac ecuația Q ( x , y ) = 1
( Elipse ).

Puncte care satisfac ecuația Q ( x , y ) = 1
( Hiperbola ).

O matrice simetrică n × n se numește definită pozitivă (respectiv, definită negativă sau nedefinită) dacă pentru toți vectorii nenuli x ∈ R n forma pătratică corespunzătoare

Q ( x ) = x T Ax

ia doar valori pozitive (respectiv, valori negative sau ambele). Dacă forma pătratică ia numai valori nenegative (respectiv, numai nepozitive), matricea simetrică se spune că este semidefinită pozitivă (respectiv, semidefinită negativă). O matrice va fi nedefinită dacă nu este nici semidefinită pozitivă, nici negativă [11] .

O matrice simetrică este definită pozitivă dacă și numai dacă toate valorile sale proprii sunt pozitive [12] . Tabelul din dreapta arată două cazuri posibile pentru matrice 2×2.

Dacă folosim doi vectori diferiți, obținem o formă biliniară asociată cu A :

B A ( x , y ) = x T Ay [13] .

Matrice ortogonală

O matrice ortogonală este o matrice  pătrată cu elemente reale ale căror coloane și rânduri sunt vectori unitari ortogonali (adică ortonormali). De asemenea, puteți defini o matrice ortogonală ca o matrice a cărei inversă este egală cu transpunerea [7] :

de unde urmează

,

unde E  este matricea de identitate .

O matrice ortogonală A este întotdeauna inversabilă ( A −1 = A T ), unitară ( A −1 = A *) și normală ( A * A = AA *). Determinantul oricărei matrice ortogonale este fie +1, fie -1 [14] . Înmulțirea cu o matrice ortogonală specifică o astfel de transformare liniară a spațiului aritmetic , care în cazul unei matrice cu determinant +1 este o rotație simplă , iar în cazul unei matrice cu determinant −1, este fie o simplă reflexie , fie o suprapunere de reflexie și rotație.

Analogul complex al unei matrice ortogonale este matricea unitară .

Operațiuni

Următorul

Urma unei matrice pătrate A (tr( A )) este suma elementelor diagonalei principale. În timp ce înmulțirea matricelor nu este în general comutativă, urma unui produs a două matrice nu depinde de ordinea factorilor:

tr( AB ) = tr( BA ).

Aceasta rezultă direct din definiția unui produs matrice:

De asemenea, urma unei matrice este egală cu urma transpunerii acesteia, adică.

tr( A ) = tr( A T ).

Determinant

Determinant det( A ) sau | A | matricea pătrată A  este un număr care definește unele proprietăți ale matricei. O matrice este inversabilă dacă și numai dacă determinantul ei este diferit de zero. Valoarea absolută a determinantului este egală cu aria (în R 2 ) sau volumul (în R 3 ) imaginii pătratului (sau cubului) unității, în timp ce semnul determinantului corespunde orientării mapării corespunzătoare - determinantul este pozitiv dacă şi numai dacă se păstrează orientarea.

Determinantul matricelor 2×2 se calculează prin formula

Determinantul matricei 3×3 folosește 6 produse ( regula lui Sarrus ). Formula Leibniz mai lungă generalizează aceste două formule la toate dimensiunile [15] .

Determinantul produsului matricelor este egal cu produsul determinanților factorilor:

det( AB ) = det( A ) • det( B ) [16] .

Adăugarea oricărui rând cu un coeficient la un alt rând sau a oricărei coloane cu un coeficient la o altă coloană nu modifică determinantul. Schimbul de locuri a două rânduri sau coloane duce la schimbarea semnului determinantului [17] . Folosind aceste operații, orice matrice poate fi redusă la o matrice triunghiulară inferioară (sau superioară), iar pentru astfel de matrice determinantul este egal cu produsul elementelor diagonalei principale, ceea ce oferă o modalitate de a calcula determinantul oricărei matrice. În sfârșit, teorema lui Laplace exprimă determinantul în termeni de minori , adică determinanți ai matricelor mai mici [18] . Această teoremă permite calculul recursiv al determinanților (pornind de la determinantul unei matrice 1x1, sau chiar de la determinantul unei matrice 0x0, care este egal cu 1), care pot fi considerate echivalente cu formula Leibniz. Determinanții pot fi utilizați pentru a rezolva sisteme liniare folosind metoda lui Cramer [19] .

Valori proprii și vectori proprii

Un număr λ și un vector diferit de zero v care satisface ecuația

Av = λ v ,

se numesc valoarea proprie și vectorul propriu al matricei A , respectiv [20] . Un număr λ este o valoare proprie n × n a unei matrice A dacă și numai dacă A −λ E nu are inversă, ceea ce este echivalent cu

[douăzeci]

Polinomul p A în necunoscutul X obţinut ca determinant det( X E − A ) se numeşte polinomul caracteristic al matricei A . Este un polinom normalizat de grad n . Astfel, ecuația p A (λ) = 0 are maximum n soluții diferite, adică valori proprii ale matricei [21] . Aceste valori pot fi complexe chiar dacă toate elementele matricei A sunt reale. Conform teoremei Hamilton-Cayley , p A ( A ) = 0 , adică atunci când matricea însăși este substituită în polinomul caracteristic, obținem o matrice zero [22] .

Note

  1. 1 2 Voevodin și Kuznețov, 1984 , p. 26.
  2. Voevodin și Kuznetsov, 1984 , p. 26-27.
  3. Ikramov, 1991 , p. 9-10.
  4. 1 2 Pobedrya, 1986 , p. 41.
  5. Voevodin și Kuznetsov, 1984 , p. 74.
  6. Voevodin și Kuznetsov, 1984 , p. 73.
  7. 1 2 Ikramov, 1991 , p. zece.
  8. Horn și Johnson, 1989 , Teorema 2.5.6, p. 129-130.
  9. Brown, 1991 , Definiția I.2.28, p. 21.
  10. Brown, 1991 , Teorema I.5.13, p. 61.
  11. Horn și Johnson, 1989 , 7.1. Definiții și proprietăți, p. 471-474.
  12. Horn și Johnson, 1989 , Teorema 7.2.1, p. 477-478.
  13. Horn și Johnson, 1989 , Exemplul 4.0.6, p. 202.
  14. Voevodin și Kuznetsov, 1984 , p. 71-72.
  15. Brown, 1991 , Definiția III.2.1, p. 167.
  16. Brown, 1991 , Teorema III.2.12, p. 173.
  17. Brown, 1991 , Corolarul III.2.16, p. 174.
  18. Mirsky, 1990 , Teorema 1.4.1, p. 14-15.
  19. Brown, 1991 , Teorema III.3.18, p. 189.
  20. 1 2 Bellman, 1976 , p. 56.
  21. Brown, 1991 , Corolarul III.4.10, p. 198.
  22. Gantmakher, 1988 , p. 87.

Link -uri