Un vector propriu este un concept în algebră liniară , definit pentru un operator liniar arbitrar ca un vector diferit de zero , aplicarea operatorului căruia îi dă un vector coliniar - același vector înmulțit cu o valoare scalară (care poate fi egală cu 0) . Scalarul cu care vectorul propriu este înmulțit cu operatorul se numește valoarea proprie (sau valoarea proprie ) a operatorului liniar corespunzător vectorului propriu dat. O reprezentare a unui operator liniar este o matrice pătrată , astfel încât vectorii proprii și valorile proprii sunt adesea definite în contextul utilizării unor astfel de matrici [1] [2] .
Conceptele de vector propriu și valoare proprie [3] sunt unul dintre conceptele cheie în algebra liniară; multe construcții sunt construite pe baza lor. Acest lucru se datorează faptului că multe relații asociate cu operatori liniari sunt simplificate semnificativ într-un sistem de coordonate construit pe baza vectorilor proprii ai operatorului. Setul de valori proprii ale unui operator liniar ( spectrul operatorului ) caracterizează proprietăți importante ale operatorului fără referire la un anumit sistem de coordonate. Din aceste motive, vectorii proprii sunt de mare importanță practică. Deci, de exemplu, vectorii proprii se găsesc adesea în mecanică, teoria cuantică și așa mai departe. În special, operatorul de proiecție de spin pe o axă arbitrară are două valori proprii și vectorii proprii corespunzători.
Conceptul de spațiu vectorial liniar nu se limitează la vectori „pur geometrici” și se generalizează la diferite seturi de obiecte, cum ar fi spațiile funcționale (pe care acționează operatorii diferențiali liniari și integrali). Pentru astfel de spații și operatori se vorbește despre funcțiile proprii ale operatorilor.
Mulțimea tuturor vectorilor proprii ai unui operator liniar corespunzător unei valori proprii date, completate de un vector zero , se numește subspațiu propriu [4] al acestui operator.
Căutarea algoritmilor optimi pentru calcularea valorilor proprii pentru un operator liniar dat este una dintre problemele importante din matematica computațională .
Un vector propriu al unei transformări liniare , unde este un spațiu liniar peste un câmp , este un vector diferit de zero , astfel încât pentru unii .
O valoare proprie ( valoare proprie ) a unei transformări liniare este un număr pentru care există un vector propriu, adică ecuația are o soluție diferită de zero .
Mai simplu spus, un vector propriu este orice vector diferit de zero care este mapat la un vector coliniar cu acesta de către operator , iar scalarul corespunzător se numește valoarea proprie a operatorului .
Subspațiul propriu (sau subspațiul caracteristic ) al unei transformări liniare pentru o valoare proprie dată (sau corespunzătoare acestui număr) este mulțimea tuturor vectorilor proprii corespunzători unei valori proprii date, completate de un vector zero. Să notăm subspațiul propriu corespunzător valorii proprii , cu , și operatorului de identitate prin . Prin definiție, un subspațiu propriu este nucleul unui operator , adică setul de vectori mapați de acest operator la un vector nul:
.Vectorul rădăcină al unei transformări liniare pentru o valoare proprie dată este un vector diferit de zero, astfel încât pentru un număr natural :
.Dacă este cel mai mic dintre aceste numere naturale (adică ), atunci se numește înălțimea vectorului rădăcină .
Subspațiul rădăcină al unei transformări liniare pentru o valoare proprie dată este mulțimea tuturor vectorilor rădăcină corespunzători valorii proprii date, dacă această mulțime este completată cu un vector zero. Să notăm subspațiul rădăcină corespunzător valorii proprii λ cu . Prin definitie:
.Valorile proprii sunt de obicei introduse în contextul algebrei liniare, cu toate acestea, din punct de vedere istoric, ele își au originea în studiul formelor pătratice și al ecuațiilor diferențiale .
În secolul al XVIII-lea , Euler , studiind mișcarea de rotație a unui corp absolut rigid , a descoperit semnificația axelor principale, iar Lagrange a arătat că axele principale corespund vectorilor proprii ai matricei de inerție . La începutul secolului al XIX-lea , Cauchy a folosit lucrările lui Euler și Lagrange pentru a clasifica suprafețele de ordinul doi și a generaliza rezultatele la ordine superioare. Cauchy a inventat și termenul „rădăcină caracteristică” ( franceză: racine caractéristique ) pentru valoarea proprie. Acest termen a fost păstrat în contextul polinomului caracteristic al unei matrice [5] [6] .
La începutul secolului al XX-lea, Hilbert s-a angajat în studiul valorilor proprii ale operatorilor integrali, considerându-i pe aceștia din urmă matrici de mărime infinită [7] . În 1904, Hilbert a început să folosească termenii valori proprii și vectori proprii pentru a se referi la valori proprii și vectori proprii , pe baza cuvântului german eigen ( proprii ) [8] . Ulterior, acești termeni au fost transferați și în limba engleză, înlocuind „proper value” și „proper vector” folosite anterior [9] .
Un subspațiu se numește subspațiu invariant al unei transformări liniare ( -subspațiu invariant ) dacă:
.Subspațiile proprii , subspațiile rădăcină și subspațiile unui operator liniar sunt -invariante.
Vectorii proprii sunt rădăcină (înălțimi 1): ;
Vectorii rădăcină pot să nu fie vectori proprii: de exemplu, pentru a transforma un spațiu bidimensional dat de o matrice:
, iar toți vectorii sunt rădăcină, corespunzătoare unei valori proprii , dar are un singur vector propriu (până la înmulțirea cu un număr).Pentru diferite valori proprii, subspațiile rădăcină (și, prin urmare, valorile proprii) au o intersecție trivială (zero):
daca .Metoda de găsire a valorilor proprii pentru operatorii autoadjuncți și de găsire a valorilor singulare pentru un operator normal este dată de teorema Courant-Fisher .
Alegând o bază în spațiu liniar dimensional , se poate asocia o matrice pătrată cu o transformare liniară și se poate determina polinomul caracteristic al matricei pentru aceasta :
.Polinomul caracteristic nu depinde de baza din . Coeficienții săi sunt invarianți de operator . În special, , nu depind de alegerea bazei.
Valorile proprii, și numai ele, sunt rădăcinile polinomului caracteristic al matricei. Numărul de valori proprii distincte nu poate depăși dimensiunea matricei. Dacă alegem vectorii proprii ai operatorului ca vectori de bază, atunci matricea într-o astfel de bază va deveni diagonală , iar valorile proprii ale operatorului vor fi pe diagonală. Rețineți, totuși, că nu orice matrice admite o bază de vectori proprii (structura generală este descrisă de forma normală Jordan ). Pentru o matrice simetrică pozitiv-definită , procedura de găsire a valorilor proprii și a vectorilor proprii nu este altceva decât găsirea direcțiilor și lungimii semiaxelor elipsei corespunzătoare .
Dacă câmpul numeric este închis algebric (de exemplu, este câmpul numerelor complexe ), atunci polinomul caracteristic se descompune într-un produs de factori liniari:
,unde sunt valorile proprii; unele dintre ele pot fi egale. Multiplicitatea valorii proprii este numărul de factori care sunt egali în extinderea polinomului caracteristic în factori liniari (numit și multiplicitatea algebrică a valorii proprii ).
Dimensiunea spațiului rădăcină este egală cu multiplicitatea valorii proprii.
Un spațiu vectorial se descompune într-o sumă directă de subspații rădăcină (prin teorema formei Jordan ):
unde însumarea este peste toate valorile proprii .Multiplicitatea geometrică a unei valori proprii este dimensiunea subspațiului propriu corespunzător ; multiplicitatea geometrică a unei valori proprii nu depășește multiplicitatea acesteia, deoarece
Toți vectorii rădăcină ai unui operator normal sunt vectori proprii. Vectorii proprii ai operatorului normal corespunzători diferitelor valori proprii sunt ortogonali, adică dacă , și , atunci (acest lucru nu este valabil pentru un operator arbitrar).
Toate valorile proprii ale unui operator auto-adjunct sunt reale, cele ale unui operator anti-Hermitian sunt imaginare, iar toate valorile proprii ale unui operator unitar se află pe cercul unitar .
În cazul cu dimensiuni finite, suma dimensiunilor subspațiilor proprii ale operatorului normal corespunzătoare tuturor valorilor proprii este egală cu dimensiunea matricei, iar spațiul vectorial se descompune într-o sumă ortogonală a subspațiilor proprii:
,unde suma este peste toate valorile proprii și sunt reciproc ortogonale pentru diferite . Această proprietate pentru un operator normal peste în cazul dimensional finit este caracteristică: operatorul este normal dacă și numai dacă matricea sa are o formă diagonală într-o bază ortonormală .
O matrice reală pătrată se numește pozitivă dacă toate elementele sale sunt pozitive: .
Teorema lui Perron (un caz special al teoremei Perron–Frobenius ): O matrice pătrată pozitivă are o valoare proprie pozitivă care are multiplicitatea algebrică 1 și depășește cu strictețe valoarea absolută a oricărei alte valori proprii a acelei matrice. O valoare proprie corespunde unui vector propriu , toate coordonatele fiind strict pozitive. Un vector este singurul vector propriu (până la înmulțirea cu un număr) care are coordonate nenegative.
Vectorul propriu poate fi calculat prin iterații directe : se alege un vector inițial arbitrar cu coordonate pozitive, elementul ulterior este dat de formula recursivă:
,se obţine o secvenţă care converge către un vector propriu normalizat .
Un alt domeniu de aplicare a metodei iterației directe este căutarea vectorilor proprii ai operatorilor simetrici pozitiv-definiti.
Inegalitatea lui Schur : pentru valorile proprii ale matricei :
,în plus, egalitatea se realizează dacă și numai dacă este o matrice normală [10] .
Pentru valorile proprii ale matricei , unde matricele sunt hermitiene , avem:
și [11] .Pentru matricele hermitiene și valorile lor proprii, ordonate crescător: dați: at și la [11] .
Vectori și matrici | |||||||||
---|---|---|---|---|---|---|---|---|---|
Vectori |
| ||||||||
matrici |
| ||||||||
Alte |