Algoritmul Levenberg-Marquardt este o metodă de optimizare care vizează rezolvarea problemelor cu cele mai mici pătrate. Este o alternativă la metoda lui Newton . Poate fi privită ca o combinație a acestora din urmă cu coborâre în gradient sau ca o metodă a regiunii de încredere [1] (Marquard, p. 492). Algoritmul a fost formulat independent de Levenberg ( 1944 ) și Marquardt ( 1963 ).
Să existe o problemă cu cele mai mici pătrate de forma:
Această problemă se distinge printr-un tip special de gradient și matrice Hessiană :
unde este matricea Jacobi a funcției vectoriale , este matricea hessiană pentru componenta sa .
Apoi, conform metodei Gauss-Newton, asumând rolul dominant al termenului peste (adică dacă norma este semnificativ mai mică decât valoarea proprie maximă a matricei ), următoarea direcție este determinată din sistem:
Direcția de căutare Levenberg-Marquardt este determinată din sistem:
unde este o constantă nenegativă, specifică fiecărui pas, este matricea de identitate.
Alegerea poate fi făcută făcându-l suficient pentru coborârea monotonă de-a lungul funcției reziduale , adică mărirea parametrului până la atingerea condiției . De asemenea, parametrul poate fi setat pe baza relației dintre modificările reale ale funcției realizate ca urmare a etapelor de încercare și valorile așteptate ale acestor modificări în timpul interpolării . Fletcher a construit o procedură similară.
De asemenea, se poate demonstra că îndeplinește condiția:
unde este parametrul asociat cu .
Este ușor de observat că pentru , algoritmul degenerează în metoda Gauss-Newton , iar pentru suficient de mare , direcția diferă ușor de direcția de coborâre cea mai abruptă. Astfel, prin selectarea corectă a parametrului, se realizează o scădere monotonă a funcției minimizate. Inegalitatea poate fi întotdeauna impusă prin alegerea suficient de mare. Cu toate acestea, în acest caz, informațiile despre curbură , conținute în primul termen, se pierd și apar toate dezavantajele metodei de coborâre a gradientului : în locurile cu o pantă ușoară, anti- gradientul este mic, iar în locurile cu o pantă ușoară. pantă abruptă, este mare, în timp ce în primul caz este de dorit să se facă pași mari, iar în al doilea - mici. Deci, pe de o parte, dacă există o depresiune lungă și îngustă pe suprafața definită de funcția reziduală , atunci componentele gradientului de-a lungul bazei depresiunii sunt mici, iar spre pereți sunt mari, în timp ce este de dorit să meargă de-a lungul bazei râpei. O metodă de luare în considerare a informațiilor despre curbură a fost propusă de Marquardt. El a observat că dacă înlocuim matricea de identitate cu diagonala matricei Hessian, atunci putem obține o creștere a pasului de-a lungul secțiunilor blânde și o scădere de-a lungul coborârilor abrupte:
Când se consideră algoritmul Levenberg-Marquardt ca o metodă a intervalelor de încredere, folosind euristică , se selectează un interval pe care se construiește aproximarea funcției :
În acest caz, pasul este determinat pe baza problemei de minimizare :
de optimizare | Metode|
---|---|
Unidimensional |
|
Comanda zero | |
Prima comanda | |
a doua comanda | |
Stochastic | |
Metode de programare liniară | |
Metode de programare neliniară |