Algoritmul Levenberg-Marquardt

Versiunea actuală a paginii nu a fost încă revizuită de colaboratori experimentați și poate diferi semnificativ de versiunea revizuită pe 29 august 2019; verificările necesită 6 modificări .

Algoritmul Levenberg-Marquardt este o  metodă de optimizare care vizează rezolvarea problemelor cu cele mai mici pătrate. Este o alternativă la metoda lui Newton . Poate fi privită ca o combinație a acestora din urmă cu coborâre în gradient sau ca o metodă a regiunii de încredere [1] (Marquard, p. 492). Algoritmul a fost formulat independent de Levenberg ( 1944 ) și Marquardt ( 1963 ).

Enunțul problemei

Să existe o problemă cu cele mai mici pătrate de forma:

Această problemă se distinge printr-un tip special de gradient și matrice Hessiană :

unde  este matricea Jacobi a funcției vectoriale ,  este matricea hessiană pentru componenta sa .

Apoi, conform metodei Gauss-Newton, asumând rolul dominant al termenului peste (adică dacă norma este semnificativ mai mică decât valoarea proprie maximă a matricei ), următoarea direcție este determinată din sistem:

Algoritm

Direcția de căutare Levenberg-Marquardt este determinată din sistem:

unde  este o constantă nenegativă, specifică fiecărui pas,  este matricea de identitate.

Alegerea poate fi făcută făcându-l suficient pentru coborârea monotonă de-a lungul funcției reziduale , adică mărirea parametrului până la atingerea condiției . De asemenea, parametrul poate fi setat pe baza relației dintre modificările reale ale funcției realizate ca urmare a etapelor de încercare și valorile așteptate ale acestor modificări în timpul interpolării . Fletcher a construit o procedură similară.

De asemenea, se poate demonstra că îndeplinește condiția:

unde  este parametrul asociat cu .

O combinație de coborâre a gradientului și metoda Gauss-Newton

Este ușor de observat că pentru , algoritmul degenerează în metoda Gauss-Newton , iar pentru suficient de mare , direcția diferă ușor de direcția de coborâre cea mai abruptă. Astfel, prin selectarea corectă a parametrului, se realizează o scădere monotonă a funcției minimizate. Inegalitatea poate fi întotdeauna impusă prin alegerea suficient de mare. Cu toate acestea, în acest caz, informațiile despre curbură , conținute în primul termen, se pierd și apar toate dezavantajele metodei de coborâre a gradientului : în locurile cu o pantă ușoară, anti- gradientul este mic, iar în locurile cu o pantă ușoară. pantă abruptă, este mare, în timp ce în primul caz este de dorit să se facă pași mari, iar în al doilea - mici. Deci, pe de o parte, dacă există o depresiune lungă și îngustă pe suprafața definită de funcția reziduală , atunci componentele gradientului de-a lungul bazei depresiunii sunt mici, iar spre pereți sunt mari, în timp ce este de dorit să meargă de-a lungul bazei râpei. O metodă de luare în considerare a informațiilor despre curbură a fost propusă de Marquardt. El a observat că dacă înlocuim matricea de identitate cu diagonala matricei Hessian, atunci putem obține o creștere a pasului de-a lungul secțiunilor blânde și o scădere de-a lungul coborârilor abrupte:

Metoda intervalului de încredere

Când se consideră algoritmul Levenberg-Marquardt ca o metodă a intervalelor de încredere, folosind euristică , se selectează un interval pe care se construiește aproximarea funcției :

În acest caz, pasul este determinat pe baza problemei de minimizare :

Note

  1. B. T. Polyak. Metoda lui Newton și rolul său în optimizare și matematică computațională  // Proceedings of the Institute of System Analysis of the Russian Academy of Sciences. - 2006. - T. 28 . — S. 44–62 . Arhivat din original pe 24 octombrie 2018.

Literatură

Link -uri