Metode de subgradient

Metodele subgradient  sunt metode iterative pentru rezolvarea problemelor de minimizare convexe . Metodele subgradient dezvoltate de Naum Zuselevich Shor converg chiar și atunci când sunt aplicate la funcții obiectiv nediferențiabile . Când funcția este diferențiabilă, metodele subgradient pentru probleme neconstrânse utilizează aceeași direcție de căutare ca metoda de coborâre cu cea mai abruptă .

Metodele subgradient sunt mai lente decât metodele lui Newton , în care funcțiile convexe dublu diferențiabile continuu sunt utilizate pentru minimizare. Cu toate acestea, metodele lui Newton încetează să convergă asupra problemelor care au îndoieli nediferențiabile.

În ultimii ani, unele metode de punct interior au fost propuse pentru probleme de minimizare convexă, dar atât metodele de proiecție subgradient, cât și metodele de coborâre a fasciculului aferente rămân competitive. Pentru problemele de minimizare convexe cu un număr mare de dimensiuni, metodele de proiecție subgradient sunt acceptabile deoarece necesită o cantitate mică de memorie.

Metodele de proiecție subgradient sunt adesea aplicate problemelor de dimensiuni mari folosind tehnici de descompunere. Astfel de metode de descompunere permit adesea o metodă simplă de sarcini distribuite.

Reguli pentru subgradientul clasic

Fie o funcție convexă cu domeniu . Metoda clasică subgradient iterează

unde este orice subdiferențială a funcției în punctul , și  este a k - a iterație a variabilei . Dacă este diferențiabilă, atunci singurul său subgradient este gradientul lui . Se poate întâmpla ca în acel punct să nu fie o direcție descrescătoare . Prin urmare, conținem o listă , care stochează cele mai mici valori găsite ale funcției obiectiv, adică

Reguli pentru dimensiunea pasului

Metodele subgradient utilizează un număr mare de reguli diferite de selecție a mărimii pasului. Aici notăm cinci reguli clasice pentru care sunt cunoscute dovezile de convergență :

Pentru toate cele cinci reguli, dimensiunea pasului este determinată „în avans”, înainte de începerea metodei. Dimensiunea pasului este independentă de iterațiile anterioare. Proprietatea de selecție a pașilor „în avans” pentru metodele subgradient diferă de regulile de selecție a pașilor „în desfășurare” utilizate în metodele pentru funcții diferențiabile - multe metode de minimizare a funcțiilor diferențiabile satisfac condițiile Wolf pentru convergență, unde dimensiunile pasului depind de curentul poziţia punctului şi direcţia curentă de căutare. O discuție extinsă despre regulile de selecție a pașilor pentru metodele subgradient, inclusiv versiunile incrementale, este dată în cartea lui Bertsekas [1] și, de asemenea, în cartea lui Bertsekas, Nedić și Ozdağlar [2] .

Convergență

Pentru o lungime constantă a pasului și subgradienți scalabili având o normă euclidiană egală cu unu, metoda subgradientului se apropie în mod arbitrar de valoarea minimă, i.e.

conform Shore [3] .

Metodele clasice subgradient au o convergență slabă și nu mai sunt recomandate pentru utilizare [4] [5] . Cu toate acestea, ele sunt încă folosite în aplicații specializate deoarece sunt simple și ușor de adaptat la structuri speciale pentru a profita de caracteristicile acestora.

Proiecții subgradient și metode ale fasciculului

În anii 1970, Claude Lemérachel și Phil Wolf au propus „metode snopi” pentru coborâre pentru probleme de minimizare convexă [6] . Sensul termenului „metode fascicul” s-a schimbat mult de atunci. Versiuni moderne și o analiză completă de convergență au fost date de Kiel [7] . Metodele moderne ale fasciculului folosesc adesea reguli de „ control al nivelului ” pentru selectarea dimensiunii pasului, care dezvoltă tehnici din metoda „proiecției subgradient” a lui Boris T. Polyak (1969). Cu toate acestea, există probleme din cauza cărora metodele fasciculului oferă adesea puțin avantaj față de metodele de proiecție subgradient [4] [5] .

Optimizare constrânsă

Metoda de proiecție subgradient

O extensie a metodelor subgradient este metoda proiecției subgradient , care rezolvă problema de optimizare constrânsă.

minimizați în condiții

unde este o mulțime convexă . Metoda de proiecție subgradient folosește iterații

unde este proiecția pe , și este orice subgradient la .

Restricții generale

Metoda subgradientului poate fi extinsă pentru a rezolva problema cu constrângeri sub formă de inegalități

minimizați în condiții

unde funcțiile sunt convexe. Algoritmul ia aceeași formă a cazului fără restricții

unde este dimensiunea pasului și este subgradientul funcției obiectiv sau una dintre funcțiile de constrângere în punctul . Aici

unde înseamnă subdiferenţialul funcţiei . Dacă punctul curent este valid, algoritmul folosește subgradientul funcției obiectiv. Dacă punctul este invalid, algoritmul selectează un subgradient al oricărei constrângeri care este încălcată.

Note

  1. Bertsekas, 2015 .
  2. Bertsekas, Nedic, Ozdaglar, 2003 .
  3. Convergența metodelor subgradient cu pas constant (scalat) este menționată în exercițiul 6.3.14(a) din cartea lui Bertsekas (pagina 636) ( Bertsekas 1999 ) și el atribuie acest rezultat lui Shor ( Shor 1985 )
  4. 1 2 Lemarechal, 2001 , p. 112–156.
  5. 1 2 Kiwiel, Larsson, Lindberg, 2007 , p. 669–686.
  6. Bertsekas, 1999 .
  7. Kiwiel, 1985 , p. 362.

Literatură

Lectură suplimentară

Link -uri