Metodele subgradient sunt metode iterative pentru rezolvarea problemelor de minimizare convexe . Metodele subgradient dezvoltate de Naum Zuselevich Shor converg chiar și atunci când sunt aplicate la funcții obiectiv nediferențiabile . Când funcția este diferențiabilă, metodele subgradient pentru probleme neconstrânse utilizează aceeași direcție de căutare ca metoda de coborâre cu cea mai abruptă .
Metodele subgradient sunt mai lente decât metodele lui Newton , în care funcțiile convexe dublu diferențiabile continuu sunt utilizate pentru minimizare. Cu toate acestea, metodele lui Newton încetează să convergă asupra problemelor care au îndoieli nediferențiabile.
În ultimii ani, unele metode de punct interior au fost propuse pentru probleme de minimizare convexă, dar atât metodele de proiecție subgradient, cât și metodele de coborâre a fasciculului aferente rămân competitive. Pentru problemele de minimizare convexe cu un număr mare de dimensiuni, metodele de proiecție subgradient sunt acceptabile deoarece necesită o cantitate mică de memorie.
Metodele de proiecție subgradient sunt adesea aplicate problemelor de dimensiuni mari folosind tehnici de descompunere. Astfel de metode de descompunere permit adesea o metodă simplă de sarcini distribuite.
Fie o funcție convexă cu domeniu . Metoda clasică subgradient iterează
unde este orice subdiferențială a funcției în punctul , și este a k - a iterație a variabilei . Dacă este diferențiabilă, atunci singurul său subgradient este gradientul lui . Se poate întâmpla ca în acel punct să nu fie o direcție descrescătoare . Prin urmare, conținem o listă , care stochează cele mai mici valori găsite ale funcției obiectiv, adică
Metodele subgradient utilizează un număr mare de reguli diferite de selecție a mărimii pasului. Aici notăm cinci reguli clasice pentru care sunt cunoscute dovezile de convergență :
Pentru toate cele cinci reguli, dimensiunea pasului este determinată „în avans”, înainte de începerea metodei. Dimensiunea pasului este independentă de iterațiile anterioare. Proprietatea de selecție a pașilor „în avans” pentru metodele subgradient diferă de regulile de selecție a pașilor „în desfășurare” utilizate în metodele pentru funcții diferențiabile - multe metode de minimizare a funcțiilor diferențiabile satisfac condițiile Wolf pentru convergență, unde dimensiunile pasului depind de curentul poziţia punctului şi direcţia curentă de căutare. O discuție extinsă despre regulile de selecție a pașilor pentru metodele subgradient, inclusiv versiunile incrementale, este dată în cartea lui Bertsekas [1] și, de asemenea, în cartea lui Bertsekas, Nedić și Ozdağlar [2] .
Pentru o lungime constantă a pasului și subgradienți scalabili având o normă euclidiană egală cu unu, metoda subgradientului se apropie în mod arbitrar de valoarea minimă, i.e.
conform Shore [3] .Metodele clasice subgradient au o convergență slabă și nu mai sunt recomandate pentru utilizare [4] [5] . Cu toate acestea, ele sunt încă folosite în aplicații specializate deoarece sunt simple și ușor de adaptat la structuri speciale pentru a profita de caracteristicile acestora.
În anii 1970, Claude Lemérachel și Phil Wolf au propus „metode snopi” pentru coborâre pentru probleme de minimizare convexă [6] . Sensul termenului „metode fascicul” s-a schimbat mult de atunci. Versiuni moderne și o analiză completă de convergență au fost date de Kiel [7] . Metodele moderne ale fasciculului folosesc adesea reguli de „ control al nivelului ” pentru selectarea dimensiunii pasului, care dezvoltă tehnici din metoda „proiecției subgradient” a lui Boris T. Polyak (1969). Cu toate acestea, există probleme din cauza cărora metodele fasciculului oferă adesea puțin avantaj față de metodele de proiecție subgradient [4] [5] .
O extensie a metodelor subgradient este metoda proiecției subgradient , care rezolvă problema de optimizare constrânsă.
minimizați în condițiiunde este o mulțime convexă . Metoda de proiecție subgradient folosește iterații
unde este proiecția pe , și este orice subgradient la .
Metoda subgradientului poate fi extinsă pentru a rezolva problema cu constrângeri sub formă de inegalități
minimizați în condițiiunde funcțiile sunt convexe. Algoritmul ia aceeași formă a cazului fără restricții
unde este dimensiunea pasului și este subgradientul funcției obiectiv sau una dintre funcțiile de constrângere în punctul . Aici
unde înseamnă subdiferenţialul funcţiei . Dacă punctul curent este valid, algoritmul folosește subgradientul funcției obiectiv. Dacă punctul este invalid, algoritmul selectează un subgradient al oricărei constrângeri care este încălcată.
de optimizare | Metode|
---|---|
Unidimensional |
|
Comanda zero | |
Prima comanda | |
a doua comanda | |
Stochastic | |
Metode de programare liniară | |
Metode de programare neliniară |