Regularizare (matematică)

Regularizarea în statistică , învățarea automată , teoria inversă a problemelor  este o metodă de adăugare a unor constrângeri suplimentare la o condiție pentru a rezolva o problemă prost pusă sau pentru a preveni supraadaptarea . Aceste informații vin adesea sub forma unei penalizări pentru complexitatea modelului. De exemplu, acestea pot fi restricții privind netezimea funcției rezultate sau restricții asupra normei spațiului vectorial .

Din punct de vedere bayesian , multe metode de regularizare corespund adăugării unor distribuții anterioare la parametrii modelului.

Unele tipuri de regularizare:

Supraadaptarea în majoritatea cazurilor se manifestă prin faptul că polinoamele rezultate au coeficienți prea mari. În consecință, este necesar să se adauge o penalizare pentru coeficienți prea mari la funcția obiectiv .

Nu există o soluție pentru optimizarea sau optimizarea multicriterială în care domeniul funcției obiectiv este un spațiu pe care nu există o ordine liniară sau este dificil de introdus. Aproape întotdeauna există puncte în domeniul funcției care se optimizează și care satisfac constrângerile, dar valorile la puncte sunt incomparabile. Pentru a găsi toate punctele de pe curba Pareto , utilizați scalarizarea [1] . În optimizare, regularizarea este o tehnică generală de scalarizare pentru o problemă de optimizare cu două criterii [2] . Variind parametrul lambda - elementul care trebuie să fie mai mare decât zero în conul dual față de care este definită ordinea - puteți obține puncte diferite pe curba Pareto .

Note

  1. Boyd și Vandenberghe 2004 , p. 178.
  2. Boyd și Vandenberghe 2004 , p. 306.

Literatură