Regularizarea în statistică , învățarea automată , teoria inversă a problemelor este o metodă de adăugare a unor constrângeri suplimentare la o condiție pentru a rezolva o problemă prost pusă sau pentru a preveni supraadaptarea . Aceste informații vin adesea sub forma unei penalizări pentru complexitatea modelului. De exemplu, acestea pot fi restricții privind netezimea funcției rezultate sau restricții asupra normei spațiului vectorial .
Din punct de vedere bayesian , multe metode de regularizare corespund adăugării unor distribuții anterioare la parametrii modelului.
Unele tipuri de regularizare:
Supraadaptarea în majoritatea cazurilor se manifestă prin faptul că polinoamele rezultate au coeficienți prea mari. În consecință, este necesar să se adauge o penalizare pentru coeficienți prea mari la funcția obiectiv .
Nu există o soluție pentru optimizarea sau optimizarea multicriterială în care domeniul funcției obiectiv este un spațiu pe care nu există o ordine liniară sau este dificil de introdus. Aproape întotdeauna există puncte în domeniul funcției care se optimizează și care satisfac constrângerile, dar valorile la puncte sunt incomparabile. Pentru a găsi toate punctele de pe curba Pareto , utilizați scalarizarea [1] . În optimizare, regularizarea este o tehnică generală de scalarizare pentru o problemă de optimizare cu două criterii [2] . Variind parametrul lambda - elementul care trebuie să fie mai mare decât zero în conul dual față de care este definită ordinea - puteți obține puncte diferite pe curba Pareto .
Învățare automată și extragerea datelor | |
---|---|
Sarcini | |
Învățarea cu un profesor | |
analiza grupului | |
Reducerea dimensionalității | |
Prognoza structurală | |
Detectarea anomaliilor | |
Modele grafice probabilistice | |
Rețele neuronale | |
Consolidarea învățării |
|
Teorie | |
Reviste și conferințe |
|