AdaBoost (prescurtare de la Adaptive Boosting ) este un algoritm de învățare automată propus de Yoav Freund și Robert Shapire . Acest algoritm poate fi utilizat împreună cu mai mulți algoritmi de clasificare pentru a le îmbunătăți performanța. Algoritmul întărește clasificatorii combinându-i într-un „comitet” ( ansamblu ). AdaBoost este adaptativ în sensul că fiecare comitet de clasificare următor este construit pe obiecte care au fost clasificate incorect de comitetele anterioare. AdaBoost este sensibil la zgomotul datelor și valorile aberante . Cu toate acestea, este mai puțin predispus la supraadaptare în comparație cu alți algoritmi de învățare automată.
AdaBoost numește clasificatorii slabi într-o buclă . După fiecare apel, distribuția greutăților este actualizată , care corespund importanței fiecăruia dintre obiectele din setul de antrenament pentru clasificare. La fiecare iterație, ponderile fiecărui obiect clasificat greșit sunt crescute, astfel încât noul comitet de clasificare „își concentrează atenția” asupra acestor obiecte.
Dat: unde
Inițializați
Pentru fiecare :
Construim clasificatorul rezultat:
Expresia de actualizare a distribuției trebuie să fie construită în așa fel încât următoarea condiție să fie adevărată:
Astfel, după alegerea clasificatorului optim pentru distribuție , obiectele , pe care clasificatorul le identifică corect, au ponderi mai mici decât cele care sunt identificate incorect. Prin urmare, atunci când algoritmul testează clasificatorii pe distribuție , va alege clasificatorul care este mai bun la identificarea obiectelor recunoscute greșit de clasificatorul anterior.
Învățare automată și extragerea datelor | |
---|---|
Sarcini | |
Învățarea cu un profesor | |
analiza grupului | |
Reducerea dimensionalității | |
Prognoza structurală | |
Detectarea anomaliilor | |
Modele grafice probabilistice | |
Rețele neuronale | |
Consolidarea învățării |
|
Teorie | |
Reviste și conferințe |
|