Adaboost

Versiunea actuală a paginii nu a fost încă examinată de colaboratori experimentați și poate diferi semnificativ de versiunea revizuită pe 2 august 2019; verificările necesită 3 modificări .

AdaBoost (prescurtare de la Adaptive Boosting ) este un algoritm de învățare automată propus de Yoav Freund și Robert Shapire . Acest algoritm poate fi utilizat împreună cu mai mulți algoritmi de clasificare pentru a le îmbunătăți performanța. Algoritmul întărește clasificatorii combinându-i într-un „comitet” ( ansamblu ). AdaBoost este adaptativ în sensul că fiecare comitet de clasificare următor este construit pe obiecte care au fost clasificate incorect de comitetele anterioare. AdaBoost este sensibil la zgomotul datelor și valorile aberante . Cu toate acestea, este mai puțin predispus la supraadaptare în comparație cu alți algoritmi de învățare automată.

AdaBoost numește clasificatorii slabi într-o buclă . După fiecare apel, distribuția greutăților este actualizată , care corespund importanței fiecăruia dintre obiectele din setul de antrenament pentru clasificare. La fiecare iterație, ponderile fiecărui obiect clasificat greșit sunt crescute, astfel încât noul comitet de clasificare „își concentrează atenția” asupra acestor obiecte.

Algoritm pentru problema construirii unui clasificator binar

Dat: unde

Inițializați

Pentru fiecare :


unde este un parametru de normalizare (ales să fie o distribuție de probabilitate , adică ).

Construim clasificatorul rezultat:

Expresia de actualizare a distribuției trebuie să fie construită în așa fel încât următoarea condiție să fie adevărată:

Astfel, după alegerea clasificatorului optim pentru distribuție , obiectele , pe care clasificatorul le identifică corect, au ponderi mai mici decât cele care sunt identificate incorect. Prin urmare, atunci când algoritmul testează clasificatorii pe distribuție , va alege clasificatorul care este mai bun la identificarea obiectelor recunoscute greșit de clasificatorul anterior.

Link -uri