Învățarea probabil aproximativ corectă ( învățarea PAC ) este o schemă de învățare automată care utilizează conceptele de fiabilitate asimptotică și complexitate computațională . Propus în 1984 de Leslie Valiant [1] .
În această schemă, profesorul primește mostre și trebuie să aleagă o funcție de generalizare (numită ipoteză ) dintr-o anumită clasă de funcții posibile. Scopul este o funcție care este foarte probabil (de unde „probabil” din nume) să aibă o eroare de generalizare scăzută (de unde „aproximativ corect” din nume). Profesorul ar trebui să fie capabil să predea un concept [2] oferind un factor de aproximare arbitrar, probabilitatea de succes sau distribuția eșantionului .
Ulterior, modelul a fost extins pentru a gestiona zgomotul (probele clasificate incorect).
O inovație importantă a schemei MIC este utilizarea conceptului de complexitate computațională a învățării automate. În special, se așteaptă ca profesorul să găsească funcții eficiente (care sunt limitate în timpul de rulare și spațiul necesar de un polinom al mărimii eșantionului), iar profesorul trebuie să implementeze o procedură eficientă (cerând un exemplu de dimensiune limitată de un polinom al dimensiunea conceptului, modificată prin aproximare și limite de probabilitate ).
Pentru o definiție formală, se folosește un anumit set dat , numit spațiu caracteristic sau codificarea tuturor mostrelor. De exemplu, în problema recunoașterii optice a caracterelor, spațiul caracteristic este , iar în problema găsirii unui interval (clasificarea corectă a punctelor din interiorul intervalului ca pozitive și din afara intervalului ca negative), spațiul caracteristicilor este mulțimea tuturor mărginite. intervale în .
Un alt concept folosit în schemă este conceptul - un subset . De exemplu, setul tuturor secvențelor de biți din care codifică modelul literei „P” este unul dintre conceptele din problema OCR. Un exemplu de concept pentru problema găsirii unui interval este setul de intervale deschise , fiecare dintre acestea conținând doar puncte pozitive. Clasa de concepte este un set de concepte peste . Acesta poate fi setul tuturor submulților din cadrul 4-connected matrice de biți (lățimea fontului este 1).
Fie o procedură care generează un exemplu folosind o distribuție de probabilitate și dă eticheta corectă , care este 1 dacă și 0 în caz contrar. Acum, dat fiind , să presupunem că există un algoritm și un polinom din (și alți parametri relevanți de clasă ) astfel încât, dat un eșantion de dimensiune , extras conform , atunci cu probabilitate cel puțin rezultatul algoritmului este ipoteza , care are media eroare, mai mică sau egală cu pentru aceeași distribuție . În plus, dacă afirmația de mai sus pentru algoritm este adevărată pentru orice concept și pentru orice distribuție peste și pentru toate , atunci este (efectiv) VPK-learnable (sau VPK-learnable fără distribuție ). În acest caz, se consideră că este algoritmul de învățare VPK pentru .
În anumite condiții de regularitate, aceste trei condiții sunt echivalente:
Învățare automată și extragerea datelor | |
---|---|
Sarcini | |
Învățarea cu un profesor | |
analiza grupului | |
Reducerea dimensionalității | |
Prognoza structurală | |
Detectarea anomaliilor | |
Modele grafice probabilistice | |
Rețele neuronale | |
Consolidarea învățării |
|
Teorie | |
Reviste și conferințe |
|