Dimensiunea Vapnik-Chervonenkis sau dimensiunea VC este o caracteristică a unei familii de algoritmi pentru rezolvarea unei probleme de clasificare cu două clase, care caracterizează complexitatea sau capacitatea acestei familii. Este unul dintre conceptele cheie din teoria Vapnik-Chervonenkis a învățării automate statistice și poartă numele lui Vladimir Vapnik și Alexey Chervonenkis .
Vapnik și Chervonenkis înșiși preferă să numească această dimensiune dimensiune combinatorie , deoarece s-a dovedit că ea era cunoscută de algebriști chiar înainte de descoperirea teoriei lor despre învățarea automată .
Să fie date o mulțime și o familie de funcții indicator (algoritmi de clasificare, reguli de decizie) , unde este argumentul funcțiilor, este vectorul parametrilor care definesc funcția. Fiecare astfel de funcție atribuie fiecărui element al mulțimii una dintre cele două clase date. Dimensiunea VC a unei familii este cel mai mare număr , astfel încât există o submulțime de elemente ale mulțimii , din care funcționează poate fi împărțită în două clase în toate modurile posibile. Dacă astfel de submulțimi există pentru arbitrar mare , atunci dimensiunea VC se presupune a fi egală cu infinitul.
Dimensiunea VC poate fi generalizată și în cazul unei familii de funcții care iau valori reale. Dimensiunea sa VC este definită ca dimensiunea VC a familiei de funcții indicator , unde gama de funcții . [unu]
Ca exemplu, luați în considerare problema împărțirii punctelor de pe un plan în două clase printr-o linie dreaptă - acesta este așa-numitul clasificator liniar . Un set de orice trei puncte care nu se află pe o singură linie dreaptă poate fi împărțit printr-o linie dreaptă în două clase în toate modurile posibile ( modurile prezentate în figura de mai jos arată trei dintre ele), dar nu mai există un set de patru sau mai multe puncte. Prin urmare, dimensiunea VC a clasificatorului liniar pe plan este egală cu trei.
Exemple de împărțire a trei puncte în două clase |
Separarea este imposibilă pentru aceste patru puncte |
În cazul general, dimensiunea VC a clasificatoarelor liniare în spațiul -dimensional este .
Învățare automată și extragerea datelor | |
---|---|
Sarcini | |
Învățarea cu un profesor | |
analiza grupului | |
Reducerea dimensionalității | |
Prognoza structurală | |
Detectarea anomaliilor | |
Modele grafice probabilistice | |
Rețele neuronale | |
Consolidarea învățării |
|
Teorie | |
Reviste și conferințe |
|