O rețea Markov , un câmp aleator Markov sau un model de grafic nedirecționat este un model de grafic în care setul de variabile aleatoare are proprietatea Markov descrisă de un grafic nedirecționat . O rețea Markov diferă de un alt model grafic, rețeaua Bayesiană , prin reprezentarea dependențelor dintre variabilele aleatoare. Poate exprima unele dependențe pe care rețeaua bayesiană nu le poate exprima (de exemplu, dependențe ciclice); pe de altă parte, ea nu poate exprima unele altele. Prototipul rețelei Markov a fost modelul Ising al magnetizării materialelor în fizica statistică : Rețeaua Markov a fost prezentată ca o generalizare a acestui model. [unu]
Având în vedere un grafic nedirecționat G = ( V , E ), atunci mulțimea de variabile aleatoare ( X v ) v ∈ V indexate de V formează un câmp aleator Markov în raport cu G dacă satisfac următoarele proprietăți Markov echivalente:
Proprietatea perechii : oricare două variabile neadiacente sunt independente condiționat, având în vedere toate celelalte variabile: Proprietate locală : variabila este independentă condiționat de toate celelalte valori, având în vedere vecinii săi: unde ne( v ) este mulțimea vecinilor lui V , iar cl( v ) = { v } ∪ ne( v ) este o vecinătate închisă a lui v . Proprietate globală : oricare două subseturi de variabile sunt independente condiționat, având în vedere submulțimea de separare: unde fiecare cale de la un nod din A la un nod din B trece prin S .Cu alte cuvinte, se spune că un grafic G este un câmp aleator Markov în raport cu probabilitățile distribuite comune P ( X = x ) pe un set de variabile aleatoare X dacă și numai dacă împărțirea graficului G implică independență condiționată: Dacă două noduri și sunt împărțit în G după ce a fost îndepărtat din G set de noduri Z , atunci P ( x = x ) trebuie să afirme că și sunt independenți condiționat având în vedere variabilele aleatoare corespunzătoare lui Z. Dacă această condiție este îndeplinită, atunci se spune că G este o hartă independentă (sau I-hartă) a distribuției de probabilitate .
Multe definiții necesită, de asemenea, ca G să fie o hartă I minimă, adică o hartă I din care o margine este îndepărtată, încetează să mai fie o hartă I. (Aceasta este o cerință rezonabilă, deoarece duce la cea mai compactă reprezentare care include cât mai puține dependențe posibil; rețineți că graficul complet este o hartă I trivială.) În cazul în care G nu este doar o hartă I (aceasta este, nu reprezintă independențe care nu sunt specificate în P ( X = x )), dar nici nu reprezintă dependențe care nu sunt specificate în P ( X = x ), G se numește o hartă perfectă (hartă perfectă) P ( X = x ). Reprezintă mulțimea de independențe specificate de P ( X = x ).
Deoarece proprietățile Markov ale unei distribuții de probabilitate arbitrare sunt dificil de stabilit, există o clasă larg utilizată de câmpuri aleatoare Markov care pot fi factorizate în funcție de clicurile graficului. Mulțimea variabilelor aleatoare X = ( X v ) v ∈ V pentru care densitatea îmbinării poate fi factorizată pe clicurile G :
formează un câmp aleator Markov în raport cu G , unde cl( G ) este mulțimea de clicuri ale lui G (definiția este echivalentă dacă sunt utilizate numai clicuri maxime). Funcțiile φ C sunt adesea numite potențiale factoriale sau potențiale de clică. Deși există MRF-uri care nu se descompun (un exemplu simplu poate fi construit pe o buclă cu 4 noduri [2] ), în unele cazuri se poate dovedi a fi în stări echivalente:
Când există o astfel de descompunere, se poate construi un grafic al factorilor pentru rețea.
Modelul logistic al unui câmp aleator Markov folosind funcția ca o funcție a distribuției comune complete poate fi scris ca
cu functie de distributie
unde este setul de distribuții posibile de valori ale variabilelor aleatoare ale tuturor rețelelor.
Forme ale distribuției normale multivariate a unui câmp aleator Markov în raport cu un grafic G = ( V , E ) dacă muchiile lipsă corespund cu zerouri în matricea de precizie (matricea de covarianță inversă ):
[3]Modele grafice probabilistice | |
---|---|
|
Învățare automată și extragerea datelor | |
---|---|
Sarcini | |
Învățarea cu un profesor | |
analiza grupului | |
Reducerea dimensionalității | |
Prognoza structurală | |
Detectarea anomaliilor | |
Modele grafice probabilistice | |
Rețele neuronale | |
Consolidarea învățării |
|
Teorie | |
Reviste și conferințe |
|