Lanțul Markov

Versiunea actuală a paginii nu a fost încă revizuită de colaboratori experimentați și poate diferi semnificativ de versiunea revizuită pe 28 decembrie 2019; verificările necesită 9 modificări .

Un lanț Markov  este o succesiune de evenimente aleatoare cu un număr finit sau numărabil de rezultate , unde probabilitatea ca fiecare eveniment să se producă depinde doar de starea atinsă în evenimentul anterior [1] . Se caracterizează prin proprietatea că, vorbind vag, cu un prezent fix, viitorul este independent de trecut. Numit în onoarea lui A. A. Markov (senior) , care a introdus pentru prima dată acest concept în lucrarea din 1906. [2]

Lanț Markov în timp discret

Definiție

O secvență de variabile aleatoare discrete se numește un lanț Markov simplu (cu timp discret) dacă

.

Astfel, în cel mai simplu caz, distribuția condiționată a stării următoare a lanțului Markov depinde doar de starea curentă și nu depinde de toate stările anterioare (spre deosebire de lanțurile Markov de ordin superior).

Gama de variabile aleatoare se numește spațiul de stare al lanțului, iar numărul  este numărul pasului.

Matrice de tranziție și lanțuri omogene

Matrix , unde

se numește matricea probabilităților de tranziție la pasul -a, iar vectorul , unde

— distribuția inițială a lanțului Markov.

Evident, matricea probabilității de tranziție este chiar stocastică , adică.

.

Un lanț Markov se numește omogen dacă matricea probabilității de tranziție nu depinde de numărul pasului, adică

.

În caz contrar, lanțul Markov este numit neomogen. În cele ce urmează, vom presupune că avem de-a face cu lanțuri Markov omogene.

Distribuțiile finite-dimensionale și matricea de tranziție în n trepte

Din proprietățile probabilității condiționate și definiția unui lanț Markov omogen, obținem:

,

de unde urmează cazul special al ecuației Kolmogorov-Chapman :

,

adică matricea probabilităților de tranziție pe trepte ale unui lanț Markov omogen este gradul --lea al matricei probabilităților de tranziție pe 1 pas. In cele din urma,

.

Tipuri de stat

Exemple

Lanț Markov cu timp continuu

Definiție

O familie de variabile aleatoare discrete se numește lanț Markov (cu timp continuu) dacă

.

Se spune că un lanț Markov cu timp continuu este omogen dacă

.

Matricea funcțiilor de tranziție și ecuația Kolmogorov-Chapman

Ca și în cazul timpului discret, distribuțiile finite-dimensionale ale unui lanț Markov omogen în timp continuu sunt complet determinate de distribuția inițială

și matricea funcțiilor de tranziție ( probabilități de tranziție )

.

Matricea probabilităților de tranziție satisface ecuația Kolmogorov-Chapman : or

Matricea intensității și ecuațiile diferențiale ale lui Kolmogorov

Prin definiție, matricea de intensitate este sau, echivalent,

.

Din ecuația Kolmogorov-Chapman decurg două ecuații:

Pentru ambele ecuații, se alege condiția inițială . Soluție adecvată

Proprietăţile matricelor P şi Q

Pentru orice matrice are următoarele proprietăți:

  1. Elementele matricei sunt nenegative: (non-negativitatea probabilităților).
  2. Suma elementelor din fiecare rând este 1: (probabilitate completă), adică matricea este stochastică la dreapta (sau pe rând).
  3. Toate valorile proprii ale matricei nu depășesc 1 în valoare absolută: . Dacă , atunci .
  4. Valoarea proprie a matricei corespunde cel puțin unui vector propriu stânga nenegativ - rând (echilibru): .
  5. Pentru o valoare proprie a unei matrice , toți vectorii rădăcină sunt vectori proprii, adică celulele Jordan corespunzătoare sunt triviale.

Matricea are următoarele proprietăți:

  1. Elementele matricei în afara diagonalei sunt nenegative: .
  2. Elementele matricei diagonale sunt nepozitive: .
  3. Suma elementelor din fiecare rând este 0:
  4. Partea reală a tuturor valorilor proprii ale matricei este nepozitivă: . Dacă , atunci
  5. Valoarea proprie a matricei corespunde cel puțin unui vector propriu nenegativ pe rândul din stânga (echilibru):
  6. Pentru o valoare proprie a unei matrice , toți vectorii rădăcină sunt vectori proprii, adică celulele Jordan corespunzătoare sunt triviale.

Graficul de tranziție, conectivitate și lanțuri Markov ergodice

Pentru un lanț Markov cu timp continuu, un grafic de tranziție direcționat (pe scurt, un grafic de tranziție) este construit conform următoarelor reguli:

Proprietățile topologice ale graficului de tranziție sunt legate de proprietățile spectrale ale matricei . În special, următoarele teoreme sunt adevărate pentru lanțurile finite de Markov:

A. Pentru oricare două vârfuri diferite ale graficului de tranziție, există un astfel de vârf al graficului („drenaj comun”) încât există căi orientate de la vârf la vârf și de la vârf la vârf . Notă : caz posibil sau ; în acest caz, o cale trivială (vid) de la la sau de la la este considerată și o cale direcționată. B. O valoare proprie zero a unei matrice este nedegenerată. C. La , matricea tinde spre o matrice în care toate rândurile coincid (și coincid, evident, cu distribuția de echilibru). A. Graficul de tranziție al unui lanț este conectat direcțional. B. Valoarea proprie zero a unei matrice este nedegenerată și corespunde unui vector propriu stânga strict pozitiv (distribuție de echilibru). B. Pentru unii, matricea este strict pozitivă (adică pentru toți ). D. Pentru toți, matricea este strict pozitivă. E. Pentru , matricea tinde spre o matrice strict pozitivă, în care toate rândurile coincid (și, evident, coincid cu distribuția de echilibru).

Exemple

Luați în considerare lanțuri Markov cu trei stări cu timp continuu, corespunzătoare graficelor de tranziție prezentate în Fig. În cazul (a), numai următoarele elemente în afara diagonalei matricei de intensitate sunt nenule , în cazul (b) numai sunt nenule , iar în cazul (c) sunt . Elementele rămase sunt determinate de proprietățile matricei (suma elementelor din fiecare rând este 0). Ca rezultat, pentru graficele (a), (b), (c) matricele de intensitate arată astfel:

Ecuația cinetică de bază

Ecuația cinetică de bază descrie evoluția distribuției de probabilitate într-un lanț Markov cu timp continuu. „Ecuația de bază” aici nu este un epitet, ci o traducere a termenului englezesc.  ecuația principală . Pentru vectorul rând al distribuției de probabilitate, ecuația cinetică de bază are forma:

și coincide, în esență, cu ecuația directă a lui Kolmogorov . În literatura fizică, vectorii coloană ai probabilităților sunt mai des folosiți, iar ecuația cinetică de bază este scrisă într-o formă care utilizează în mod explicit legea conservării probabilității totale:

Unde

Dacă există un echilibru pozitiv pentru ecuația cinetică de bază , atunci acesta poate fi scris sub forma

Funcții Lyapunov pentru ecuația cinetică de bază

Pentru ecuația cinetică principală, există o familie bogată de funcții Lyapunov convexe  - funcții de distribuție a probabilității care se modifică monoton în timp. Fie  o funcție convexă a unei variabile. Pentru orice distribuție de probabilitate pozitivă ( ) definim funcția Morimoto :

.

Derivata în timp, dacă satisface ecuația cinetică de bază, este

.

Ultima inegalitate este valabilă datorită convexității .

Exemple de funcții ale lui Morimoto
  • , ;
aceasta functie este distanta de la distributia curenta de probabilitate la cea de echilibru in - norma . Deplasarea în timp este o contracție a spațiului distribuțiilor de probabilitate din această normă. (Pentru proprietățile contracțiilor, vezi lucrarea Teorema punctului fix al lui Banach .)
  • , ;
această funcție este (minus) entropia Kullback (vezi distanța Kullback-Leibler ). În fizică, corespunde energiei libere împărțite la (unde  este constanta Boltzmann , este temperatura  absolută ): dacă ( distribuția Boltzmann ) atunci .
  • , ;
această funcție este analogul de energie liberă al entropiei Burg, care este utilizat pe scară largă în procesarea semnalului:
  • , ;
aceasta este o aproximare pătratică pentru (minus) entropia Kullback lângă punctul de echilibru. Până la un termen constant de timp, această funcție este aceeași cu entropia (minus) Fisher dată de următoarea alegere,
  • , ;
aceasta este (minus) entropia Fisher .
  • , ;
acesta este unul dintre analogii energiei libere pentru entropia Tsallis . servește drept bază pentru fizica statistică a cantităților neextensive. La , tinde spre entropia clasică Boltzmann-Gibbs-Shannon, iar funcția Morimoto corespunzătoare tinde către (minus) entropia Kullback.

Aplicație practică

Una dintre primele discipline științifice în care lanțurile Markov și-au găsit aplicații practice a fost lingvistica (în special critica textuală ). Markov însuși, pentru a-și ilustra rezultatele, a studiat dependența în alternanța vocalelor și consoanelor în primele capitole din „ Eugene Onegin ” și „ Anii copilăriei nepotului lui Bagrov[3] .

Note

  1. ↑ „Lanțul Markov | Definiția lanțului Markov în engleza SUA de către Oxford Dictionaries”  . Dicționare Oxford | Engleză. . Dicționare Lexico | engleză (14 decembrie 2017). Preluat: 1 aprilie 2020.
  2. Gagniuc, Paul A. Markov Chains: From Theory to Implementation and  Experimentation . - SUA, NJ: John Wiley & Sons , 2017. - P. 2-8. — ISBN 978-1-119-38755-8 .
  3. Maistrov, L.E. Dezvoltarea conceptului de probabilitate . - Nauka, 1980. - S. 188. - 269 p.

Literatură

  • Kelbert M. Ya., Sukhov Yu. M. Probabilitate și statistică în exemple și probleme. Vol. II: Lanțurile Markov ca punct de plecare pentru teoria proceselor aleatorii și aplicațiile acestora. - M. : MTSNMO, 2010. - 295 p. — ISBN 978-5-94057-252-7 .
  • Markov A. A. , Extinderea legii numerelor mari la cantități care depind unele de altele. - Știri ale Societății de Fizică și Matematică de la Universitatea Kazan. - seria a 2-a. - Volumul 15. (1906) - S. 135-156.
  • Lanțul Markov  / A. V. Prohorov // Marea Enciclopedie Rusă  : [în 35 de volume]  / cap. ed. Yu. S. Osipov . - M .  : Marea Enciclopedie Rusă, 2004-2017.
  • Kemeny JG, Snell JL , lanțuri Finite Markov. — Seria universitară în matematică de licență. Princeton: Van Nostrand, 1960
    • Traducere: Kemeny J.J. , Snell J.L. Lanțuri Finite Markov. — M.: Nauka. 1970. - 272 p.
  • Zhong Kai-lai Lanțuri Markov omogene. Transl. din engleza. — M.: Mir, 1964. — 425 p.
  • E. Nummelin , Lanțuri Markov generale ireductibile și operatori nenegativi. — M.: Mir, 1989. — 207 p.
  • Morimoto T. , procesele Markov și teorema H. — J. Phys. soc. Jap. 12 (1963), 328-331.
  • Yaglom A.M. , Yaglom I.M. , Probabilitate și informație . - M., Nauka, 1973. - 512 p.
  • Kullback S. , Teoria și statistica informației. Wiley, New York, 1959.
  • Burg JP , The Relationship Between Maximum Entropy Spectra and Maximum Likelihood Spectra, Geophysics 37(2) (1972), 375-376.
  • Tsallis C. , Posibila generalizare a statisticii Boltzmann-Gibbs. J. Stat. Fiz. 52 (1988), 479-487.
  • Rudoy Yu. G. , Entropia generalizată a informațiilor și distribuția non-canonică în mecanica statistică de echilibru , TMF, 135:1 (2003), 3-54.
  • Gorban, Alexander N.; Gorban, Pavel A.; Judecător, George. Entropie: Abordarea de ordonare a lui Markov . Entropia 12, nr. 5 (2010), 1145-1193.

Link -uri