Probabilitate

Probabilitatea  este gradul (măsură relativă, evaluare cantitativă) al posibilității de apariție a unui eveniment . Când motivele pentru care un eveniment posibil să apară efectiv depășesc motivele opuse, atunci acest eveniment se numește probabil , altfel - improbabil sau improbabil . Preponderența motivelor pozitive față de cele negative și invers, poate fi în grade diferite, drept urmare probabilitatea (și improbabilitatea ) este mai mare sau mai mică [1]. Prin urmare, probabilitatea este adesea evaluată la nivel calitativ, mai ales în cazurile în care o evaluare cantitativă mai mult sau mai puțin precisă este imposibilă sau extrem de dificilă. Sunt posibile diferite gradații de „niveluri” de probabilitate [2] .

Studiul probabilității din punct de vedere matematic este o disciplină specială - teoria probabilității [1] . În teoria probabilității și statistica matematică , conceptul de probabilitate este formalizat ca o caracteristică numerică a unui eveniment - o măsură a probabilității (sau valoarea acesteia) - o măsură a unui set de evenimente (subseturi ale unui set de evenimente elementare), luând valori de la la . Valoarea corespunde unui eveniment valid . Un eveniment imposibil are o probabilitate de 0 (reversul, în general, nu este întotdeauna adevărat). Dacă probabilitatea de apariție a unui eveniment este egală cu , atunci probabilitatea de neapariție a acestuia (precum și improbabilitatea de apariție) este egală cu . În special, probabilitatea înseamnă probabilitatea egală de apariție și de neapariție a unui eveniment.

Definiția clasică a probabilității se bazează pe conceptul de equiprobabilitate a rezultatelor. Probabilitatea este raportul dintre numărul de rezultate care favorizează un anumit eveniment și numărul total de rezultate la fel de probabile. De exemplu, probabilitățile de a obține „capete” sau „cozi” la o aruncare aleatorie a unei monede sunt aceleași și egale , probabilitățile de a obține orice față a unui zar sunt aceleași și egale . Această „definiție” clasică a probabilității poate fi generalizată în cazul unui număr infinit de valori posibile - de exemplu, dacă un eveniment poate avea loc cu probabilitate egală în orice punct (numărul de puncte este infinit) al unei zone limitate de ​​spațiu (plan), atunci probabilitatea ca aceasta să se producă într-o anumită parte a acestei zone admisibile este egală cu raportul dintre volumul (aria) acestei părți și volumul (aria) ariei tuturor punctelor posibile .

„Definiția” empirică a probabilității este legată de frecvența producerii unui eveniment, pe baza faptului că, cu un număr suficient de mare de încercări, frecvența ar trebui să tindă spre gradul obiectiv de posibilitate a acestui eveniment. În prezentarea modernă a teoriei probabilităţii , probabilitatea este definită axiomatic , ca un caz special al teoriei abstracte a măsurii unei mulţimi . Cu toate acestea, legătura dintre măsura abstractă și probabilitate, care exprimă gradul de posibilitate al unui eveniment, este tocmai frecvența observării acestuia.

Descrierea probabilistică a anumitor fenomene a devenit larg răspândită în știința modernă, în special în econometrie , fizica statistică a sistemelor macroscopice ( termodinamice ), unde chiar și în cazul unei descrieri deterministe clasice a mișcării particulelor, o descriere deterministă a întregului sistem. de particule nu este practic posibil și adecvat. În fizica cuantică , procesele descrise în sine sunt de natură probabilistică.

Istorie

Preistoria conceptului de probabilitate

Necesitatea conceptului de probabilitate și de cercetare în această direcție a fost asociată istoric cu jocurile de noroc , în special cu jocurile cu zaruri. Înainte de apariția conceptului de probabilitate, problemele combinatorii erau formulate în principal pentru calcularea numărului de rezultate posibile la aruncarea mai multor zaruri, precum și problema împărțirii pariului între jucători când jocul se termina înainte de termen. Prima problemă, la aruncarea a trei zaruri, a fost „rezolvată” în 960 de către episcopul Wiebold din Cambrai [3] . El a numărat 56 de opțiuni. Cu toate acestea, acest număr nu reflectă de fapt numărul de posibilități equiprobabile, deoarece fiecare dintre cele 56 de opțiuni poate fi realizată într-un număr diferit de moduri. În prima jumătate a secolului al XIII-lea, aceste aspecte au fost luate în considerare de Richard de Fornival . În ciuda faptului că are și numărul 56, el ține cont în raționamentul său că, de exemplu, „același număr de puncte pe trei zaruri poate fi obținut în șase moduri”. Pe baza raționamentului său, se poate stabili deja că numărul de opțiuni la fel de posibile este de 216. În viitor, mulți nu au rezolvat această problemă destul de corect. Pentru prima dată, numărul de rezultate la fel de posibile la aruncarea a trei zaruri a fost calculat clar de Galileo Galilei , ridicând cele șase (numărul de opțiuni pentru aruncarea unui zar) la puterea lui 3 (numărul de zaruri): 6³ = 216 . De asemenea, a făcut tabele cu numărul de moduri de a obține diferite sume de puncte.

Probleme de al doilea tip la sfârșitul secolului al XV-lea au fost formulate și propuse de prima soluție (în general, eronată) Luca Pacioli [3] . Soluția lui a fost împărțirea pariului proporțional cu jocurile deja câștigate. Un progres semnificativ la începutul secolului al XVI-lea este asociat cu numele oamenilor de știință italieni Gerolamo Cardano și N. Tartaglia . Cardano a numărat corect de câte ori au fost aruncate două zaruri (36). De asemenea, el a corelat pentru prima dată numărul de apariții ale unui anumit număr pe cel puțin un zar (11) cu numărul total de rezultate (care corespunde definiției clasice a probabilității) - 11/36. În mod similar, pentru trei zaruri, el a considerat, de exemplu, că nouă puncte pot fi obținute într-un număr de moduri egal cu 1/9 din „întreaga serie” (adică numărul total de rezultate la fel de posibile este 216). Cardano nu a introdus în mod oficial conceptul de probabilitate, ci a luat în considerare în esență numărul relativ de rezultate, care este în esență echivalent cu luarea în considerare a probabilităților. La începuturile sale în Cardano, se pot găsi și idei legate de legea numerelor mari. În ceea ce privește sarcina de împărțire a mizei, Cardano a sugerat să se țină cont de numărul de jocuri rămase care trebuie câștigate. N. Tartaglia a făcut și el comentarii asupra deciziei lui Luca și și-a oferit propria soluție (în general vorbind, de asemenea eronată).

Meritul lui Galileo constă și în extinderea domeniului cercetării către domeniul erorilor de observație. El a subliniat mai întâi inevitabilitatea erorilor și le-a clasificat în sistematice și aleatorii (această clasificare este folosită și astăzi).

Apariția conceptului și a teoriei probabilității

Primele lucrări despre probabilitate datează din secolul al XVII-lea. Cum ar fi corespondența oamenilor de știință francezi B. Pascal , P. Fermat (1654) și a savantului olandez X. Huygens (1657) care au dat cea mai timpurie interpretare științifică cunoscută a probabilității [4] . În esență, Huygens opera deja cu conceptul de așteptare. Matematicianul elvețian J. Bernoulli a stabilit legea numerelor mari pentru o schemă de încercări independente cu două rezultate (rezultatul a fost publicat în 1713, după moartea sa).

În secolul al XVIII-lea. - începutul secolului al XIX-lea teoria probabilității este dezvoltată în lucrările lui A. Moivre (Anglia, 1718), P. Laplace (Franța), C. Gauss (Germania) și S. Poisson (Franța). Teoria probabilității începe să fie aplicată în teoria erorilor de observație, care s-a dezvoltat în legătură cu nevoile geodeziei și astronomiei, și în teoria fotografierii. Legea distribuției erorilor a fost propusă în esență de Laplace, mai întâi ca dependență exponențială de eroare fără a lua în considerare semnul (în 1774), apoi ca funcție exponențială a pătratului erorii (în 1778). Această din urmă lege este de obicei numită distribuție Gaussiană sau distribuție normală. Bernoulli (1778) a introdus principiul produsului probabilităților evenimentelor simultane. Adrien Marie Legendre (1805) a dezvoltat metoda celor mai mici pătrate .

În a doua jumătate a secolului al XIX-lea. Dezvoltarea teoriei probabilităților este asociată cu lucrările matematicienilor ruși P. L. Chebyshev , A. M. Lyapunov și A. A. Markov (senior), precum și cu lucrările despre statistica matematică a lui A. Quetelet (Belgia) și F. Galton (Anglia) fizicii L. Boltzmann (în Austria), care a creat baza unei extinderi semnificative a problemelor teoriei probabilităților. Cea mai utilizată schemă logică (axiomatică) pentru construirea bazelor teoriei probabilităților a fost dezvoltată în 1933 de matematicianul sovietic A. N. Kolmogorov .

Definițiile probabilității

Definiție clasică

„Definiția” clasică a probabilității pornește de la conceptul de echiprobabilitate ca proprietate obiectivă a fenomenelor studiate. Echivalența este un concept indefinibil și se stabilește din considerații generale de simetrie a fenomenelor studiate. De exemplu, atunci când aruncați o monedă, se presupune că, din cauza presupusei simetrii a monedei, a omogenității materialului și a caracterului aleatoriu (non-bias) al aruncării, nu există niciun motiv să preferați „cozile” în detrimentul „vulturi” sau invers, adică pierderea acestor laturi poate fi considerată la fel de probabilă (echiprobabilă) .

Alături de conceptul de echiprobabilitate în cazul general, definiția clasică necesită și conceptul de eveniment elementar (rezultat) care favorizează sau nu favorizează evenimentul A aflat în studiu. Vorbim despre rezultate, a căror apariție exclude posibilitatea de apariția altor rezultate. Acestea sunt evenimente elementare incompatibile. De exemplu, când se aruncă un zar, obținerea unui anumit număr exclude restul numerelor.

Definiția clasică a probabilității poate fi formulată după cum urmează:

Probabilitatea unui eveniment aleatoriu A este raportul dintre numărul n de evenimente elementare incompatibile la fel de probabile care alcătuiesc evenimentul A și numărul tuturor evenimentelor elementare posibile N :

De exemplu, să presupunem că sunt aruncate două zaruri. Numărul total de rezultate la fel de posibile (evenimente elementare) este de 36 (deoarece pentru fiecare dintre cele 6 rezultate posibile ale unui os, există 6 rezultate posibile ale celuilalt). Estimați probabilitatea de a obține șapte puncte. Puteți obține 7 puncte numai cu următoarele combinații de rezultate ale aruncării a două zaruri: 1+6, 2+5, 3+4, 4+3, 5+2, 6+1. Adică, un total de 6 rezultate la fel de probabile care favorizează obținerea a 7 puncte din 36 de rezultate posibile ale aruncării cu zaruri. Prin urmare, probabilitatea va fi egală cu 6/36 sau, dacă este scurtată, 1/6. Pentru comparație: probabilitatea de a obține 12 puncte sau 2 puncte este de doar 1/36 - de 6 ori mai mică.

Definiție geometrică

În ciuda faptului că definiția clasică este intuitivă și derivată din practică, cel puțin nu poate fi aplicată direct dacă numărul de rezultate la fel de posibile este infinit. Un exemplu izbitor al unui număr infinit de rezultate posibile este o regiune geometrică limitată G, de exemplu, pe un plan, cu o zonă S. Un „punct” „aruncat” aleatoriu poate fi în orice punct din această regiune cu probabilitate egală. Problema este de a determina probabilitatea ca un punct să se încadreze într-un subdomeniu g cu aria s. În acest caz, generalizând definiția clasică, putem ajunge la o definiție geometrică a probabilității de a intra în subdomeniu :

Având în vedere posibilitatea egală, această probabilitate nu depinde de forma regiunii g, depinde doar de aria sa. Această definiție poate fi generalizată în mod natural la un spațiu de orice dimensiune, unde conceptul de „volum” este folosit în loc de zonă. Mai mult, această definiție este cea care conduce la definiția axiomatică modernă a probabilității. Conceptul de volum este generalizat la conceptul de măsură a unui set abstract, căruia i se impun cerințele, pe care „volumul” le are și în interpretarea geometrică - în primul rând, acestea sunt nonnegativitatea și aditivitatea .

Definiția frecvenței (statistică)

Definiția clasică, atunci când se iau în considerare probleme complexe, întâmpină dificultăți de natură insurmontabilă. În special, în unele cazuri este posibil să nu fie posibil să se identifice cazuri la fel de probabile. Chiar și în cazul unei monede, după cum se știe, există o posibilitate în mod clar nu la fel de probabilă ca o „muchie” să cadă, care nu poate fi estimată din considerente teoretice (se poate spune doar că este puțin probabil și acest aspect este mai degrabă practic. ). Prin urmare, în zorii formării teoriei probabilității, a fost propusă o definiție alternativă a probabilității „frecvenței”. Și anume, din punct de vedere formal, probabilitatea poate fi definită ca limita frecvenței de observații ale evenimentului A, presupunând omogenitatea observațiilor (adică, asemănarea tuturor condițiilor de observație) și independența lor unele față de altele:

unde  este numărul de observații și  este numărul de apariții ale evenimentului .

În ciuda faptului că această definiție indică mai degrabă o modalitate de estimare a unei probabilități necunoscute - prin intermediul unui număr mare de observații omogene și independente - totuși, această definiție reflectă conținutul conceptului de probabilitate. Și anume, dacă unui eveniment i se atribuie o anumită probabilitate, ca măsură obiectivă a posibilității sale, atunci aceasta înseamnă că în condiții fixe și repetări multiple, ar trebui să obținem o frecvență a apariției acestuia apropiată (cu cât mai aproape, cu atât mai multe observații). De fapt, acesta este sensul original al conceptului de probabilitate. Se bazează pe o viziune obiectivistă asupra fenomenelor naturale. Mai jos vom lua în considerare așa-numitele legi ale numerelor mari, care oferă o bază teoretică (în cadrul abordării axiomatice moderne prezentate mai jos), inclusiv pentru estimarea frecvenței probabilității.

Probleme filozofice ale justificării

În momentul în care a fost creată teoria probabilității, baza matematicii era două clase de obiecte - numere și figuri geometrice. Pentru teoria probabilității, a fost necesar să se adauge la această listă un obiect cu totul special: un eveniment aleatoriu , precum și concepte strâns legate de acesta (probabilitate, variabilă aleatoare etc.). Originalitatea noii științe s-a manifestat și prin faptul că afirmațiile sale nu erau necondiționate, așa cum era acceptat anterior în matematică, ci probabil probabilistice. Prin urmare, pentru o lungă perioadă de timp, se dispută dacă un eveniment idealizat poate fi considerat un concept matematic (și atunci teoria probabilității este o parte a matematicii) sau dacă este un fapt observat în experiență (și atunci teoria probabilității ar trebui să fie atribuite ştiinţelor naturii) nu s-au oprit.

Potrivit lui David Hilbert , teoria probabilității este legată de mecanică, adică este o „disciplină fizică” matematicizată [5] . August de Morgan și adeptul său W. S. Jevons au considerat conceptul de bază al „ probabilității subiective ”, adică o măsură cantitativă a înțelegerii noastre a subiectului de studiu, și au conectat teoria probabilității cu logica [6] . Problemele legate de probabilitatea subiectivă ambiguă au fost discutate în mod repetat, ele fiind adesea formulate sub formă de „paradoxuri probabilistice” (vezi, de exemplu, „ paradoxul a trei prizonieri ” sau „ paradoxul unui băiat și al unei fete ”). O formalizare a probabilității subiective compatibile cu cea a lui Kolmogorov a fost propusă de Bruno de Finetti (1937) și Leonard Savage (1954).

În a doua jumătate a secolului al XX-lea, Alfred Renyi și A. N. Kolmogorov au explorat posibilitatea de a da o justificare pentru teoria probabilității pe baza teoriei informației [7] . În zilele noastre, „există o înțelegere clară a faptului că teoria probabilității este o știință cu adevărat matematică, care are în același timp cele mai strânse și directe legături cu o gamă largă de științe ale naturii, precum și cu disciplinele tehnice și socio-economice” [8] .

În ciuda eficienței metodelor probabilistice dovedite prin practică, rolul hazardului în natură, cauza și limitele stabilității statistice rămân subiect de discuție [9] . „În cei 200 de ani care au trecut de pe vremea lui Laplace și Gauss, știința nu a făcut progrese la întrebarea fundamentală – când apare stabilitatea statistică” [10] .

Definiție axiomatică

În abordarea matematică modernă, probabilitatea este dată de axiomatica lui Kolmogorov . Se presupune că este dat un anumit spațiu de evenimente elementare . Subseturile acestui spațiu sunt interpretate ca evenimente aleatoare . Unirea (suma) unor submulțimi (evenimente) este interpretată ca un eveniment constând în apariția a cel puțin unuia dintre aceste evenimente. Intersecția (produsul) submulților (evenimentelor) este interpretată ca un eveniment constând în apariția tuturor acestor evenimente. Seturile disjunctive sunt interpretate ca evenimente incompatibile (apariția lor comună este imposibilă). În consecință, un set gol înseamnă un eveniment imposibil .

Probabilitatea ( măsură de probabilitate ) este o măsură (funcție numerică) , dată pe un set de evenimente, cu următoarele proprietăți:

Dacă spațiul evenimentelor elementare X este finit , atunci condiția de aditivitate specificată pentru două evenimente arbitrare incompatibile este suficientă, din care va urma aditivitatea pentru orice număr finit de evenimente incompatibile. Totuși, în cazul unui spațiu infinit ( numărabil sau nenumărabil) de evenimente elementare, această condiție nu este suficientă. Așa-numita aditivitate numărabilă sau sigma-aditivitate este necesară , adică îndeplinirea proprietății aditivității pentru orice familie numărabilă de evenimente incompatibile în perechi. Acest lucru este necesar pentru a asigura „continuitatea” măsurării probabilității.

Este posibil ca măsura probabilității să nu fie definită pentru toate subseturile setului . Se presupune că este definită pe niște sigma-algebră de submulțimi [11] . Aceste submulțimi sunt numite măsurabile în raport cu măsura de probabilitate dată și sunt evenimente aleatoare. Mulțimea  - adică mulțimea evenimentelor elementare, algebra sigma a submulților sale și măsura probabilității - se numește spațiu de probabilitate .

Proprietăți ale probabilității

Proprietățile de bază ale probabilității sunt cel mai ușor de determinat pe baza definiției axiomatice a probabilității.

1) probabilitatea unui eveniment imposibil (mulțime goală ) este egală cu zero:

Aceasta decurge din faptul ca fiecare eveniment poate fi reprezentat ca suma acestui eveniment si a unui eveniment imposibil, ceea ce, datorita aditivitatii si finitatii masurii probabilitatii, inseamna ca probabilitatea unui eveniment imposibil trebuie sa fie egala cu zero.

2) dacă evenimentul A este inclus („intră”) în evenimentul B, adică , apariția evenimentului A implică și apariția evenimentului B, atunci:

Aceasta rezultă din non-negativitatea și aditivitatea măsurătorii probabilității, deoarece evenimentul probabil „conține” pe lângă eveniment și alte evenimente care sunt incompatibile cu .

3) probabilitatea fiecărui eveniment este de la 0 la 1, adică satisface inegalitățile:

Prima parte a inegalității (non-negativitatea) se afirmă axiomatic, iar a doua decurge din proprietatea anterioară, ținând cont de faptul că orice eveniment „include” în , în timp ce pentru axiomatic se presupune .

4) probabilitatea producerii evenimentului , unde , constând în producerea evenimentului cu neapariția simultană a evenimentului , este egală cu:

Aceasta rezultă din aditivitatea probabilității pentru evenimente incompatibile și din faptul că evenimentele și sunt incompatibile condiționat, iar suma lor este egală cu evenimentul .

5) probabilitatea unui eveniment opus evenimentului este egală cu:

Acest lucru rezultă din proprietatea anterioară dacă folosim întregul spațiu ca set și luăm în considerare faptul că .

6) ( teorema adunării probabilităților ) probabilitatea de apariție a cel puțin unuia dintre (adică suma) a două evenimente arbitrare (nu neapărat incompatibile) și este egală cu:

Această proprietate poate fi obținută dacă reprezentăm unirea a două mulțimi arbitrare ca unirea a două mulțimi neintersectate - prima și diferența dintre a doua și intersecția mulțimilor originale: . Prin urmare, ținând cont de aditivitatea probabilității pentru mulțimi care nu se intersectează și de formula pentru probabilitatea diferenței (vezi proprietatea 4) a mulțimilor, obținem proprietatea necesară.

Probabilitate condiționată

Formula Bayes

Probabilitatea producerii evenimentului , în condiția producerii evenimentului , se numește probabilitate condiționată (în condiția dată) și se notează cu . Cea mai ușoară modalitate este de a deriva o formulă pentru determinarea probabilității condiționate pe baza definiției clasice a probabilității. Pentru două evenimente date și luați în considerare următorul set de evenimente incompatibile: , care epuizează toate rezultatele posibile (un astfel de set de evenimente se numește complet  - vezi mai jos). Numărul total de rezultate la fel de probabile este de . Dacă evenimentul a avut deja loc, atunci rezultatele la fel de posibile sunt limitate la doar două evenimente , ceea ce este echivalent cu evenimentul . Fie numărul acestor rezultate . Dintre aceste rezultate, evenimentul este favorizat doar de cei asociati cu evenimentul . Numărul de rezultate corespunzătoare va fi notat cu . Apoi, conform definiției clasice a probabilității, probabilitatea unui eveniment în condiția producerii evenimentului va fi egală cu , împărțind numărătorul și numitorul la numărul total de rezultate la fel de posibile și luând din nou în considerare definiția clasică. , în final obținem formula probabilității condiționate:

.

Aceasta implică așa-numita teoremă a înmulțirii probabilităților :

.

În virtutea simetriei, se poate demonstra în mod similar că, de asemenea , deci formula Bayes urmează :

Evenimente de independență

Evenimentele A și B sunt numite independente dacă probabilitatea apariției unuia dintre ele nu depinde de faptul dacă celălalt eveniment a avut loc. Ținând cont de conceptul de probabilitate condiționată, aceasta înseamnă că , de unde rezultă că pentru evenimente independente egalitatea

În cadrul abordării axiomatice, această formulă este luată ca o definiție a conceptului de independență a două evenimente. Pentru un set arbitrar (finit) de evenimente, independența lor în agregat înseamnă că probabilitatea apariției lor comune este egală cu produsul probabilităților lor:

Formula probabilității condiționate derivată (în cadrul definiției clasice a probabilității) mai sus în definiția axiomatică a probabilității este definiția probabilității condiționate. În consecință, ca urmare a definițiilor evenimentelor independente și probabilității condiționate, probabilitățile condiționate și necondiționate ale unui eveniment sunt egale.

Probabilitatea totală și formula Bayes

Un set de evenimente , dintre care cel puțin unul va avea loc în mod necesar (cu o singură probabilitate) ca rezultat al testului, se numește complet . Aceasta înseamnă că setul de astfel de evenimente epuizează toate rezultatele posibile. Formal, în cadrul abordării axiomatice, aceasta înseamnă că . Dacă aceste evenimente sunt incompatibile, atunci în cadrul definiției clasice, aceasta înseamnă că suma numerelor de evenimente elementare care favorizează unul sau altul eveniment este egală cu numărul total de rezultate la fel de posibile.

Să existe un set complet de evenimente incompatibile în perechi . Apoi, pentru orice eveniment, următoarea formulă pentru calcularea probabilității sale este adevărată ( formula probabilității totale ):

Apoi formula Bayes descrisă mai sus, ținând cont de probabilitatea totală, poate fi scrisă în următoarea formă:

Această formulă stă la baza unei abordări alternative a probabilității - abordarea bayesiană sau subiectivă (vezi mai jos).

Probabilitate și variabile aleatoare

Cel mai important caz particular de aplicare a „probabilității” este probabilitatea de a obține ca rezultat al testării sau observării uneia sau alteia valori numerice a unei cantități măsurate (observate). Se presupune că înainte de test (observare) valoarea exactă a acestei mărimi este necunoscută, adică există o incertitudine clară asociată de obicei (cu excepția fizicii cuantice) cu imposibilitatea luării în considerare a tuturor factorilor care afectează rezultatul. . Astfel de cantități se numesc aleatoare . În teoria probabilității modernă, conceptul de variabilă aleatorie este formalizat și este definit ca o funcție a „șansei” - o funcție pe spațiul evenimentelor elementare. Cu o astfel de definiție, nu evenimentele elementare în sine sunt observate, ci „realizări”, valori specifice ale unei variabile aleatorii. De exemplu, atunci când o monedă este aruncată, aceasta iese cu cap sau cozi. Dacă introducem o funcție care asociază „cozi” cu numărul 1 și „vulturi” cu 0, atunci obținem o variabilă aleatoare în funcție de rezultatele indicate. În acest caz, conceptul de variabilă aleatoare este generalizat la funcții care mapează spațiul evenimentelor elementare într-un spațiu de natură arbitrară, respectiv, putem introduce conceptele de vector aleatoriu , de mulțime aleatoare etc. Cu toate acestea, de obicei o variabilă aleatoare se înțelege ca însemnând exact o funcție (valoare) numerică.

Făcând abstracție de la formalizarea descrisă, spațiul evenimentelor elementare poate fi înțeles ca ansamblul valorilor posibile ale unei variabile aleatorii. Sigma-algebra submulților sunt intervale arbitrare pe axa reală, posibilele lor uniuni (numărabile) și intersecții. Măsura probabilității se numește în acest caz distribuția unei variabile aleatoare. Este suficient să specificați o măsură de probabilitate pentru intervale de forma , deoarece un interval arbitrar poate fi reprezentat ca o unire sau intersecție a unor astfel de intervale. Se presupune că fiecare interval de tipul de mai sus este asociat cu o anumită probabilitate , adică o anumită funcție a valorilor posibile . O astfel de funcție se numește integrală, cumulativă sau pur și simplu o funcție de distribuție a unei variabile aleatoare. În cazul diferențiabilității acestei funcții (în acest caz, variabilele aleatoare corespunzătoare se numesc continue ), introducem și o funcție analitic adesea mai convenabilă - densitatea de distribuție  - derivata funcției de distribuție: . În cazul variabilelor aleatoare discrete , în loc de densitate (care nu există în acest caz), se poate folosi direct seria de distribuție  - probabilitatea valorii --a. Funcția de distribuție corespunzătoare va fi legată de seria de distribuție ca: . Probabilitatea ca o variabilă aleatorie să se afle într-un anumit interval este definită ca diferența dintre valorile funcției de distribuție la sfârșitul acestui interval. În ceea ce privește densitatea distribuției, aceasta este integrala corespunzătoare a densității pe un interval dat (pentru o variabilă aleatorie discretă, este pur și simplu suma probabilităților valorilor din acest interval).

Distribuția unei variabile aleatoare oferă caracteristica sa completă. Cu toate acestea, caracteristicile individuale ale acestei distribuții sunt adesea folosite. În primul rând, aceasta este așteptarea matematică a unei variabile aleatoare - valoarea medie așteptată a unei variabile aleatoare, ținând cont de ponderarea după probabilitățile de apariție a anumitor valori și varianța sau variația - pătratul mediu al abaterii. a unei variabile aleatoare din așteptările ei matematice. În unele cazuri, sunt utilizate și alte caracteristici, printre care asimetria și curtoza sunt importante . Indicatorii descriși sunt cazuri speciale ale așa-numitelor momente de distribuție .

Există câteva legi standard de distribuție care sunt adesea folosite în practică. În primul rând, aceasta este o distribuție normală (distribuție gaussiană). Este pe deplin caracterizat de doi parametri - așteptarea matematică și varianța. Utilizarea sa largă este legată, în special, de așa-numitele teoreme limită (vezi mai jos). Când se testează ipoteze, apar adesea distribuțiile chi-pătrat , distribuțiile lui Student și distribuțiile lui Fisher . Atunci când se analizează variabile aleatoare discrete , se ia în considerare distribuția binomială , distribuția Poisson etc.. Este adesea luată în considerare și distribuția gamma , un caz special al căruia este distribuția exponențială , precum și distribuția chi-pătrat indicată mai sus. Desigur, distribuțiile utilizate în practică nu se limitează la aceste distribuții.

Adesea în practică, pe baza unor considerații a priori, se presupune că distribuția de probabilitate a unei variabile aleatoare date se referă la o distribuție cunoscută până la parametri. De exemplu, la aceeași distribuție normală, dar cu o așteptare și varianță matematică necunoscută (acești doi parametri determină în mod unic întreaga distribuție normală). Sarcina științelor statistice (statistică matematică, econometrie etc.) în acest caz este de a estima valorile acestor parametri în cel mai eficient mod (preciz). Există criterii prin care se poate stabili gradul de „adevăr” al metodelor de evaluare respective. De obicei, sunt necesare cel puțin validitatea estimatorului , imparțialitatea și eficiența într-o anumită clasă de estimatori.

În practică, sunt utilizate și metode neparametrice pentru estimarea distribuțiilor.

Legile numerelor mari

De o importanță capitală în teoria probabilității și în aplicațiile sale este un grup de teoreme, de obicei combinate sub denumirea de „ legea numerelor mari ” sau teoreme limită . Fără a recurge la formulări stricte, putem spune, de exemplu, că în anumite condiții slabe, valoarea medie a variabilelor aleatoare independente distribuite identic tinde spre așteptările lor matematice pentru un număr suficient de mare de aceste variabile aleatoare. Dacă luăm în considerare observațiile independente ale aceleiași variabile aleatoare ca un set de variabile aleatoare, atunci aceasta înseamnă că media observațiilor pe eșantion ar trebui să tindă spre așteptările matematice adevărate (necunoscute) ale acestei variabile aleatoare. Aceasta este legea numerelor mari în forma Cebyshev . Aceasta oferă baza pentru obținerea estimărilor adecvate.

Un caz foarte special, dar foarte important este schema Bernoulli  - teste independente, în urma cărora are loc sau nu un eveniment. Se presupune că în fiecare încercare probabilitatea producerii evenimentului este aceeași și egală (dar este necunoscută). Această schemă poate fi redusă la o valoare medie dacă introducem o variabilă aleatoare formală X, care este un indicator al apariției unui eveniment: este egală cu 1 când evenimentul are loc și 0 când evenimentul nu are loc. Pentru o astfel de variabilă aleatoare, așteptarea matematică este, de asemenea, egală cu . Atunci valoarea medie a unei astfel de variabile aleatoare este de fapt frecvența de apariție a evenimentului . Conform teoremei de mai sus, această medie (frecvență) ar trebui să tindă la adevărata așteptare matematică a acestei variabile aleatoare, adică la probabilitatea necunoscută . Astfel, pe măsură ce numărul de observații crește, frecvența evenimentului poate fi folosită ca o bună estimare a probabilității necunoscute. Aceasta este așa-numita lege a numerelor mari a lui Bernoulli. Această lege a fost din punct de vedere istoric prima lege a numerelor mari. Mai riguros, se poate afirma cel puțin că probabilitatea ca frecvența să se abate de la o anumită valoare tinde spre zero pentru orice valoare de . Un rezultat mai general ( teorema Glivenko-Cantelli ) este că distribuția empirică tinde în general către o distribuție de probabilitate adevărată pe măsură ce numărul de observații crește.

Alături de aceste teoreme, există așa-numita teoremă limită centrală , care dă distribuția limitativă a probabilității pentru medie, și anume, în anumite condiții slabe, valoarea medie a observațiilor unei variabile aleatoare cu un număr suficient de mare de observații au o distribuție normală ( indiferent de distribuția inițială a variabilei aleatoare în sine). De exemplu, acesta este cazul pentru valoarea medie a variabilelor aleatoare independente distribuite identic. În special, această teoremă este aplicabilă și schemei Bernoulli. În general, numărul de apariții ale evenimentului A în n încercări are o distribuție binomială , totuși, cu un număr suficient de mare de observații, această distribuție, conform teoremei indicate, tinde spre o distribuție normală în acest caz cu așteptarea și varianța. , unde  este probabilitatea de apariție a evenimentului A în fiecare încercare. Acest lucru este afirmat în teoremele locale și integrale ale lui Moivre-Laplace . De aici rezultă și concluzia de mai sus și anume: valoarea medie a variabilei aleatoare-indicator al evenimentului - adică frecvența de apariție a evenimentului în teste - va avea, în limită, așteptarea matematică și varianța. , care tinde spre zero odată cu creșterea numărului de teste. Astfel, frecvența tinde spre adevărata probabilitate ca evenimentul să se producă odată cu creșterea numărului de încercări independente și cunoaștem distribuția de frecvență cu un număr suficient de mare de observații (strict vorbind, în limită, frecvența încetează să fie o variabilă aleatoare, deci este mai corect să vorbim despre distribuția nu a frecvenței, ci a mărimii  - este în limită are o distribuție normală cu așteptare și varianță matematică zero ).

Abordarea bayesiană a probabilității

Abordarea obiectivă (frecvență) descrisă mai sus se bazează pe presupunerea că există o incertitudine obiectivă inerentă fenomenelor studiate. În abordarea bayesiană alternativă , incertitudinea este interpretată subiectiv  - ca o măsură a ignoranței noastre. În cadrul abordării bayesiene, probabilitatea este înțeleasă ca gradul de încredere în adevărul unei propoziții - probabilitatea subiectivă.

Ideea abordării bayesiene este de a trece de la cunoașterea a priori la cea a posteriori , ținând cont de fenomenele observate. Esența abordării bayesiene rezultă din formula Bayes descrisă mai sus. Să existe un set complet de ipoteze , iar din considerente a priori se estimează probabilitățile de validitate a acestor ipoteze (gradul de încredere în ele). Completitudinea mulțimii înseamnă că cel puțin una dintre aceste ipoteze este adevărată și suma probabilităților a priori este egală cu 1. De asemenea, pentru evenimentul studiat, din considerente a priori, se cunosc  probabilitățile - probabilitățile de apariție. a evenimentului , cu condiţia ca ipoteza să fie adevărată . Apoi, folosind formula Bayes, puteți determina probabilitățile posterioare  - adică gradul de încredere în validitatea ipotezei după ce a avut loc evenimentul. De fapt, procedura poate fi repetată luând noile probabilități ca a priori și efectuând din nou testul, rafinând astfel iterativ probabilitățile posterioare ale ipotezelor.

În special, spre deosebire de abordarea de bază a estimării distribuțiilor variabilelor aleatoare, în care se presupune că valorile parametrilor de distribuție necunoscuți sunt estimate pe baza observațiilor, abordarea bayesiană presupune că și parametrii sunt variabile aleatoare (din punct de vedere a ignoranței noastre cu privire la valorile lor). Aceste sau acele valori posibile ale parametrilor acționează ca ipoteze și unele densități a priori ale parametrilor necunoscuți sunt presupuse de date . Distribuția posterioară servește ca o estimare a parametrilor necunoscuți. Să se obțină unele valori ale variabilei aleatoare studiate ca urmare a observațiilor. Apoi, pentru valorile acestui eșantion, presupunând că probabilitatea este cunoscută - probabilitatea (densitatea) de a obține acest eșantion pentru valori date ale parametrilor , conform formulei Bayes (în acest caz, un analog continuu al această formulă, în care sunt implicate densități în loc de probabilități, iar însumarea este înlocuită cu integrare), obținem parametrii de probabilitate (densitate) a posteriori pentru acest eșantion.

Probabilitate, informație și entropie

Să existe rezultate la fel de probabile. Gradul de incertitudine al experienței în această situație poate fi caracterizat printr-un număr . Acest indicator, introdus de inginerul de comunicații Hartley în 1928, caracterizează informațiile pe care trebuie să le ai pentru a ști care dintre opțiunile la fel de posibile are loc, adică pentru a reduce incertitudinea experienței la zero. Cel mai simplu mod de a afla este să puneți întrebări precum „numărul rezultatului este mai mic de jumătate din N”, dacă da, atunci o întrebare similară poate fi pusă pentru una dintre jumătăți (în funcție de răspunsul la întrebare), etc. Răspunsul la fiecare astfel de întrebare reduce incertitudinea. În total, astfel de întrebări pentru eliminarea completă a incertitudinii vor fi necesare doar . Mai formal, numărul de rezultate poate fi reprezentat într-un sistem de numere binar, atunci  - acesta este numărul de biți necesari pentru o astfel de reprezentare, adică cantitatea de informații în biți , cu care puteți codifica implementarea la fel de posibilă rezultate. În general, unitatea de informație poate fi diferită, astfel încât logaritmul poate fi folosit teoretic cu orice bază (de exemplu, dacă dorim să schimbăm informațiile în octeți, atunci trebuie să folosim logaritmul în baza 256).

Acum să fie dată o variabilă aleatoare α, distribuită pe rezultate cu probabilități , apoi cantitatea de informații din variabila aleatoare α este determinată după cum urmează ( formula Shannon ):

unde  este semnul așteptării matematice .

Cu rezultate echiprobabile ( ) obţinem relaţia deja cunoscută . Pentru o variabilă aleatoare continuă în această formulă, în loc de probabilități, este necesar să se folosească funcția densitate de distribuție și în loc de sumă, integrala corespunzătoare.

Valoarea indicată se numește informație, cantitate de informație, entropie informațională etc. O astfel de definiție a informațiilor este extrasă din orice conținut al informației, conținutul unor rezultate specifice. Cantitatea de informație este determinată numai pe baza probabilităților. Shannon a numit entropia cantității datorită asemănării sale cu entropia termodinamică. Ultimul concept a fost introdus pentru prima dată de Rudolf Clausis în 1865, iar interpretarea probabilistă a entropiei a fost dată de Ludwig Boltzmann în 1877. Entropia unui sistem macroscopic este o măsură a numărului de microstări posibile pentru o anumită macrostare (mai precis, este proporțională cu logaritmul numărului de microstări - greutate statistică ) sau o măsură a „dezordinii interne” a macrosistemului. .

Probabilitatea și fizica cuantică

În mecanica cuantică, starea unui sistem (particulă) este caracterizată de o funcție de undă (în general vorbind, un vector de stare) - o funcție cu valori complexe de „coordonate”, al cărei pătrat al modulului este interpretat ca densitate de probabilitate. de obținere a unor valori date de „coordonate”. Conform conceptelor moderne, definiția probabilistă a stării este completă, iar motivul naturii probabilistice a fizicii cuantice nu este niciun factor „ascuns” - acest lucru se datorează naturii proceselor în sine. În fizica cuantică, sunt posibile orice interconversii ale diferitelor particule care nu sunt interzise de una sau alta lege de conservare. Și aceste transformări reciproce sunt supuse unor regularități – regularități probabilistice. Conform conceptelor moderne, este fundamental imposibil de prezis fie momentul transformării reciproce, fie rezultatul specific. Se poate vorbi doar despre probabilitățile anumitor procese de transformare. În loc de cantități clasice exacte în fizica cuantică, este posibilă doar o estimare a valorilor medii (așteptări matematice) ale acestor cantități, de exemplu, durata medie de viață a unei particule.

Probabilitatea în alte tărâmuri

Pe lângă problema probabilității unui fapt, poate apărea, atât în ​​domeniul dreptului, cât și în cel al moralității (cu un anumit punct de vedere etic ), întrebarea cât de probabil este ca un anumit fapt constituie o încălcare a legii generale. Această întrebare, care servește drept motiv principal în jurisprudența religioasă a Talmudului , a dat naștere în teologia morală romano-catolică (în special de la sfârșitul secolului al XVI-lea) unor construcții sistematice foarte complexe și a unei literaturi uriașe, dogmatice și polemice (vezi Probabilism ). ) [1] .

Vezi și

Note

  1. 1 2 3 V. S. Solovyov Probability // Dicționar enciclopedic al lui Brockhaus și Efron  : în 86 de volume (82 de volume și 4 suplimentare). - Sankt Petersburg. , 1890-1907.
  2. Așadar, de exemplu, în jurisprudență , atunci când un fapt supus judecății este stabilit pe baza mărturiei martorilor , acesta rămâne întotdeauna, strict vorbind, doar probabil, și este necesar să se cunoască cât de semnificativă este această probabilitate. În dreptul roman s- a acceptat aici o diviziune cvadruplă: probatio plena (unde probabilitatea se transformă practic în certitudine), apoi - probatio minus plena , apoi - probatio semiplena major și, în sfârșit, probatio semiplena minor . În limba romană, cuvântul probabilitate este legat etimologic de cuvântul onestitate.
  3. 1 2 Gnedenko B.V. Curs de teoria probabilității: Manual - Ed. al 6-lea, revizuit. si suplimentare — M.: Nauka. Ch. ed. fizic mat. lit., 1988 - 448s.- p.386-387
  4. Abrams, William, A Brief History of Probability , Second Moment , < http://www.secondmoment.org/articles/probability.php > . Extras 10 noiembrie 2017. Arhivat 24 iulie 2017 la Wayback Machine 
  5. Grigoryan A. A. Teoria probabilității a lui R. von Mises: istorie și fundamente filozofice și metodologice // Studii istorice și matematice . - M. : Janus-K, 1999. - Nr. 38 (4) . - S. 198-220 .
  6. Matematica secolului al XIX-lea. Volumul I, 1978 , p. 238-239.
  7. Gnedenko B.V., 2005 , p. 407-408.
  8. Matematica secolului al XIX-lea. Volumul I, 1978 , p. 240.
  9. Alimov Yu. I., Kravtsov Yu. A. Este probabilitatea unei mărimi fizice „normale”?  // Succesele științelor fizice. - M. , 1992. - Nr. 162 (7) . - S. 149-182 .
  10. Tutubalin V. N. Probability, computers and processing of experimental results  // Uspekhi fizicheskikh nauk. - M. , 1993. - Nr. 163 (7) . - S. 93-109 .
  11. Mai precis, se presupune că măsura este definită cel puțin pe unele semiinele de submulțimi și în continuare se demonstrează că în acest caz este definită și pe inelul minim care conține acest seminel și, în plus, această măsură poate fi extinsă la sigma-algebră a submulţilor

Literatură