Confidențialitate diferențială

Versiunea actuală a paginii nu a fost încă examinată de colaboratori experimentați și poate diferi semnificativ de versiunea revizuită la 15 februarie 2022; verificările necesită 2 modificări .

Confidențialitatea diferențială  este un set de metode care oferă cele mai precise interogări unei baze de date statistice , reducând în același timp posibilitatea de a identifica înregistrările individuale din aceasta.

Introducere

Confidențialitatea diferențială este definiția matematică a pierderii datelor sensibile ale persoanelor atunci când informațiile lor personale sunt folosite pentru a crea un produs. Termenul a fost inventat de Cynthia Dwork în 2006 [1] , dar este folosit și într-o publicație anterioară a lui Dwork, Frank McSherry , Kobe Nissim și Adam D. Smith [2] . Lucrarea se bazează în special pe cercetările lui Nissim și Irit Dinur [3] [4] care au arătat că este imposibil să se publice informații dintr-o bază de date statică privată fără a expune o parte din informațiile private și că întreaga bază de date poate fi dezvăluită. prin publicarea rezultatelor unui număr destul de mic de cereri [4] .

În urma studiului, a devenit clar că este imposibil să se asigure confidențialitatea în bazele de date statistice folosind metodele existente și, ca urmare, a fost nevoie de altele noi care să limiteze riscurile asociate cu pierderea informațiilor private conținute în datele statistice. Bază de date. Drept urmare, au fost create noi metode care permit, în majoritatea cazurilor, furnizarea de statistici precise din baza de date, oferind în același timp un nivel ridicat de confidențialitate [5] [6] .

Principiu și ilustrație

Confidențialitatea diferențială se bazează pe introducerea aleatoriei în date.

Un exemplu simplu dezvoltat în științele sociale [7] este acela de a cere unei persoane să răspundă la întrebarea „Ai atributul A?” conform următoarei proceduri:

  1. dă cu banul
  2. Dacă apar capetele, răspundeți sincer la întrebare.
  3. În caz contrar, aruncați din nou, dacă iese capete, răspundeți „Da”, dacă este cozi - „Nu”

Confidențialitatea apare deoarece este imposibil să știi cu siguranță din răspuns dacă o persoană are un anumit atribut. Cu toate acestea, aceste date sunt semnificative, deoarece răspunsurile pozitive provin de la un sfert dintre persoanele care nu au acest atribut și trei sferturi dintre cei care îl au efectiv. Astfel, dacă p este proporția reală a persoanelor cu A, atunci ne așteptăm să obținem (1/4) (1- p) + (3/4) p = (1/4) + p / 2 răspunsuri pozitive. Prin urmare, se poate estima R.

Definiție formală și exemplu de utilizare

Fie ε  un număr real pozitiv și A  un algoritm probabilist care ia ca intrare un set de date (reprezintă acțiunile unei părți de încredere care are datele). Notați imaginea lui A prin im A . Algoritmul A este ε - diferențial privat dacă pentru toate seturile de date și care diferă cu un element (adică datele unei persoane), precum și toate submulțimile S ale mulțimii im A :

unde P este probabilitatea.

Conform acestei definiții, confidențialitatea diferențială este o condiție a mecanismului de publicare a datelor (adică determinată de partea de încredere care eliberează informații despre setul de date), nu setul de date în sine. Intuitiv, aceasta înseamnă că pentru oricare două seturi de date similare, algoritmul privat diferenţial se va comporta aproximativ la fel pe ambele seturi de date. Definiția oferă, de asemenea, o garanție puternică că prezența sau absența unui individ nu va afecta rezultatul final al algoritmului.

De exemplu, să presupunem că avem o bază de date de înregistrări medicale în care fiecare înregistrare este o pereche de ( Nume , X ) unde este zero sau unu indicând dacă persoana are sau nu gastrită:

Nume Prezența gastritei (X)
Ivan unu
Petru 0
Vasilisa unu
Mihai unu
Maria 0

Acum să presupunem că un utilizator rău intenționat (denumit adesea atacator) dorește să afle dacă Mikhail are gastrită sau nu. Să presupunem, de asemenea, că el știe ce rând conține informații despre Mihail în baza de date. Acum să presupunem că unui atacator i se permite doar să folosească o formă specifică de interogare care returnează o sumă parțială a primelor rânduri ale unei coloane din baza de date. Pentru a afla dacă Mihail are gastrită, atacatorul execută interogări: și , apoi calculează diferența lor. În acest exemplu, , și , deci diferența lor este . Aceasta înseamnă că câmpul „Prezența gastritei” din linia lui Mihail ar trebui să fie egal cu . Acest exemplu arată cum informațiile individuale pot fi compromise chiar și fără o solicitare explicită pentru datele unei anumite persoane.

Continuând cu acest exemplu, dacă construim setul de date prin înlocuirea (Mikhail, 1) cu (Mikhail, 0), atunci atacatorul va putea distinge de prin calcul pentru fiecare set de date. Dacă un atacator ar obține valori printr-un algoritm privat ε-diferențial, pentru un ε suficient de mic, atunci nu ar putea distinge între cele două seturi de date.

Exemplul de monedă descris mai sus este -diferențial privat [8] .

Cazuri limită

Cazul în care ε = 0 este ideal pentru menținerea confidențialității, deoarece prezența sau absența oricărei informații despre orice persoană în baza de date nu afectează rezultatul algoritmului, totuși, un astfel de algoritm este lipsit de sens în ceea ce privește informațiile utile, deoarece chiar și cu un număr zero de persoane va da același rezultat sau similar.

Dacă ε tinde spre infinit, atunci orice algoritm probabilist se va potrivi definiției, deoarece inegalitatea  este întotdeauna satisfăcută.

Sensibilitate

Fie  un număr întreg pozitiv,  un set de date și  o funcție. Sensibilitatea [9] a funcției, notată cu , este determinată de formula

peste toate perechile de seturi de date și în , care diferă cu cel mult un element și unde denotă norma .

În exemplul de mai sus al unei baze de date medicale, dacă luăm în considerare sensibilitatea funcției , atunci aceasta este egală cu , deoarece modificarea oricăreia dintre înregistrările din baza de date duce la ceva care fie se modifică, fie nu se schimbă.

mecanism Laplace

Datorită faptului că confidențialitatea diferențială este un concept probabilist, oricare dintre metodele sale are în mod necesar o componentă aleatorie. Unele dintre ele, precum metoda lui Laplace, folosesc adăugarea de zgomot controlat la funcția de calculat.

Metoda Laplace adaugă zgomotul Laplace, adică zgomotul din distribuția Laplace , care poate fi exprimat ca funcție de densitate de probabilitate și care are medie zero și abatere standard . Să definim funcția de ieșire ca o funcție cu valoare reală în forma unde , și  este interogarea pe care am plănuit să o executăm în baza de date. Astfel, poate fi considerată o variabilă aleatoare continuă , unde

care nu este mai mare de (pdf - funcția de densitate de probabilitate sau funcție de densitate de probabilitate). În acest caz, putem desemna factorul de confidențialitate ε. Astfel, conform definiției, este ε-diferențial privat. Dacă încercăm să folosim acest concept în exemplul de mai sus despre prezența gastritei, atunci pentru a fi o funcție privată ε-diferențială, trebuie să țină , deoarece ).

Pe lângă zgomotul Laplace, pot fi folosite și alte tipuri de zgomot (de exemplu, gaussian), dar pot necesita o ușoară relaxare a definiției confidențialității diferențiale [10] .

Compoziție

Aplicație consistentă

Dacă executăm o interogare de ε- timp de siguranță diferențial, iar zgomotul aleator introdus este independent pentru fiecare interogare, atunci confidențialitatea totală va fi (εt)-diferențială. Mai general, dacă există mecanisme independente: , ale căror garanții de confidențialitate sunt , respectiv, egale, atunci orice funcție va fi -diferențial privată [11] .

Compoziție paralelă

De asemenea, dacă interogările sunt executate pe subseturi nesuprapuse ale bazei de date, atunci funcția ar fi -diferențial private [11] .

Confidențialitatea grupului

În general, confidențialitatea diferențială este concepută pentru a proteja confidențialitatea între bazele de date care diferă doar cu o singură linie. Aceasta înseamnă că niciun adversar cu informații auxiliare arbitrare nu poate ști dacă un participant individual și-a furnizat informațiile. Totuși, acest concept poate fi extins la un grup dacă dorim să protejăm bazele de date care diferă în funcție de rânduri, astfel încât un atacator cu informații de sprijin arbitrare să nu știe dacă membrii individuali și-au furnizat informațiile. Acest lucru se poate realiza dacă formula din definiție este înlocuită cu [12] , atunci pentru D 1 și D 2 care diferă prin rânduri

Astfel, utilizarea parametrului (ε/c) în loc de ε vă permite să obțineți rezultatul dorit și să protejați șirurile. Cu alte cuvinte, în loc ca fiecare element să fie ε-diferențial privat, acum fiecare grup de elemente este ε-diferențial privat și fiecare element este (ε/c)-diferențial privat.

Aplicarea confidențialității diferențiale aplicațiilor din lumea reală

Până în prezent, există mai multe utilizări pentru confidențialitatea diferențială:

Note

  1. Dwork Cynthia, 2006 , p. opt.
  2. Cynthia Dwork, Frank McSherry, Kobbi Nissim și Adam Smith=. Calibrarea zgomotului la sensibilitate în analiza datelor private // Proceedings of the Third Conference on Theory of Cryptography (TCC'06), Shai Halevi și Tal Rabin (eds.). - Springer-Verlag, Berlin, Heidelberg, 2006. - P. 266 . - doi : 10.1007/11681878_14 .
  3. Dwork Cynthia, 2006 , p. 12.
  4. 12 Nissim et al, 2003 , pp. 202-206.
  5. HILTON, MICHAEL. Confidențialitate diferențială: un studiu istoric  (nedeterminat) . , p.1
  6. Dwork, 2008 , pp. 3-13.
  7. Roth et al, 2014 , p. cincisprezece.
  8. Roth et al, 2014 , p. treizeci.
  9. Dwork et al, 2006 , pp. 271-272.
  10. Dwork, 2008 , p. 16.
  11. 12 McSherry , 2009 , p. 6.
  12. Dwork Cynthia, 2006 , p. 9.
  13. Machanavajjhala et al, 2008 , p. unu.
  14. Erlingsson et al, 2014 , p. unu.
  15. Tackling Urban Mobility with Technology de Andrew Eland . Politica Google Europa Blog . Data accesului: 19 decembrie 2017. Arhivat din original pe 10 decembrie 2017.
  16. Apple - Informații de presă - Apple previzualizează iOS 10, cea mai mare lansare iOS vreodată . Apple . Data accesului: 16 iunie 2016. Arhivat din original pe 29 aprilie 2017.

Literatură