Metrica de informații Riemann (ing. Riemann information metric ) este singura metrică riemanniană pe seturi de distribuții de probabilitate, până la un factor constant, care este invariant în conformitate cu regulile de decizie statistică ale categoriei . Pentru două distribuții de probabilitate și pe același spațiu măsurabil al rezultatelor elementare , metrica informațiilor Riemanniană este dată de distanța sferică Bhattacharya-Rao :
.În special, dacă distribuțiile au densități și , respectiv , unde , atunci
.În mod similar, în cazul discret:
, unde .Valoarea informațiilor locale riemanniană este determinată de cantitatea de informații Fisher : pentru o familie netedă
la punctul are loc
,unde sunt elementele matricei informaţionale Fisher . În ciuda acestei proprietăți a metricii Bhattacharya-Rao, ea joacă un rol mai puțin important în studiile teoretice decât divergența Kullback-Leibler .