Fisher information är den matematiska förväntan av kvadraten på den relativa förändringshastigheten i den villkorade sannolikhetstätheten [1] . Denna funktion är uppkallad efter Ronald Fisher , som beskrev den .
Låt vara distributionstätheten för den givna statistiska modellen . Sedan om funktionen är definierad
,var är log -likelihood-funktionen och är den matematiska förväntan för given , då kallas den Fisher-informationen för en given statistisk modell med oberoende tester .
Om den är två gånger differentierad med avseende på , och under vissa regelbundenhetsförhållanden, kan Fisher-informationen skrivas om som [2]
För regelbundna mönster: (Detta är definitionen av regelbundenhet).
I detta fall, eftersom förväntningen på sampelbidragsfunktionen är noll, är det skrivna värdet lika med dess varians.
Fisher-mängden information som finns i en observation kallas:
.För vanliga modeller är alla lika.
Om provet består av ett element skrivs Fisher-informationen enligt följande:
.Från villkoret regelbundenhet, såväl som av det faktum att i fallet med oberoende av slumpvariabler , variansen av summan är lika med summan av varianserna, följer att för oberoende tester .
I allmänhet, om är provstatistiken X , då
Dessutom uppnås jämlikhet om och endast om T är en tillräcklig statistik .
En tillräcklig statistik innehåller lika mycket Fisher-information som hela urvalet X . Detta kan visas med hjälp av Neumann faktoriseringstest för tillräcklig statistik. Om statistiken är tillräcklig för parametern finns det funktioner g och h så att:
Jämlikheten i informationen följer av:
som följer av definitionen av Fisher information och oberoende från .
Andra mått som används i informationsteori :