Fisher Information

Den aktuella versionen av sidan har ännu inte granskats av erfarna bidragsgivare och kan skilja sig väsentligt från versionen som granskades den 28 december 2019; kontroller kräver 9 redigeringar .

Fisher information är den matematiska förväntan av kvadraten på den relativa förändringshastigheten i den villkorade sannolikhetstätheten [1] . Denna funktion är uppkallad efter Ronald Fisher , som beskrev den .

Definition

Låt vara distributionstätheten för den givna statistiska modellen . Sedan om funktionen är definierad

,

var är log -likelihood-funktionen och är den matematiska förväntan för given , då kallas den Fisher-informationen för en given statistisk modell med oberoende tester .

Om den är två gånger differentierad med avseende på , och under vissa regelbundenhetsförhållanden, kan Fisher-informationen skrivas om som [2]

För regelbundna mönster: (Detta är definitionen av regelbundenhet).

I detta fall, eftersom förväntningen på sampelbidragsfunktionen är noll, är det skrivna värdet lika med dess varians.

Fisher-mängden information som finns i en observation kallas:

.

För vanliga modeller är alla lika.

Om provet består av ett element skrivs Fisher-informationen enligt följande:

.

Från villkoret regelbundenhet, såväl som av det faktum att i fallet med oberoende av slumpvariabler , variansen av summan är lika med summan av varianserna, följer att för oberoende tester .

Egenskaper

Spara information med tillräcklig statistik

I allmänhet, om är provstatistiken X ,

Dessutom uppnås jämlikhet om och endast om T är en tillräcklig statistik .

En tillräcklig statistik innehåller lika mycket Fisher-information som hela urvalet X . Detta kan visas med hjälp av Neumann faktoriseringstest för tillräcklig statistik. Om statistiken är tillräcklig för parametern finns det funktioner g och h så att:

Jämlikheten i informationen följer av:

som följer av definitionen av Fisher information och oberoende från .

Se även

Andra mått som används i informationsteori :

Anteckningar

  1. Leman, 1991 , sid. 112.
  2. Lehmann, E.L. ; Casella, G. Theory of Point Estimation  (neopr.) . — 2:a uppl. - Springer, 1998. - ISBN 0-387-98502-6 . , ekv. (2.5.16).

Litteratur