Maximal likelihood- metoden eller maximum likelihood-metoden (MMP, ML, MLE - English m aximum l ikelihood e stimation ) i matematisk statistik är en metod för att uppskatta en okänd parameter genom att maximera likelihood-funktionen [1] . Baserat på antagandet att all information om ett statistiskt urval finns i sannolikhetsfunktionen.
Maximal likelihood-metoden analyserades, rekommenderades och populariserades kraftigt av R. Fischer mellan 1912 och 1922 (även om den hade använts tidigare av Gauss , Laplace och andra).
Maximal likelihood-uppskattning är en populär statistisk teknik som används för att skapa en statistisk modell från data och ge en uppskattning av modellparametrarna.
Maximal likelihood-metoden motsvarar många välkända skattningsmetoder inom statistikområdet. Till exempel är du intresserad av en sådan antropometrisk parameter som höjden på invånarna i Ryssland. Anta att du har data om tillväxten för ett visst antal människor, inte hela befolkningen. Dessutom antas tillväxten vara en normalfördelad storhet med okänd varians och medelvärde . Medelvärdet och variansen av tillväxten i urvalet är maximal sannolikhet för medelvärdet och variansen för hela populationen.
För en fast datamängd och en grundläggande probabilistisk modell, med maximal sannolikhetsmetoden, kommer vi att få värdena för modellparametrarna som gör datan "närmare" den verkliga. Maximal sannolikhetsuppskattning ger ett unikt och enkelt sätt att fastställa lösningar vid normalfördelning.
Den maximala sannolikhetsuppskattningsmetoden tillämpas på ett stort antal statistiska modeller, inklusive:
Låt det finnas ett urval från fördelningen , där är de okända parametrarna. Låt vara sannolikhetsfunktionen , där . Poänguppskattning
kallas maximal sannolikhetsuppskattning av parametern . Sålunda är den maximala sannolikhetsuppskattningen den som maximerar sannolikhetsfunktionen för en fast samplingsimplementering.
Ofta används log-likelihood- funktionen istället för likelihood-funktionen . Eftersom funktionen ökar monotont över hela definitionsdomänen, är maximivärdet för varje funktion funktionens maximum och vice versa. På det här sättet,
,Om sannolikhetsfunktionen är differentierbar, är det nödvändiga villkoret för extremumet likheten mellan dess gradient till noll :
Det tillräckliga extremumtillståndet kan formuleras som den negativa definititeten av hessian , matrisen av andraderivator:
Viktigt för att bedöma egenskaperna hos uppskattningar av den maximala sannolikhetsmetoden är den så kallade informationsmatrisen , lika per definition:
Vid den optimala punkten sammanfaller informationsmatrisen med förväntningarna på hessian, taget med ett minustecken:
var är den asymptotiska informationsmatrisen.
Asymptotisk effektivitet innebär att den asymptotiska kovariansmatrisen är den nedre gränsen för alla konsekventa asymptotiskt normala estimatorer.
Den sista jämlikheten kan skrivas om som:
där , vilket visar att sannolikhetsfunktionen når sitt maximum vid punkten . På det här sättet
.En sådan uppskattning kommer att vara partisk: , varifrån
För att hitta dess maximum likställer vi de partiella derivatorna med noll :
var
är provmedelvärdet , och är provvariansen .Anta att vi mäter någon kvantitet . Efter att ha gjort en mätning fick vi dess värde med ett fel : . Låt oss skriva sannolikhetstätheten att värdet tar värdet :
.
Anta nu att vi har tagit flera sådana mätningar och fått . Sannolikhetstätheten för att kvantiteten kommer att anta värdena kommer att vara:
.
Denna funktion kallas sannolikhetsfunktionen. Det mest sannolika värdet av det uppmätta värdet bestäms av sannolikhetsfunktionens maximum. Mer bekvämt är funktionen för log-sannolikhet:
.
Differentiera log-likelihood-funktionen med avseende på :
.
Jämställd med och få lite värde :
.
Cramer formulerade följande teorem:
Sats: Det finns ingen annan metod för att bearbeta resultaten av ett experiment som skulle ge en bättre approximation till sanningen än den maximala sannolikhetsmetoden.
Antag att vi har tagit en serie mätningar och fått en serie värden , det är naturligt att skriva att denna fördelning kommer att ha en Gaussisk form :
.
Låt oss skriva den logaritmiska sannolikhetsfunktionen: .
Låt oss ta den första derivatan:
.
Om , då . Ta nu den andra derivatan:
, var
.
Detta kallas den första magiska formeln [2] .
Den villkorliga maximum likelihood-metoden (Conditional ML) används i regressionsmodeller. Kärnan i metoden är att inte den fullständiga gemensamma fördelningen av alla variabler (beroende och regressorer) används, utan endast den villkorliga fördelningen av den beroende variabeln med faktorer, det vill säga i själva verket fördelningen av slumpmässiga fel i regressionsmodellen . Den totala sannolikhetsfunktionen är produkten av den "villkorliga sannolikhetsfunktionen" och fördelningsdensiteten för faktorerna. Den villkorade MMP är likvärdig med den fullständiga versionen av MMP i de fall då fördelningen av faktorer inte beror på de uppskattade parametrarna på något sätt. Detta villkor överträds ofta i tidsseriemodeller, till exempel den autoregressiva modellen . I det här fallet är regressorerna de tidigare värdena för den beroende variabeln, vilket innebär att deras värden också följer samma AR-modell, det vill säga fördelningen av regressorerna beror på de uppskattade parametrarna. I sådana fall kommer resultaten av att tillämpa metoderna för villkorad och full maximal sannolikhet att skilja sig åt.
Ordböcker och uppslagsverk |
---|