Multipartikelfilter [1] ( MPF , engelsk partikelfilter - "partikelfilter", "partikelfilter", "korpuskulärt filter") - en sekventiell Monte Carlo-metod - en rekursiv algoritm för att numeriskt lösa uppskattningsproblem ( filtrering , utjämning ), speciellt för icke-linjära och icke- gaussiska fall. Sedan beskrivningen 1993 [2] av N. Gordon, D. Salmond och A. Smith, har den använts inom olika områden - navigering, robotik , datorseende .
Jämfört med de metoder som vanligtvis används för sådana problem - utökade Kalman-filter (EKF) - är flerpartikelfilter inte beroende av linjäriserings- eller approximationsmetoder . Konventionell EKF klarar sig inte bra med väsentligen icke-linjära modeller, liksom i fallet med systembrus och mätningar som skiljer sig mycket från Gaussiska, därför har olika modifieringar utvecklats, såsom UKF ( engelska unscented KF ), QKF ( English Quadrature KF ), etc. ][3 Det bör noteras att flerpartikelfilter i sin tur kräver mer datorresurser.
Termen "partikelfilter" myntades av Del Moral 1996 [4] och "sekventiellt Monte Carlo" av Liu och Chen 1998.
Många multipartikelfilter som används i praktiken härleds genom att tillämpa en sekventiell Monte Carlo-metod på en sekvens av målfördelningar [ 5] .
FFM är utformad för att uppskatta sekvensen av latenta variabler för baserat på observationer vid . För enkelhetens skull kommer vi att anta att vi överväger ett dynamiskt system , och och är verkliga tillstånds- respektive mätvektorer [1] .
Den stokastiska ekvationen för systemets tillstånd har formen:
,där funktionen att ändra systemets tillstånd är en slumpmässig variabel , den störande effekten.
Mätningsekvation:
,var är mätfunktionen, är en slumpvariabel, mätbrus.
Funktionerna och är i allmänhet olinjära och de statistiska egenskaperna för systembruset ( ) och mätningar ( ) antas vara kända.
Filtreringens uppgift är att få en uppskattning baserad på de mätresultat som var kända vid tillfället .
Betrakta en diskret Markov-process med följande sannolikhetsfördelningar:
och ,
|
(ett) |
där är sannolikhetstätheten , är den villkorade sannolikhetstätheten ( övergångssannolikhetstätheten ) i övergången från till .
Här betyder notationen att villkoret är fördelat som .
Realiseringar av processen (dolda variabler ) observeras genom en annan slumpmässig process - mätprocessen - med marginella tätheter :
, | (2) |
där är den villkorade sannolikhetstätheten ( mättäthet ), mätningar anses vara statistiskt oberoende .
Modellen kan illustreras med följande övergångsdiagram:
För enkelhetens skull antar vi att övergångstätheten och mättätheten inte beror på . Modellparametrarna antas vara givna.
Systemet och mätmodellen som sålunda definieras är känd som Hidden Markov Model [6] .
Ekvation (1) definierar den tidigare fördelningen för processen :
(3) |
På liknande sätt definierar (2) sannolikhetsfunktionen :
, | (fyra) |
Här och nedan betecknar notationen för .
Således kommer den Bayesianska slutsatsen för kända implementeringar av mätningar , betecknade med respektive , att baseras på den bakre fördelningen
, | (5) |
där (här är det dominerande måttet):
.Se även Viktighetsprovtagning .
Monte Carlo-metoden låter dig utvärdera egenskaperna hos ganska komplexa sannolikhetsfördelningar, till exempel genom att beräkna medelvärdet och variansen i form av en integral [3] :
,var är funktionen för uppskattning. Till exempel, för genomsnittet, kan du sätta: .
Om en analytisk lösning är omöjlig kan problemet lösas numeriskt genom att generera slumpmässiga prover med en densitet , beteckna dem som , och erhålla det aritmetiska medelvärdet över provpunkterna [3] :
I ett mer generellt fall, när sampling från är svårt, tillämpas en annan fördelning (den så kallade engelska instrumental- eller betydelsefördelningen ), och för att hålla skattningen opartisk införs viktningskoefficienter baserade på förhållandet [3] :
och beräknar sedan det viktade medelvärdet:
,Även om hjälpfördelningen främst används för att förenkla sampling från huvudfördelningen , används ofta proceduren ”sampling and resampling by significance” ( engelska sampling betydelse resampling, SIR ). Denna procedur består av två steg: faktisk provtagning efter signifikans med beräkning av vikter och ytterligare provtagning av punkter som tar hänsyn till dessa vikter [3] .
Omsampling är särskilt nödvändig för seriella filter [3] .
Flerpartikelfiltrering och utjämningsmetoder är de mest kända exemplen på sekventiella Monte Carlo ( SMC ) algoritmer . I den mån litteraturen ofta inte skiljer mellan dem. Emellertid inkluderar SMC en bredare klass av algoritmer som är tillämpliga för att beskriva mer komplexa ungefärliga filtrering och utjämningsmetoder [7] .
Sekventiella Monte Carlo-metoder är en klass av Monte Carlo-metoder som sekventiellt samplar från en sekvens av målsannolikhetstätheter med ökande dimension, där var och en definieras på en kartesisk potens [5] .
Om vi skriver densiteten som: [5]
, var är känd punktvis, och är alltså en normaliserande, möjligen okänd, konstantSMC-algoritmen hittar approximationer och uppskattningar för .
Till exempel, för fallet med filtrering, kan man sätta (se (5) ):
och ,från vilken vi kommer att ha:
.
Om utdata utelämnas kan prediktor-korrigeringsschemat representeras enligt följande [3] :
Multiplikatorn är en normaliseringskonstant som inte krävs för den normala SMC-algoritmen.
En typisk multipartikelfilteralgoritm kan representeras enligt följande [3] :
MCF-algoritm -- initiering för i = 1...N: prov från -- initialvikter kts för n = 1...T: om ÅTERVÄLJ då -- välj index för N partiklar enligt vikter = SelectByWeight( ) för i = 1...N: annat för i = 1...N: för i = 1...N: -- steg för förökning av partiklar -- uppdatering av skalan kts -- Normalisering av vikter för i = 1...N: kts