I Bayesiansk statistisk slutledning är den tidigare sannolikhetsfördelningen ( engelska prior probability distribution , eller helt enkelt prior ) av ett osäkert värde en sannolikhetsfördelning som uttrycker antaganden om innan man tar hänsyn till experimentella data. Till exempel, om är andelen väljare som är redo att rösta på en viss kandidat, då kommer den tidigare fördelningen att vara antagandet om innan man tar hänsyn till resultaten från omröstningar eller val. Kontrasterad med posterior sannolikhet .
Enligt Bayes teorem är den normaliserade produkten av den tidigare fördelningen och sannolikhetsfunktionen en betingad fördelning av ett osäkert värde enligt de data som beaktas.
Förfördelningen ges ofta subjektivt av en erfaren expert. När det är möjligt används den konjugata tidigare fördelningen , vilket förenklar beräkningar.
Tidigare distributionsparametrar kallas hyperparametrar för att skilja dem från datamodellparametrar . Om betafördelningen till exempel används för att modellera fördelningen av en Bernoulli- distributionsparameter , då:
En informativ prior uttrycker specifik information om en variabel.
Till exempel skulle ett lämpligt före för lufttemperaturen i morgon vid middagstid vara en normalfördelning med medelvärde lika med dagens temperatur vid middagstid och varians lika med daglig temperaturvariation.
Således blir den bakre fördelningen för ett problem (temperaturen i dag) prioriteten för det andra problemet (morgondagens temperatur); ju mer bevis som ackumuleras i ett sådant a priori, desto mindre beror det på det initiala antagandet och mer på de ackumulerade uppgifterna.
En oinformativ prior uttrycker flummig eller allmän information om en variabel.
Ett sådant namn är inte särskilt korrekt, ett inte särskilt informativt a priori eller ett objektivt a priori skulle vara mer korrekt , eftersom fördelningens egenskaper inte tilldelas subjektivt.
Till exempel kan en sådan a priori uttrycka "objektiv" information att "variabeln bara kan vara positiv" eller "variabeln ligger i intervallet."
Den enklaste och äldsta regeln för att tilldela en oinformativ a priori är principen om likgiltighet , som tilldelar lika sannolikheter till alla möjligheter.
I parameteruppskattningsproblem ger användningen av icke-informativ a priori vanligtvis resultat som skiljer sig lite från traditionella, eftersom sannolikhetsfunktionen ofta ger mer information än icke-informativ a priori.
Försök har gjorts att hitta logiska a priori ( engelska a priori probability ) som skulle följa av sannolikhetens natur. Detta är föremål för en filosofisk debatt som har delat upp anhängare av den bayesianska metoden i två grupper: "objektiva" (som tror att sådana a priori existerar i många tillämpade situationer) och "subjektiva" (som tror att tidigare fördelningar vanligtvis representerar subjektiva åsikter och kan inte noggrant motiveras (Williamson 2010)). Det kanske starkaste argumentet för objektiv Bayesism gjordes av Jaynes, Edwin Thompson .
Som ett exempel på en naturlig a priori, efter Jaynes (2003), överväg situationen där bollen är känd för att vara gömd under en av de tre kopparna A, B eller C, men ingen annan information är tillgänglig. I detta fall verkar den enhetliga fördelningen intuitivt vara den enda rimliga. Mer formellt ändras inte problemet om namnen på kopparna vänds om. Därför är det värt att välja en sådan tidigare distribution så att permutationen av namn inte ändrar den. Och enhetlig fördelning är den enda lämpliga.
Om Bayes sats skrivs som:
då är det uppenbart att det kommer att förbli sant om alla tidigare sannolikheter P ( Ai ) och P ( A j ) multipliceras med samma konstant; detsamma gäller för kontinuerliga slumpvariabler . De bakre sannolikheterna kommer att förbli normaliserade till summan (eller integralen) av 1, även om priorerna inte normaliserades. Således bör den tidigare fördelningen endast ge rätt proportioner av sannolikheter.