Bayesiansk sannolikhet

Bayesiansk sannolikhet  är en tolkning av sannolikhetsbegreppet som används i Bayesiansk teori. Sannolikhet definieras som graden av förtroende för sanningen i en proposition . För att bestämma graden av förtroende för sanningen i en dom när man tar emot ny information använder Bayes teorier Bayes sats .

Historik

Bayesiansk teori och Bayesiansk sannolikhet är uppkallade efter Thomas Bayes (1702–1761), som bevisade ett specialfall av den sats som nu kallas Bayes sats . Termen "bayesian" kom i bruk omkring 1950 , och det mesta av det som nu kallas "bayesian" är inte direkt relaterat till Bayes. Laplace visade ett mer allmänt fall av Bayes sats och använde det för att lösa problem inom himlamekanik och medicinsk statistik. Laplace ansåg dock inte att detta teorem var viktigt för utvecklingen av sannolikhetsteorin. Han höll sig till den klassiska definitionen av sannolikhet .

Frank Ramsey , i The Foundations of Mathematics (1931), var den första som lade fram idén om att använda subjektiv säkerhet för att bestämma sannolikhet. Ramsey föreslog denna definition som ett tillägg till frekvensdefinitionen , som var mer utvecklad vid den tiden. Statistikern Bruno de Finetti tillämpade Ramseys idéer 1937 som ett alternativ till frekvensbestämning. Leonard Savage utvecklade denna idé i The Foundations of Statistics (1954).

Det har gjorts försök att formellt definiera det intuitiva konceptet "grad av säkerhet". Den mest allmänna definitionen är baserad på en satsning : graden av säkerhet återspeglas av mängden insats man är villig att satsa på att ett förslag är sant.

Alternativ

Variationer i den Bayesianska tolkningen av sannolikhet: Subjektiv sannolikhet och logisk sannolikhet .

Samband med frekvenssannolikhet

Bayesisk sannolikhet kontrasteras med frekvenssannolikhet , där sannolikheten bestäms av den relativa frekvensen av att en slumpmässig händelse inträffar under tillräckligt långa observationer.

Matematisk statistik , baserad på frekvenssannolikhet , utvecklades av R. A. Fisher , E. Pearson och E. Neumann under första hälften av 1900-talet. A. Kolmogorov använde också frekvenstolkningen när han beskrev sin axiomatik baserad på Lebesgue-integralen .

Skillnaden mellan Bayesiansk och frekvenstolkning spelar en viktig roll i praktisk statistik. Till exempel, när du jämför två hypoteser på samma data, tillåter teorin om statistisk hypotestestning , baserat på frekvenstolkningen, dig att förkasta eller inte förkasta hypotesmodellerna. Samtidigt kan en adekvat modell förkastas på grund av att en annan modell verkar mer adekvat på dessa data. Bayesianska metoder, tvärtom, beroende på indata, ger ut den bakre sannolikheten att vara adekvat för var och en av hypoteserna.

Applikation

Sedan 1950-talet har Bayesiansk teori och Bayesiansk sannolikhet tillämpats brett genom till exempel Cox sats och principen om maximal entropi . För många[ vad? ] problem ger Bayesianska metoder bättre resultat än metoder baserade på frekvenssannolikhet .

Bayesiansk teori används som en metod för att anpassa befintliga sannolikheter till nyligen erhållna experimentella data.

Bayesiansk teori används för att bygga intelligenta filter som till exempel används för att filtrera bort skräppost .

Sannolikheter för sannolikheter

En obehaglig detalj förknippad med användningen av Bayesiansk sannolikhet är att det inte räcker med att specificera sannolikheten för att förstå dess natur. Tänk på följande situationer:

  1. Du har en låda med svarta och vita bollar och ingen information om deras nummer.
  2. Du har en låda med svarta och vita bollar. Du drog ut bollar på måfå, exakt hälften av dem visade sig vara svarta.
  3. Du har en låda med svarta och vita bollar och du vet att exakt hälften av dem är svarta.

Den Bayesianska sannolikheten att "dra nästa svarta boll" i vart och ett av dessa fall är 0,5. Keynes kallade detta problemet med "graden av säkerhet". Detta problem kan lösas genom att introducera sannolikheten för en sannolikhet (kallad metasannolighet ).

1. Anta att du har en låda med svarta och vita kulor och ingen information om hur många kulor i vilken färg som finns i den. Låt  - det här är ett påstående att sannolikheten för att dra en svart boll härnäst är , då blir sannolikhetsfördelningen en betafördelning : Om man antar att bolldragningarna är oberoende och lika sannolika, blir sannolikhetsfördelningen , efter att ha dragit m svarta bollar och n vita bollar, också en Betafördelning med parametrar , . 2. Låt oss anta att du har ritat bollar från en låda , hälften av dem visade sig vara svarta och resten - vita. I det här fallet kommer sannolikhetsfördelningen att vara en betafördelning . Den maximala a posteriori förväntan är . 3. Du vet att exakt hälften av kulorna är svarta och resten är vita. I det här fallet är sannolikheten 0,5 med sannolikheten 1: .

Se även

Länkar