Berksons paradox

Den aktuella versionen av sidan har ännu inte granskats av erfarna bidragsgivare och kan skilja sig väsentligt från versionen som granskades den 9 december 2021; kontroller kräver 2 redigeringar .

Berkson's paradox , collider error  - the position of matematisk statistik , formulerad av J. Berkson ( engelska  Joseph Berkson ) 1946. Påstående: Två oberoende händelser kan bli villkorligt beroende om någon tredje händelse inträffar . Denna slutsats är kontraintuitiv för vissa människor och kan därför beskrivas som en paradox . Den tredje händelsen, som kan göra de två första händelserna villkorligt beroende, kallas en kolliderare . Berksons paradox beskrivs ofta inom medicinsk statistik eller biostatistik . Det är en komplicerande faktor som dyker upp i statistiska tester av kvoter.

Samma paradox nämns i teorin om artificiella neurala nätverk som en övergående förklaring , motiveringseffekt eller minskning av orsaken ( eng.  förklara bort ) [1] [2] .

Formell definition

om 0 < P( A ) < 1 och 0 < P( B ) < 1, där A och B är några händelser, och P( A | B ) = P( A ) (det vill säga händelserna är oberoende), sedan P( A | B , C ) < P( A | C ) där C = A ∪ B (dvs. A eller B ).

En illustration baserad på ett exempel från matematisk statistik

Vi kommer att undersöka statistiken för ett slumpmässigt urval av frimärken från en uppsättning, med hänsyn till två oberoende frimärksegenskaper: "raritet" och "skönhet".

Anta att det finns 1000 frimärken, bland vilka 300 är vackra, 100 är sällsynta och 30 är både vackra och sällsynta. Uppenbarligen, av hela uppsättningen är 10% av stämplarna sällsynta, men av alla vackra stämplar är 10% också sällsynta, det vill säga frimärkets skönhet säger ingenting om dess sällsynthet.

Men om vi väljer från hela uppsättningen (1000) alla vackra frimärken och alla sällsynta frimärken (det finns 370 sådana frimärken), så kommer det redan i detta urval av sällsynta frimärken att finnas 27% (100 av 370), men bland de vackra frimärkena där kommer fortfarande bara att finnas 10 % (30 av 300). Då kommer observatören, när han analyserar ett sådant prov (och inte hela uppsättningen), se ett uppenbart omvänt förhållande mellan märkets skönhet och sällsynthet (om märket är vackert är sannolikheten för dess sällsynthet lägre). Men i verkligheten finns det inget sådant samband.

Det beskrivna resultatet är matematiskt helt korrekt, dess "paradoxalitet" är förknippat med särdragen i uppfattningen av människor som tenderar att intuitivt tro att om två parametrar är oberoende, så förblir de så i vilket urval som helst. I verkligheten, vid selektionsbias mellan oberoende parametrar, kan villkorliga beroenden uppstå, vilket leder till grova fel i analysen när de utvidgas till hela populationen .

Illustration på ett exempel från teorin om neurala nätverk

Låt det enklaste Bayesianska artificiella neurala nätverket med en sigmoidaktiveringsfunktion ges , innehållande två oberoende händelser (orsaker) till att en tredje händelse kommer att inträffa - huset kommer att skaka. En bias på -10 i jordbävningshändelseneuronen innebär att i frånvaro av observationer och a priori kunskap är det mycket mer sannolikt att denna händelse inte inträffar än att den inträffar. Om en jordbävningshändelse inträffar, men ingen lastbilshändelse inträffar, har husskakningshändelsens neuron en total ingång på 0, vilket betyder att sannolikheten för att händelsen inträffar (det vill säga neuronaktivering) är 0,5. Således, om vi har en observation av händelsen "huset skakar", så är den bästa förklaringen till detta faktum förekomsten av en av händelseorsakerna. Det är dock ologiskt att anta att båda orsakshändelser inträffade samtidigt för att förklara händelsen med att skaka huset, eftersom sannolikheten för att de inträffar samtidigt är lika med . Alltså, om vi observerar både en husskakningshändelse och vet vad som hände, till exempel en jordbävningsorsakande händelse, så kastar detta ut en förklaring ( bortförklara , minskar orsaken) att lastbilen var skyldig till att huset skakade [3 ] .  

Anteckningar

  1. Introduktion till Bayesianska nätverk  / S. A. Terekhov // Vetenskaplig session MEPhI-2003. V Allrysk vetenskaplig och teknisk konferens Neuroinformatik-2003: Föreläsningar om neuroinformatik / Ed. ed. Yu. V. Tyumensev (kandidat för tekniska vetenskaper). - M.  : MEPhI, 2003. - Del 1. - S. 154. - 188 sid. : sjuk. — SRNTI 28.23.27. - BBK  32.818ya5 . - UDC  004.81.032.26 (063) . — ISBN 5-7262-0471-9 .
  2. Föreläsning 1 “Bayesian and Markov networks” Arkivexemplar daterad 14 juli 2014 på Wayback Machine D. P. Vetrov D. A. Kropotov A. A. Osokin. - Moscow State University, VMiK, avdelning. MMP CC RAS-kurs "Grafiska modeller"
  3. Hinton, G.E.; Osindero, S.; Teh, Y. En snabbinlärningsalgoritm för djupa trosnät  (obestämd)  // Neural Computation. - 2006. - T. 18 , nr 7 . - S. 1527-1554 . - doi : 10.1162/neco.2006.18.7.1527 . — PMID 16764513 .

Litteratur

Se även