Sannolikhetsteorins historia präglas av många unika egenskaper. För det första, till skillnad från andra grenar av matematiken som dök upp ungefär samtidigt (till exempel matematisk analys eller analytisk geometri ), hade sannolikhetsteorin i huvudsak inga antika eller medeltida föregångare, den är helt och hållet en skapelse av New Age [1] . Sannolikhetsteorin ansågs länge vara en ren experimentell vetenskap och "inte riktigt matematik" [2] [3] , dess rigorösa motivering utvecklades först 1929, det vill säga till och med senare än mängdlärans axiomatik (1922). Numera intar sannolikhetsteorin en av de första platserna inom den tillämpade vetenskapen vad gäller vidden av dess tillämpningsområde; "Det finns nästan ingen naturvetenskap där probabilistiska metoder inte skulle tillämpas på ett eller annat sätt" [4] .
Historiker pekar ut flera perioder i utvecklingen av sannolikhetsteorin [5] [6] .
De första problemen av probabilistisk karaktär uppstod i olika hasardspel - tärningar , kort , etc. [8] Den franske 1200-talets kanon Richard de Fournival beräknade korrekt alla möjliga poängsummor efter att ha kastat tre tärningar och angav antalet sätt som var och en av dessa summor kan erhållas. Detta antal sätt kan ses som det första numeriska måttet på förväntan av en händelse, analogt med sannolikhet. Före Fournival, och ibland efter det, beräknades detta mått ofta felaktigt, till exempel med tanke på att summan av 3 och 4 poäng är lika sannolika, eftersom båda kan visa sig "bara på ett sätt": enligt resultaten av kast, "tre enheter" respektive "två med två enheter. Samtidigt togs det inte med i beräkningen att tre enheter faktiskt erhålls på bara ett sätt: , och två med två enheter - tre: , så dessa händelser är inte lika sannolika [9] . Liknande misstag påträffades upprepade gånger i vetenskapens vidare historia.
Det omfattande matematiska uppslagsverket "Summan av aritmetik, geometri, förhållanden och proportioner" av italienaren Luca Pacioli (1494) innehåller originalproblem på ämnet: hur man delar insatsen mellan två spelare om en serie spel avbryts före schemat. Ett exempel på en liknande uppgift: spelet går upp till 60 poäng, vinnaren får hela insatsen på 22 dukater , under spelet fick den första spelaren 50 poäng, den andra - 30, och sedan måste spelet stoppas; det krävs att den ursprungliga kursen delas rättvist. Beslutet beror på vad som menas med en "rättvis" uppdelning; Pacioli själv föreslog att dela i proportion till poängen (55/4 och 33/4 dukater) [10] ; senare erkändes hans beslut som felaktigt [11] .
Den framstående algebraisten på 1500-talet, Gerolamo Cardano, ägnade en informativ monografi åt analysen av spelet, The Book of Dice (1526, publicerad postumt). Cardano genomförde en fullständig och omisskännlig kombinatorisk analys för värdena av summan av poäng och angav för olika händelser det förväntade värdet av andelen "gynnsamma" händelser: till exempel, när man kastar tre tärningar, andelen fall där värdena på alla 3 tärningarna är desamma är 6/216 eller 1/36. Cardano gjorde en insiktsfull observation: det faktiska antalet studerade händelser kan skilja sig mycket från det teoretiska för ett litet antal spel, men ju fler spel i serien, desto mindre andel av denna skillnad. I huvudsak kom Cardano nära begreppet sannolikhet [12] :
Så det finns en allmän regel för beräkning: du måste ta hänsyn till det totala antalet möjliga förekomster och antalet sätt på vilka dessa förekomster kan förekomma, och sedan hitta förhållandet mellan det sista talet och antalet återstående möjliga förekomster .
En annan italiensk algebraist, Niccolo Tartaglia , kritiserade Paciolis tillvägagångssätt för att lösa problemet med att dela insatsen: trots allt, om en av spelarna ännu inte har lyckats få en enda poäng, så ger Paciolis algoritm hela insatsen till hans motståndare, men detta kan knappast kallas rättvist, eftersom det finns några vinstchanser som eftersläpningen fortfarande har. Cardano och Tartaglia föreslog sina egna (olika) metoder för delning, men senare erkändes dessa metoder också som misslyckade [13] .
Detta ämne studerades också av Galileo Galilei , som skrev en avhandling "Om frågan om poäng när man spelar tärning" (1718, publicerad postumt). Galileos presentation av spelteori kännetecknas av dess uttömmande fullständighet och klarhet. I sin huvudbok, Dialogue on the Two Major Systems of the World , Ptolemaic och Copernican, påpekade Galileo också möjligheten att uppskatta felet i astronomiska och andra mätningar, och konstaterade att små mätfel är mer sannolika än stora, avvikelser i båda riktningarna är lika sannolika, och medelresultatet bör vara nära det verkliga värdet av det uppmätta värdet. Dessa kvalitativa resonemang blev den första förutsägelsen någonsin om normalfördelningen av fel [14] .
På 1600-talet började en tydlig förståelse av sannolikhetsteorins problem bildas, och de första matematiska ( kombinatoriska ) metoderna för att lösa sannolikhetsproblem dök upp. Blaise Pascal och Pierre de Fermat [15] blev grundarna av den matematiska sannolikhetsteorin .
Innan dess vände sig amatörmatematikern Chevalier de Mere till Pascal om det så kallade "poängproblemet": hur många gånger behöver du kasta två tärningar för att satsa på den samtidiga förlusten av minst en gång två sexor var lönsam? Pascal och Fermat ingick korrespondens med varandra om detta problem och relaterade frågor ( 1654 ). Som en del av denna korrespondens diskuterade forskare ett antal problem relaterade till probabilistiska beräkningar; i synnerhet övervägdes det gamla problemet med att dela insatsen, och båda forskarna kom till beslutet att det är nödvändigt att dela insatsen efter de återstående vinstchanserna. Pascal påpekade för de Mere det misstag han hade gjort när han löste "problemet om poäng": medan de Mere felaktigt identifierade lika sannolika händelser, efter att ha fått svaret: 24 kast, gav Pascal det korrekta svaret: 25 kast [15] [16 ] ] .
Pascal i sina skrifter avancerade långt användningen av kombinatoriska metoder, som han systematiserade i sin bok Treatise on the Arithmetic Triangle (1665) [17] . Baserat på ett probabilistiskt tillvägagångssätt, hävdade Pascal till och med (i postumt publicerade anteckningar) att det är mer lönsamt att vara troende än ateist (se " Pascals satsning ").
Ämnet för diskussionen mellan Pascal och Fermat (utan detaljer) blev känt för Christian Huygens , som publicerade sin egen studie "On the Calculations in Gambling" ( 1657 ): den första avhandlingen om sannolikhetsteorin [15] . I förordet skriver Huygens [18] :
Jag tror att efter noggrann studie av ämnet kommer läsaren att märka att han inte bara har att göra med ett spel, utan att grunden för en mycket intressant och djup teori läggs här.
Huygens avhandling beskriver de frågor som Fermat och Pascal tog upp, men väcker också nya frågor [11] . Den holländska forskarens främsta prestation var introduktionen av begreppet matematisk förväntan , det vill säga det teoretiska medelvärdet av en slumpmässig variabel . Huygens påpekade också det klassiska sättet att beräkna det [18] :
Om antalet gånger som summan erhålls är , och antalet gånger som summan erhålls är , då är kostnaden för min väntan .
Huygens, som framgår av citatet, använde först termen "värde", och termen "förväntning" dök upp för första gången när Van Schouten översatte Huygens avhandling till latin och blev allmänt accepterad inom vetenskapen [19] .
Boken innehåller ett stort antal problem, några med lösningar, andra "för oberoende lösning". Av de senare väckte " spelarens ruinproblem " särskilt intresse och livlig diskussion . I en något generaliserad form är det formulerat enligt följande: spelare A och B har också mynt , respektive ett mynt vinner i varje spel, sannolikheten att A vinner i varje spel är lika , du måste hitta sannolikheten för hans fullständiga ruin. En fullständig allmän lösning av "ruinproblemet" gavs av Abraham de Moivre ett halvt sekel senare (1711) [20] . Nuförtiden används det probabilistiska schemat för "ruinproblemet" för att lösa många problem av typen " random walk " [21] .
Huygens analyserade också uppgiften att dela insatsen och gav sin slutgiltiga lösning: insatsen måste delas i proportion till sannolikheterna att vinna om spelet fortsätter [22] . Han var också banbrytande för tillämpningen av probabilistiska metoder på demografisk statistik och visade hur man beräknar förväntad livslängd [23] .
Publikationerna av de engelska statistikerna John Graunt (1662) och William Petty (1676, 1683) tillhör samma period . Efter att ha bearbetat data i mer än ett sekel visade de att många av de demografiska egenskaperna hos Londonbefolkningen, trots slumpmässiga fluktuationer, är ganska stabila - till exempel avviker förhållandet mellan antalet nyfödda pojkar och flickor sällan från andelen 14 till 13, fluktuationerna är små och andelen dödsfall från specifika slumpmässiga orsaker. Dessa data förberedde det vetenskapliga samfundet för uppfattningen av nya idéer [18] .
Graunt var också den första att sammanställa livstabeller , tabeller över sannolikheten för död som funktion av ålder. Frågorna om sannolikhetsteorin och dess tillämpning på demografisk statistik togs också upp av Johann Hudde och Jan de Witt i Nederländerna, som 1671 också sammanställde dödlighetstabeller och använde dem för att beräkna storleken på livräntan . Denna rad frågor beskrevs mer i detalj 1693 av Edmund Halley [11] [24] .
Huygens bok var baserad på det tidiga 1700-talets avhandlingar av Pierre de Montmorts Essay d'analyse sur les jeux de hazard ( franska Essay d'analyse sur les jeux de hazard ; utgiven 1708 och omtryckt med tillägg 1713) och Jacob Bernoulli 's The Art of Conjecture. ( lat. Ars conjectandi ; publicerad efter vetenskapsmannens död, samma 1713). Det senare var särskilt viktigt för sannolikhetsteorin [11] .
Jacob Bernoulli arbetade med avhandlingen "The Art of Assumptions" i tjugo år, redan tio år före publiceringen började texten till detta verk i form av ett ofullbordat manuskript spridas över hela Europa, vilket väckte stort intresse. Avhandlingen var den första systematiska beskrivningen av sannolikhetsteorin. I den här boken gav författaren särskilt den klassiska definitionen av sannolikheten för en händelse som förhållandet mellan antalet utfall associerade med denna händelse och det totala antalet utfall (en tillförlitlig händelse har sannolikheten ett, en omöjlig händelse har sannolikheten noll). Det probabilistiska schemat som studerats systematiskt av Bernoulli kallas nu för binomialfördelningen [25] .
Tidigare opererade matematiker oftast själva antalet utfall; historiker tror att ersättningen av kvantitet med "frekvens" (dvs dividerat med det totala antalet utfall) drevs av statistiska överväganden: frekvens, till skillnad från kvantitet, tenderar i allmänhet att stabiliseras när antalet observationer ökar. Definitionen av sannolikhet "enligt Bernoulli" blev omedelbart allmänt accepterad, den återgavs av Abraham de Moivre i boken "The Doctrine of Cases" (1718) och alla efterföljande matematiker. Det enda viktiga klargörandet - att alla "elementära utfall" måste vara lika sannolika - gjordes av Pierre-Simon Laplace 1812. Om det är omöjligt att beräkna den klassiska sannolikheten för en händelse (till exempel på grund av bristen på förmågan att identifiera likvärdiga utfall), föreslog Bernoulli att använda en statistisk metod, det vill säga att uppskatta sannolikheten baserat på resultaten av observationer av denna händelse eller relaterad till den [25] .
I den första delen av sin avhandling trycker Bernoulli helt om Huygens bok, som han ger högsta betyg, och kompletterar den avsevärt med sina egna kommentarer. I synnerhet ger han den allmänna " Bernoulli-formeln ": om sannolikheten för en händelse är , då är sannolikheten att händelsen kommer att inträffa en gång i testerna . Bernoulli utvecklar sedan kombinatorik och använder den för att lösa flera problem med slumpmässigt urval. I den sista delen av boken, som förblev oavslutad, tänkte Bernoulli överväga ekonomiska och andra praktiska tillämpningar av sannolikhetsteorin [26] .
Av stor betydelse både för sannolikhetsteorin och för vetenskapen i allmänhet var den första versionen av lagen om stora siffror bevisad av Bernoulli (senare Poisson gav namnet till lagen ) [27] . Denna lag förklarar varför den statistiska frekvensen, med en ökning av antalet observationer, närmar sig sitt teoretiska värde – sannolikhet, och kopplar därmed samman två olika definitioner av sannolikhet. Senare generaliserades och förfinades lagen om stora siffror avsevärt av många matematikers verk; som det visade sig skiljer sig tendensen för den statistiska frekvensen till den teoretiska från tendensen till gränsen i analysen - frekvensen kan avvika avsevärt från den förväntade gränsen, och det kan bara hävdas att sannolikheten för sådana avvikelser tenderar att noll med ökande antal försök. Samtidigt är frekvensavvikelser från sannolikhet också mottagliga för probabilistisk analys [28] .
Jacob Bernoullis avhandling orsakade ett kraftigt ökat intresse för probabilistiska problem och en ökning av antalet studier av nya problem. Abraham de Moivre publicerade flera arbeten, bland vilka den mest intressanta är artikeln "On the Measurement of Chance, or the Probabilities of Results in Gambling" (1711) och avhandlingen "The Doctrin of Cases" (1718), som gick igenom tre upplagor på 1700-talet. I denna avhandling löste De Moivre inte bara "spelarförstöringsproblemet" som nämnts ovan fullständigt, utan uppskattade också den genomsnittliga varaktigheten av spelet och sannolikheten att vinna för ett givet antal spel för varje spelare [11] [29] . I ett annat arbete som kallas "Analytisk blandning", gav De Moivre den första versionen av De De Moivre-Laplace-satsen , som undersöker fördelningen av möjliga avvikelser av statistisk frekvens från sannolikhet. De Moivre ansåg endast fallet när sannolikheten är lika med 1/2, medan det allmänna fallet för någon sannolikhet bevisades av Laplace [30] . En annan prestation av Moivre var den första introduktionen till vetenskapen om normalfördelningen (1733), som framstod för honom som en approximation av binomialfördelningen [31] .
Daniel Bernoulli , brorson till grundaren av sannolikhetsteorin, bidrog också till denna vetenskap. Han, oberoende av De Moivre, studerade normalfördelningen för observationsfel, var den första att tillämpa metoderna för matematisk analys på probabilistiska problem , och publicerade den första av de probabilistiska paradoxerna (1738) [32] .
Nästa viktiga steg togs av den engelske matematikern Thomas Simpson , som under loppet av numerisk analys i boken Nature and the Laws of Chance (1740) faktiskt använde den tredje (tillsammans med den klassiska och statistiska) definitionen av sannolikhet - geometrisk, lämplig för att studera kontinuerliga slumpvariabler med ett oändligt antal värden. I Problem XXVI fann Simpson sannolikheten att en parallellepiped som slumpmässigt kastas på ett plan kommer att stanna på sin givna yta [33] .
Simpsons tillvägagångssätt utvecklades av Georges-Louis de Buffon , som 1777 gav ett klassiskt exempel på ett geometriskt sannolikhetsproblem [31] . Detta var " Buffon-problemet med att kasta en nål " , som senare sysselsatte många matematiker : planet är avgränsat "i en linjal", en nål kastas på det slumpmässigt, det krävs för att hitta sannolikheten för att nålen kommer att korsa rad [33] . Om nålens längd är mindre än avståndet mellan linjerna , är den nödvändiga sannolikheten . Denna formel verifierades experimentellt flera gånger, inklusive av Buffon själv, och 1901 använde den italienske matematikern Mario Lazzarini den för att experimentellt bestämma numret . Buffon-problemet, dess analys och olika modifieringar har diskuterats av matematiker i många år [34] .
Det viktigaste problemet med att beräkna sannolikheten för komplexa händelser löstes. Den engelske matematikern Thomas Bayes var den förste som formulerade sannolikhetsadditionssatsen för flera oförenliga händelser och " Bayes formler " som är grundläggande i sannolikhetsteori och statistik (1763, publicerad postumt). I modern terminologi låter Bayes formler dig beräkna den villkorade sannolikheten , samt förfina den beräknade sannolikheten efter att ha mottagit ny data. Sannolikhetsmultiplikationssatsen upptäcktes tidigare av De Moivre (1718) och gav den en helt modern, om än verbal formulering: "sannolikheten för förekomsten av två beroende händelser är lika med produkten av sannolikheten för förekomsten av en av dem genom att sannolikhet att den andra skulle dyka upp om den första av dem redan har dykt upp” [35] .
Vid mitten av 1700-talet väckte spelanalys fortfarande ett visst intresse - till exempel gav Leonhard Euler en detaljerad analys av olika typer av lotterier [36] , men matematikernas fokus blir alltmer demografisk statistik , försäkring och feluppskattning (mätningar, avrundning, etc.). .). Euler ägnade många arbeten åt statistik och försäkring; han, i synnerhet, löste problemet: att från statistiska tabeller uppskatta hur stor sannolikheten är att en person vid en ålder av år kommer att leva i ytterligare år [37] .
Under 1800-talet fortsatte antalet verk om sannolikhetsteorin att växa, det gjordes till och med försök att kompromissa med vetenskapen för att utvidga dess metoder långt bortom rimliga gränser - till exempel till området moral, psykologi, brottsbekämpning och till och med teologi [38] . Särskilt den walesiske filosofen Richard Price , och efter honom Laplace , ansåg att det var möjligt att beräkna sannolikheten för den kommande soluppgången med hjälp av Bayes formler [39] , Poisson försökte göra en probabilistisk analys av rättvisa domar och tillförlitligheten av vittnesmål [40] . Filosofen J. S. Mill 1843, som påpekade sådana spekulativa tillämpningar, kallade sannolikhetskalkylen "matematikens skam" [41] . Denna och andra uppskattningar vittnade om den otillräckliga noggrannheten av sannolikhetsteorin.
Sannolikhetsteorins matematiska apparat fortsatte under tiden att förbättras. Det huvudsakliga tillämpningsområdet för dess tillämpning vid den tiden var den matematiska bearbetningen av observationsresultat som innehöll slumpmässiga fel, liksom beräkningen av risker i försäkringsverksamheten och andra statistiska parametrar. Bland de huvudsakliga tillämpade problemen med sannolikhetsteori och matematisk statistik på 1800-talet är följande [42] :
I mitten av 1800-talet bildades en probabilistisk teori om artilleriskjutning. De flesta av de stora europeiska länderna har etablerat nationella statistikorganisationer. I slutet av århundradet började tillämpningsområdet för probabilistiska metoder framgångsrikt spridas till fysik, biologi, ekonomi och sociologi [43] [44] .
Carl Friedrich Gauss , som ständigt ägnade sig åt astronomiska beräkningar, utvecklade en probabilistisk teknik för att arbeta med mätningar som innehåller fel (1809). Han studerade djupt normalfördelningen , visade att det i många praktiska situationer är gränsen för slumpmässiga värden, motiverade användningen av minsta kvadratmetoden för att uppskatta det uppmätta värdet och parametrarna för dess möjliga spridningsintervall. Den slutliga versionen av teorin presenterades av Gauss i två verk, The Theory of the Combination of Observations Subject to Random Errors (1823, 1828) [45] . Även om normallagen var känd långt före Gauss, är hans bidrag till teorin om denna så viktiga fördelning så stort att normallagen under lång tid kallades "Gauss lag"; den moderna termen var fixerad tack vare verken av Karl Pearson i slutet av 1800-talet [44] .
Sannolikhetsteorins huvudsakliga prestationer sammanfattas i Laplaces grundläggande monografi "The Analytical Theory of Probability" (1812), som fullbordade det "klassiska stadiet" i utvecklingen av denna vetenskap. På 1800-talet genomgick Laplaces verk tre nytryck i Frankrike och översattes till många språk i världen [43] . Laplace studerade både diskreta och kontinuerliga slumpvariabler (utan att ännu introducera termen "slumpvariabel"), och för kontinuerliga sådana gav han nyckelbegreppet sannolikhetsfördelningstätheten , som tidigare implicit och begränsat användes av Daniel Bernoulli. Det integrerade konceptet för distributionsfunktionen uppstod mycket senare (det introducerades 1912 av A. M. Lyapunov ); den allmänna termen "slumpvariabel" dök också tydligen först upp i den ryska probabilistiska skolans verk [46] . Införandet av sannolikhetstäthet och karakteristiska funktioner gjorde det möjligt för Laplace att tillämpa kraftfulla analytiska verktyg för att lösa sannolikhetsproblem, inklusive partiella differentialekvationer [40] .
Laplace gav en formel för den totala sannolikheten för flera inkonsekventa "orsaker" (i modern terminologi "hypoteser"), bevisade ett antal gränssatser, inklusive Moivre-Laplace-satsen och konvergensen av binomialfördelningen till normalfördelningen med en ökning av antalet försök. En betydande del av boken ägnas åt statistiska tillämpningar och problemlösning. För att uppskatta det möjliga värdeintervallet för det uppmätta värdet, rekommenderade Laplace, liksom Gauss, metoden med minsta kvadrater [47] .
Laplace beskrev också sin förståelse av slumpens och sannolikhetens väsen. Enligt hans åsikt är förloppet av verkliga processer helt förutbestämt ( "bestämt" ), slumpmässighet uppträder endast i mänsklig perception och endast där en person inte har full kunskap om vad som händer [48] :
Sinnet, som för varje givet ögonblick skulle känna till alla krafter som besjälar naturen, och den relativa positionen för alla dess beståndsdelar, om det dessutom visade sig vara tillräckligt omfattande för att utsätta dessa data för analys, skulle i en formel omfatta rörelse av universums största kroppar på lika villkor med rörelserna för de lättaste atomerna; det skulle inte finnas något kvar som inte skulle vara säkert för honom, och framtiden, såväl som det förflutna, skulle visa sig framför hans ögon.
Siméon Denis Poisson generaliserade 1837 Bernoullis lag om stora siffror genom att ta bort villkoret att sannolikheten för en händelse i varje spel är densamma; under dessa nya förhållanden kommer den statistiska frekvensen att konvergera till det aritmetiska medelvärdet för sannolikheterna för enskilda spel [49] . Han publicerade också Poisson-formeln , som är bekväm för att beskriva Bernoulli-schemat i fallet när sannolikheten för en händelse är nära noll eller ett. Poisson-fördelningen ("lagen om sällsynta händelser") är en av de viktigaste i tillämpade problem, till exempel radioaktivt sönderfall , trillingars födelse, statistik över olyckor och olyckor [50] lyda den .
Det största problemet på detta område är följande. Låt successiva mätningar av en viss kvantitet ge nära men ojämlika värden. Det är underförstått att systematiska fel och storlekens beroende av mättiden (säg med rotationen av himlavalvet ) beaktas, så att skillnaden i data orsakas av rent slumpmässiga fel. Baserat på mätresultaten är det nödvändigt att hitta den bästa uppskattningen av det verkliga värdet av den kvantitet som studeras [51] .
Den första matematiska studien av detta praktiskt viktiga (särskilt inom astronomi) ämne genomfördes av Thomas Simpson (1755). Han utgick från den felaktiga hypotesen att mätfelen är fördelade enligt den "triangulära lagen", men han drog korrekt slutsatsen att det aritmetiska medelvärdet av mätresultaten är närmare det sanna värdet än en enskild mätning. Daniel Bernoulli (1778) trodde att felfördelningstätheten är en cirkelbåge, men Simpsons slutsats bekräftade [52] . Simpsons idéer utvecklades av I. G. Lambert , som först tillämpade metoden för att generera funktioner och metoden för maximal sannolikhet , senare generaliserad av R. E. Fisher [53] .
På 1800-talet påpekade Laplace att de observerade mätfelen vanligtvis är resultatet av summeringen av många slumpmässiga fel, och därför bör deras fördelning vara nära det normala . Istället för det aritmetiska medelvärdet föreslog han en statistisk median . Men nästan samtidigt publicerades den mycket mer praktiska metoden för Gauss minsta kvadrater (1809) och blev allmänt använd. År 1853 upptäckte Cauchy ett exempel på en fördelning där det aritmetiska medelvärdet är en mycket dålig uppskattning. I slutet av 1800-talet var den statistiska teorin om felhantering i stort sett komplett [52] .
År 1889 föreslog den franske matematikern Joseph Bertrand i sin kurs "Analys av sannolikheter" ett antal paradoxer relaterade till geometrisk sannolikhet. I varje paradox ledde olika tolkningar av begreppen "slumpmässigt" eller "tagna godtyckligt" till olika lösningar på problemet. Ett exempel på en av Bertrands paradoxer: hitta sannolikheten att ett slumpmässigt valt ackord i en cirkel blir längre än en sida i en triangel inskriven i denna cirkel. Med olika metoder för att välja ett ackord "slumpmässigt" erhålls olika svar.
Metod 1
Metod 2
Metod 3
Diskussionen om Bertrands paradoxer bidrog till att klargöra grunderna för sannolikhetsteorin och innebörden av termen "equiprobably" [54] .
Fram till mitten av 1800-talet var den praktiska tillämpningen av sannolikhetsteorin huvudsakligen begränsad till statistik och ungefärliga beräkningar , så den allmänna termen "slumpvariabel" dök upp ganska sent [55] . En av de första slumpmässiga processerna i fysiken var den kaotiska rörelsen av pollen som flyter i vatten, studerad i mikroskop av Robert Brown 1827 (" Brownisk rörelse "). Hans matematiska modell dök dock upp först i början av 1900-talet ( A. Einstein , M. Smoluchowski , N. Wiener ) [56] .
De första fysiska probabilistiska modellerna uppstod inom statistisk fysik , som utvecklades under andra hälften av 1800-talet av L. Boltzmann , D.K. Maxwell och D.W. Gibbs . Boltzmann visade i en serie verk (1870-talet) att termodynamiska lagar är av probabilistisk-statistisk natur och är förknippade med övergången av fysiska system från ett mindre troligt tillstånd till ett mer troligt, och entropi är ett mått på sannolikhet . Maxwell härledde samma år lagen om fördelning av molekylernas hastigheter i en gas, vilket gör det möjligt att beräkna energi , medelfri väg och andra egenskaper hos molekyler. 1902 publicerade Gibbs monografin "Basic Principles of Statistical Mechanics", som hade stort inflytande på fysikens utveckling [57] . I slutet av 1800-talet hade den enorma praktiska betydelsen av probabilistiska metoder blivit ett allmänt erkänt faktum.
I Ryssland, under första hälften av 1800-talet, började seriös forskning om sannolikhetsteorin att växa fram. Den första kursen undervisades av S. Revkovsky vid Vilnius universitet (1829), där den första avdelningen för sannolikhetsteori i det ryska imperiet etablerades 1830. Sedan 1837 lästes föreläsningar vid St. Petersburgs universitet först av V. A. Ankudovich och sedan 1850 av V. Ya. Bunyakovsky . Den grundläggande läroboken "Fundamentals of the Mathematical Theory of Probability" publicerades av Bunyakovsky 1846, och den ryska terminologi han uppfann blev allmänt accepterad. Kursen dök upp vid Moskvas universitet 1850, föreläsningar hölls av A. Yu Davidov , den framtida presidenten för Moscow Mathematical Society [58] .
Artiklar om probabilistiska ämnen publicerades av många framstående ryska matematiker, inklusive M. V. Ostrogradsky , N. D. Brashman , N. I. Lobachevsky , N. E. Zernov . I en betydande del av dessa verk kan man känna det starka inflytandet från Laplaces verk och synpunkter [59] .
De första ryska matematikerna i världsklass inom sannolikhetsteori var P. L. Chebyshev och hans elever A. A. Markov och A. M. Lyapunov . Redan från början av sin vetenskapliga karriär ägnade Chebyshev mest uppmärksamhet åt sannolikhetsteorin (tillsammans med talteorin ), och från 1860 ersatte han Bunjakovskij vid institutionen för sannolikhetsteori och började sin serie föreläsningar. Han publicerade endast fyra verk om detta ämne, men av grundläggande karaktär. Av särskilt intresse är hans artikel "On Averages" (1866), som ger " Chebyshev ojämlikhet ", senare förstärkt av Markov :
.Denna formel innebär att sannolikheten för avvikelse för en slumpvariabel från dess medelvärde ( matematisk förväntan ) med mer än standardavvikelser ( ) inte överstiger . Till exempel har en avvikelse på 5 en sannolikhet på högst 1/25, det vill säga inte mer än 4%.
Som en konsekvens av sin ojämlikhet fick Chebyshev en extremt generell formulering av lagen om stora siffror : om de matematiska förväntningarna på en serie slumpvariabler och kvadraterna på dessa matematiska förväntningar är gränsade i aggregatet, då är det aritmetiska medelvärdet av dessa storheter konvergerar med tillväxten till det aritmetiska medelvärdet för deras matematiska förväntningar. Från denna sats får man som följder av Bernoulli- och Poisson-satserna; Chebyshev var den första att noggrant utvärdera riktigheten av dessa satser och andra approximationer [60] .
1887 kom en artikel av Chebyshev "Om två satser om sannolikheter". I detta arbete slog han fast att under vissa (ganska generella) förhållanden är gränssatsen sann: summan av ett stort antal oberoende slumpvariabler (till exempel mätfel) fördelas ungefär enligt normallagen och desto mer exakt , desto fler termer. I sin allmänhet överstiger detta resultat vida Moivre-Laplace-satsen och alla dess analoger [61] . Senare förfinade och generaliserade A. A. Markov och A. M. Lyapunov denna Chebyshev-sats.
Båda dessa satser av Chebyshev intar en central plats i sannolikhetsteorin. Särskilt viktigt är det faktum att Chebyshev inte bara angav den begränsande fördelningen, utan i båda fallen analyserade i detalj gränserna för möjliga avvikelser från denna gräns [5] .
Om Chebyshev studerade oberoende slumpvariabler, utökade A. A. Markov 1907 forskningsområdet, med tanke på fallet när ett nytt slumpmässigt värde beror på det gamla. Markov bevisade en variant av lagen om stora siffror för några vanliga typer av beroende kvantiteter, och introducerade " Markov-kedjor " i världsvetenskapens terminologi. Markov ägnade många arbeten åt analys och klassificering av dessa kedjor; Markov-kedjor och Markovs slumpmässiga processer används inte bara i matematik, utan också inom andra vetenskaper, såsom statistisk fysik , kvantmekanik , automatisk styrteori och många andra [62] . Markov äger också den probabilistiska motiveringen av minsta kvadratmetoden [63] .
AM Lyapunov introducerade metoden för karakteristiska funktioner i teorin om gränssatser i sannolikhetsteorin [63] .
Under 1900-talet fortsatte studierna av Chebyshev och Markov av A. Ya. Khinchin , A. N. Kolmogorov m fl. I synnerhet fann Jarl V. Lindeberg (1922) och Kolmogorov (1926) de villkor som var nödvändiga och tillräckliga för lagen om stora antal att hålla [64] .
Sannolikhetsteorins matematiska apparat har berikats avsevärt i många riktningar. Efter utvecklingen av måttteorin visade det sig vara praktiskt att tillämpa detta allmänna begrepp på sannolikhetsteori, det vill säga att betrakta sannolikhet som ett mått på en (ändlig eller oändlig) uppsättning "gynnsamma händelser". Detta tillvägagångssätt gör att man kan beskriva och utforska sannolikhetens egenskaper i det välutvecklade språket för mängdteorin [65] .
I dynamisk systemteori har lösningar på differentialekvationer för vissa system visat sig bete sig som stokastiska processer . Denna stora upptäckt ledde till skapandet av konceptet " dynamiskt kaos " och den allmänna "kaosteorin" . Ett exempel är " trekroppsproblemet " av den himmelska mekaniken [66] .
Fram till 1900-talet användes huvudsakligen normal-, binomial- och (ibland) Poisson-fördelningar , men många andra teoretiska lagar visade sig vara praktiskt användbara . Till exempel uppstår lognormalfördelningen ofta i situationer där värdet som studeras är produkten av flera oberoende positiva slumpvariabler [67] .
Probabilistiska metoder har visat sig vara fruktbara inom många områden av teoretisk och tillämpad matematik, även i sådana klassiska sådana som talteori [68] eller logik [69] . I sin tur använder modern sannolikhetsteori metoder och tillvägagångssätt som utvecklats inom funktionsanalys , topologi och andra grenar av matematiken som dök upp på 1900-talet [70] .
Många forskare, från Huygens och Laplace till Quetelet och Galton , var engagerade i tillämpningen av matematiska metoder i statistik, inklusive de speciellt utvecklade för detta ändamål . Matematisk statistik som grund för att fatta tillförlitliga beslut om slumpvariabler uppstod vid 1800- och 1900-talens skiftning tack vare det grundläggande arbetet av Karl Pearson , en elev av Galton. Pearson utvecklade korrelationsteori , goodness -of-fit-tester , regressionsanalys , hypotestestning , beslutsfattande och parameteruppskattningsalgoritmer [ 71] . Algoritmerna som Pearson föreslagit används i stor utsträckning inom fysik, medicin, biologi, sociologi, jordbruk, etc. [72]
Den mest framträdande efterföljaren till Pearsons arbete med tillämpad matematisk statistik under första hälften av 1900-talet var Ronald Aylmer Fisher . Han publicerade arbeten om experimentdesign , utvecklade den maximala sannolikhetsmetoden , statistiskt signifikanstest , variansanalys och lösningen av ett antal andra praktiskt viktiga statistiska problem. Tillsammans med Jerzy Neumann utvecklade han konceptet med ett konfidensintervall (1937). Fisher är författaren till den allmänt accepterade termen " varians av en slumpvariabel " ( engelsk varians ) [73] .
Med början runt 1920-talet utvecklades teorin om statistisk kvalitetskontroll av industriprodukter snabbt. Det första problemet i detta ämne övervägdes av Thomas Simpson 1846. Vid massproduktion är det nödvändigt att bestämma med vilken metod artiklar ska tas ut från ett eller flera partier av produkter för att kontrollera deras kvalitet [74] .
Överflödet av statistiska studier idag, som ofta ger motsatta resultat (till exempel om närvaron eller frånvaron av skada från mobiltelefoner eller genetiskt modifierade produkter ), har gjort problemet med att ge tillförlitliga slutsatser från en statistisk undersökning relevant och ofta diskuterad. Det vanligaste misstaget är tillkännagivandet att det statistiska beroendet ( korrelationen ) av de studerade faktorerna påstås indikera ett orsakssamband mellan dem, även om ofta förhållandet mellan dessa faktorer faktiskt förklaras av deras beroende av en eller flera tredje faktorer [75] . "Statistiskt beroende, hur starkt det än är, kan aldrig etablera ett orsakssamband: våra idéer om orsak måste komma från extern statistik, i slutändan från någon annan teori" [76] .
Begreppet en slumpmässig (eller stokastisk) process , som uppstod i början av 1900-talet, har blivit en av de centrala, snabbt utvecklande och mest användbara tillämpningarna av sannolikhetsteorin. En slumpmässig process är en tidsvarierande slumpvariabel. De första studierna av slumpmässiga processer gällde främst elektronik och kommunikationsteoretiska meddelanden , idag kan man nämna som exempel tidsserier inom ekonomi eller medicin, mekanismteoretiska registergram , livsstatistik över befolkningsbiologi . Teorin om köande har ett brett tillämpningsområde . Bland de typiska problemen med analys av slumpmässiga processer [77] :
En klassificering av typer av slumpmässiga processer har utförts, analytiska verktyg för deras studie har utvecklats ( korrelations- och kovariansfunktioner , spektral nedbrytning) [78] [79] . För analys av processer har sådana nya verktyg utvecklats som stokastiska differentialekvationer , stokastisk integral , spektralanalys och filtreringsverktyg [80] .
Nya tillämpningar av probabilistiska metoder uppstod ständigt under 1900-talet och inom många vetenskaper; Låt oss kort lista några av milstolparna i denna trend.
FysikDet centrala begreppet kvantmekanik , skapat på 1920-talet, är den komplexa vågfunktionen , vars modul, enligt den vanliga Köpenhamnstolkningen , bestämmer sannolikheten för att detektera en mikropartikel vid en given punkt i rymden. Om vi accepterar en sådan tolkning, så är slumpmässigheten i den matematiska modellen av mikrovärlden oavlägsen, och laplacian determinism är fullständigt vederlagd [81] . För mikrokosmos utvecklades speciell Bose-Einstein och Fermi-Dirac kvantstatistik .
BiologiEfter upptäckterna av Mendel och Morgan blev det klart att ärftliga egenskaper överförs till avkomman genom en slumpmässig kombination av en av två egenskaper ( alleler ) från fadern och en av två liknande alleler från modern. Det slumpmässiga valet av faderns allel bestämmer samtidigt könet på den framtida avkomman. Slumpmässiga mutationer är dessutom överlagrade på denna process , så probabilistiska metoder utgjorde grunden för genetiken . De används också i studier och hantering av utvecklingen av biologiska populationer [82] . Probabilistiska tillvägagångssätt (till exempel bayesianska metoder och metoder baserade på principen om maximal sannolikhet ) används avsevärt inom beräkningsfylogenetiken , vilket innebär användning av speciella beräkningsalgoritmer och datorprogram för att konstruera fylogenetiska träd [83] [84] .
Cybernetik och informationsteoriInformationsteori är baserad på begreppet informationsentropi som introducerades av Claude Shannon 1948 [85] . Om en slumpmässig variabel kan ta värden , vars sannolikheter är lika med , bestäms entropin av formeln:
.Entropin som definieras på detta sätt är ett mått på slumpmässighet (eller osäkerhet): den är lika med noll om det inte finns någon slumpmässighet, det vill säga med en sannolikhet på 1 får värdet ett bestämt värde. En ökning av slumpmässighet är associerad med en ökning av entropin [86] .
Automatisk styrteori använde också till en början probabilistiska metoder. Med tillkomsten av datorer har användningen av sådana metoder utökats många gånger om. Med hjälp av en pseudo-slumptalsgenerator är det möjligt att simulera slumpvariabler eller processer med en godtycklig fördelning på en dator, och detta i sin tur låter dig utforska en mängd olika verkliga processer genom datorsimulering ( Monte Carlo-metoden ) [87 ] .
LingvistikUnder andra hälften av 1900-talet tog tillämpningen av metoderna för sannolikhetsteori och matematisk statistik för studier av språkliga fenomen form inom ett viktigt område av matematisk lingvistik . Ett flertal studier baserade på användningen av sådana metoder inkluderade: erhållande av probabilistiska-informationsuppskattningar av språknormen ; analys av distributionen av syntaktisk information inom ordformen , kontextuell villkorlighet och redundans av texter , interaktion av slumpmässiga och deterministiska processer i tal ; utveckling av lämpliga metoder för språkliga experiment; identifiering av statistiska egenskaper hos språkliga variationsserier etc. [88]
När sannolikhetsteorin skapades var grunden för matematiken två klasser av objekt - siffror och geometriska figurer. För sannolikhetsteorin var det nödvändigt att lägga till ett mycket speciellt objekt till denna lista: en slumpmässig händelse , såväl som begrepp som är nära relaterade till den (sannolikhet, slumpmässig variabel, etc.). Den nya vetenskapens originalitet manifesterades också i det faktum att dess uttalanden inte var ovillkorliga, som tidigare accepterats inom matematiken, utan förmodligen sannolikt.
I takt med att sannolikhetsteorin utvecklades fortsatte tvister om huruvida en idealiserad händelse kan betraktas som ett matematiskt begrepp (och då är sannolikhetsteorin en del av matematiken) eller om det är ett faktum som observerats i erfarenhet (och då ska sannolikhetsteorin hänföras till det naturliga vetenskaper). Olika forskare har uttryckt mycket olika åsikter i denna fråga. P. L. Chebyshev ansåg med tillförsikt sannolikhetsteori vara en matematisk disciplin, vars uppgift är att bestämma den okända sannolikheten för händelsen som studeras från de kända sannolikheterna för vissa händelser. Enligt David Hilbert är sannolikhetsteori relaterad till mekanik, det vill säga det är en matematisk "fysisk disciplin" [41] . August de Morgan och hans anhängare W. S. Jevons ansåg det grundläggande begreppet " subjektiv sannolikhet ", det vill säga ett kvantitativt mått på vår förståelse av studieämnet, och kopplade ihop sannolikhetsteorin med logik [89] . Problem relaterade till tvetydig subjektiv sannolikhet har diskuterats upprepade gånger, de är ofta formulerade i form av "probabilistiska paradoxer" (se till exempel " paradoxen med tre fångar " eller " paradoxen med en pojke och en flicka "). En formalisering av subjektiv sannolikhet förenlig med Kolmogorovs föreslogs av Bruno de Finetti (1937) och Leonard Savage (1954).
Till och med Bernoulli gav faktiskt två definitioner av sannolikhet: som en andel av "gynnsamma fall" och som en statistisk frekvens; för att reducera den andra förståelsen till den första behövdes lagen om stora tal . Den österrikiske matematikern och mekanikern Richard von Mises föreslog det motsatta tillvägagångssättet (1914): betrakta frekvensgränsen som definitionen av sannolikhet. Mises tillskrev inte sannolikhetsteorin till matematiken, han ansåg att det var en experimentell vetenskap som studerar observerbara fakta [41] . Mises definition och den axiomatik han presenterade har kritiserats för att vara tomma, eftersom det inte finns några sätt att ta reda på om frekvensen av en given händelse har en gräns [90] . Diskussionen om Mises-konceptet fortsätter ibland till denna dag [91] . Det har förekommit andra försök till rättfärdigande - John Maynard Keynes (1921) och Harold Jeffreys (1939) föreslog att man skulle förstå sannolikheten för ett uttalande som "sannolikhetsgraden" för detta uttalande, detta tillvägagångssätt nämns också då och då i diskussion om frågan [92] .
I början av 1900-talet satte D. Hilberts skola sådana klassiska delar av matematiken som geometri och analys på en strikt axiomatisk grund, och axiomatik dök upp i andra delar av matematiken: mängdlära , matematisk logik , etc. Det fanns en behöver utveckla axiomatik för sannolikhetsteori, eftersom den gamla, semi-intuitiva och informella motiveringen av Bernoulli och Laplace är sedan länge föråldrad. Den första versionen av sådan axiomatik gavs av den sovjetiske matematikern S. N. Bernshtein i sin kurs "Probability Theory" (1927). Varianten av A. N. Kolmogorov , publicerad 1929-1933 och baserad på idéerna om måttteorin , blev allmänt erkänd inom vetenskapen [93] . Under andra hälften av 1900-talet undersökte Alfred Renyi och A. N. Kolmogorov möjligheten att motivera sannolikhetsteorin utifrån informationsteorin [94] . Nuförtiden "finns det en klar förståelse för att sannolikhetsteorin är en verkligt matematisk vetenskap, som samtidigt har de närmaste och mest direkta kopplingarna till ett brett spektrum av naturvetenskaper, såväl som med tekniska och socioekonomiska discipliner" [95] .
Trots effektiviteten hos probabilistiska metoder som bevisats av praktiken, är slumpmässighetens roll i naturen, orsaken till och gränserna för statistisk stabilitet fortfarande föremål för diskussion [96] . "Under de 200 år som har gått sedan Laplace och Gauss tid har vetenskapen inte gjort framsteg i den grundläggande frågan - när uppstår statistisk stabilitet" [97] .
Matematikens historia | |
---|---|
Länder och epoker | |
Tematiska avsnitt | |
se även |