I sannolikhetsteorin ger mätningar av koncentrationsojämlikheter uppskattningar av avvikelsen för en slumpvariabel från något värde (vanligtvis från dess matematiska förväntningar ). Lagen om stora antal av klassisk sannolikhetsteori säger att summan av oberoende slumpvariabler, under förutsättning av ganska svaga förhållanden, med hög sannolikhet visar sig ligga nära deras matematiska förväntningar. Sådana summor är utmärkta exempel på slumpvariabler som är koncentrerade kring deras medelvärden .
Låt en slumpmässig variabel, nästan säkert icke-negativ. Sedan, för vilken konstant som helst
.Notera följande uttryck för Markovs ojämlikhet: om är en icke-negativ strikt ökande funktion, då
.Chebyshev-ojämlikheten kräver att den slumpmässiga variabeln uppfyller följande villkor:
Sedan för någon konstant
,eller på motsvarande sätt
,var är standardavvikelsen för den slumpmässiga variabeln .
Chebyshev-ojämlikheten kan betraktas som ett specialfall av den generaliserade Markov-olikheten som tillämpas på den slumpmässiga variabeln c .
Huvudfallet med Chernov-gränsen [1] :63–65 kräver att det finns en genererande funktion definierad som . Baserat på Markov ojämlikhet, för varje
,och för varje
.Chernoff-gränserna är olika för olika distributioner och olika värden på parametern .
Låta vara oberoende slumpvariabler så att för alla i:
nästan troligen .Låt - deras summa, - matematisk förväntan och - varians
, , .Det är ofta av intresse att uppskatta skillnaden mellan summan och dess matematiska förväntan. Flera ojämlikheter kan användas.
1. Hoefdings ojämlikhet säger att
.2. En slumpvariabel är ett specialfall av martingal , och . Därför kan man använda Azumas ojämlikhet , vilket ger en något svagare uppskattning
.Här blir det möjligt att överväga vilken martingal som helst , inklusive supermartingaler och submartingales .
3. Summeringsfunktionen är ett specialfall av en funktion av variabler. Denna funktion ändras på ett begränsat sätt: om variabeln ändras ändras värdet också med högst . Därför kan man använda McDiarmids inequality , och det kommer att ge en liknande uppskattning
.Detta är ytterligare en generalisering av Hoefdings ojämlikhet, eftersom det här är möjligt att arbeta inte bara med summeringsfunktionen, utan även med andra funktioner om de förändras på ett begränsat sätt.
4. Bennetts ojämlikhet ger en viss förbättring jämfört med Höfdings ojämlikhet när termernas varianser är små jämfört med deras "nästan troligen-gränser" C .
var5. Den första av Bernsteins ojämlikheter säger att
.Liksom Höfdings ojämlikhet, för vilken denna uppskattning är en generalisering, tar Bernsteins första olikhet nästan säkert hänsyn till avgränsade slumpvariabler. Dessutom tillåter det en att få en mer exakt uppskattning, förutsatt att de slumpmässiga variablerna har begränsade varianser.
6. Chernoff-gränserna har en särskilt enkel form för summan av oberoende storheter, eftersom
].Till exempel, [2] låt de slumpmässiga variablerna tillfredsställa olikheten för , då för den nedre svansen har vi olikheten
.Om tillfredsställer ojämlikheten , så har vi ojämlikheten för den övre svansen
.Om är oberoende och jämnt fördelade, och är variansen av , då är den typiska formen av Chernoff-ojämlikheten följande:
.7. Liknande gränser finns i avsnittet: Rademacher-fördelning (gränser för summor)
Efron-Stein-olikheten (inflytandeolikhet eller MG-variansskattare) uppskattar variansen för en allmän funktion av slumpvariabler.
Låt , vara oberoende, a och ha samma fördelning för alla .
Lägg sedan
.Dvoretsky-Kiefer-Wolfowitz ojämlikhet uppskattar skillnaden mellan de faktiska och empiriska fördelningsfunktionerna .
Låt för ett givet naturligt tal vara oberoende och identiskt fördelade reella slumpvariabler med fördelningsfunktionen . Låt beteckna motsvarande empiriska fördelningsfunktion , definierad av formeln
Således är sannolikheten för en händelse att en enda slumpmässig variabel är mindre än , och är det genomsnittliga antalet värden från urvalet , vars realiseringar är mindre än .
Då är följande ensidiga och tvåsidiga uppskattningar sanna: