Inom informationsteorin sätter Shannons krypteringskällsats (eller tyst krypteringssats) en gräns för maximal datakomprimering och ett numeriskt värde för Shannons entropi .
Satsen visar att (när mängden data tenderar till oändlighet i en ström av oberoende och jämnt fördelade (IED) slumpvariabler) är det omöjligt att komprimera data så att koduppskattningen (genomsnittligt antal bitar per symbol) är mindre än Shannon-entropin av originaldata, utan förlust av informationsnoggrannhet. Det är dock möjligt att få en kod nära Shannon-entropin utan betydande förlust.
Krypteringskällsatsen för teckenkoder bringar övre och nedre gränser till minsta möjliga längd av krypterade ord som en funktion av entropin för inmatningsordet (som representeras som en slumpmässig variabel) och storleken på det önskade alfabetet.
Källkoden är en mappning (sekvens) från informationslagret till en sekvens av alfabetiska tecken (vanligtvis bitar) så att källtecknet kan erhållas unikt från binära siffror (förlustfri kodningskälla) eller erhållas med någon skillnad (förlustkodningskälla) . Detta är tanken bakom datakomprimering.
Inom datavetenskap säger krypteringskällsatsen (Shannon 1948) att:
En N slumpvariabel med entropi H ( X ) kan komprimeras till mer än N H ( X ) bitar med försumbar risk för dataförlust om N går till oändlighet, men om komprimeringen är mindre än N H ( X ) bitar, då data som mest sannolikt går förlorade. (MacKay 2003)."Låt , beteckna två finita alfabet, och låt och beteckna mängden av alla finita ord från dessa alfabet (ordnade).
Antag att X är en slumpmässig variabel som tar ett värde från , och f är en dechiffrerbar kod från till , där . Låt S representera en slumpvariabel som ges av ordlängden f ( X ).
Om f är optimal i den meningen att den har den minsta ordlängden för X , då
(Shannon 1948).
Givet att det är ett NOR, är dess tidsserie X 1 , …, Xn också ett NOR med entropi H ( X ) i fallet med diskreta värden och med differentiell entropi i fallet med kontinuerliga värden. Krypteringskällsatsen säger att det för varje uppskattning som är större än resursens entropi finns ett tillräckligt stort n och en kryptering som tar n NOP-kopior av resursen , , , och mappar den till binära bitar på ett sådant sätt att det ursprungliga tecknet kan återställas från binära bitar, X med en sannolikhet på minst .
Bevis
Låt oss ta några . formeln för, , ser ut så här:
AEP visar att för tillräckligt stort n är sekvensen som genereras från källan opålitlig i det typiska fallet - , konvergent. I fallet för tillräckligt stor: n , (se AEP)
Definitionen av typiska uppsättningar innebär att de sekvenser som ligger i en typisk uppsättning uppfyller:
Anteckna det:
mer än
Att börja med bitar är tillräckligt för att särskilja vilken sträng som helst
Krypteringsalgoritm: kodaren kontrollerar om den inkommande sekvensen är falsk, om ja, returnerar sedan indexet för den inkommande frekvensen i sekvensen, om inte, returnerar sedan ett slumpmässigt nummer. numeriskt värde. Om ingångssannolikheten är felaktig i sekvensen (med en frekvens på ca ), så genererar kodaren inget fel. Det vill säga sannolikheten för fel är högre än
Bevis på reversibilitet Beviset för reversibilitet är baserat på det faktum att det krävs att visa att för varje sekvens av storlek som är mindre än (i betydelsen av exponenten) kommer att täcka frekvensen av sekvensen avgränsad av 1.
Låt ordet längd för varje möjlig ( ). Låt oss definiera , där C väljs på ett sådant sätt att: .
Sedan
där den andra linjen är Gibbs ojämlikhet och den femte linjen är Kraft ojämlikheten , .
för den andra ojämlikheten vi kan sätta
så
och då
och
Sålunda uppfyller minimum S