Shannon-Hartley-satsen i informationsteori är en tillämpning av den brusiga kanalkodningssatsen på det arketypiska fallet med en kontinuerlig tidsmässig analog kommunikationskanal förvrängd av Gaussiskt brus . Teoremet fastställer Shannon-kanalens kapacitet, en övre gräns för den maximala mängden felfri digital data (dvs information ) som kan överföras över en sådan kommunikationslänk med en specificerad bandbredd i närvaro av brusstörningar, under antagandet att Signaleffekten är begränsad och Gaussiskt brus kännetecknas av en känd effekt eller spektral effekttäthet . Lagen är uppkallad efter Claude Shannon och Ralph Hartley .
Med tanke på alla möjliga flernivå- och flerfaskodningsmetoder, säger Shannon-Hartley-satsen att kanalkapaciteten , vilket innebär den teoretiska övre gränsen för datahastigheten som kan överföras med en given genomsnittlig signaleffekt genom en analog kommunikationskanal. till additiv vit gaussisk effektbrus, är
var
— kanalkapacitet, bit /s; — kanalbandbredd, Hz ; — Total signaleffekt över bandbredden, W eller V ²; är den skenbara bruseffekten över passbandet, W eller V² ; är signal-brusförhållandet (SNR) .Under slutet av 1920-talet utvecklade Harry Nyquist och Ralph Hartley grundläggande idéer relaterade till överföring av information med hjälp av telegrafen som ett kommunikationssystem. På den tiden var det ett genombrott, men vetenskapen som sådan fanns inte. På 1940-talet introducerade Claude Shannon begreppet kanalkapacitet , som baserades på idéerna från Nyquist och Hartley, och formulerade sedan en komplett teori om informationsöverföring.
1927 slog Nyquist fast att antalet oberoende impulser per tidsenhet som kan sändas genom en telegrafkanal är begränsat till två gånger den maximala kanalsändningsfrekvensen (denna frekvens motsvarar en omväxlande sekvens av nollor och ettor, andra signalkombinationer motsvarar t.ex. lägre frekvenser):
var är pulsfrekvensen (imp/s) och är bandbredden (Hz).
Shannons satser för en brusig kanal (Shannons satser för överföring över en kanal med brus) relaterar kapaciteten hos en informationsöverföringskanal och förekomsten av en kod som kan användas för att överföra information över en kanal med ett fel som tenderar mot noll (som blocklängden ökar).
Om meddelandeöverföringshastigheten är mindre än kommunikationskanalens bandbredd
sedan finns det koder och avkodningsmetoder så att de genomsnittliga och maximala avkodningsfelsannolikheterna tenderar till noll eftersom blocklängden tenderar till oändlighet.
Om
då finns det ingen kod på basis av vilken det är möjligt att uppnå en godtyckligt liten felsannolikhet.
I detta teorem fastställs att den maximala hastigheten (bps) kan uppnås genom att öka bandbredden och signaleffekten och samtidigt minska brus.
Shannon-Hartley-satsen begränsar informationshastigheten (bps) för en given bandbredd och signal-brusförhållande. För att öka hastigheten är det nödvändigt att öka den användbara signalnivån i förhållande till brusnivån.
Om det fanns en ljudlös analog kanal med oändlig bandbredd skulle det vara möjligt att överföra en obegränsad mängd felfria data per tidsenhet. Riktiga kanaler har frekvensgränser och det finns alltid brus i dem.
Överraskande nog är det inte bara bandbreddsbegränsningar som påverkar mängden information som överförs. Om vi kombinerar brus- och bandbreddsbegränsningar ser vi verkligen att det finns en gräns för mängden information som kan överföras, även med skiktade kodningsmetoder. I kanalen som betraktas av Shannon-Hartley-satsen kompletterar brus och signal varandra. Således uppfattar mottagaren en signal som är lika med summan av signalerna som kodar den önskade informationen och en kontinuerlig slumpmässig signal som representerar bruset.
Detta tillägg skapar osäkerhet om värdet av den ursprungliga signalen. Om mottagaren har information om sannolikheten för en oönskad signal som skapar brus, är det möjligt att återställa informationen i sin ursprungliga form, med hänsyn till alla möjliga influenser av brusprocessen. När det gäller Shannon-Hartley-satsen produceras bruset som sådant av en Gauss-process med vissa avvikelser i transmissionskanalen. En sådan kanal kallas en kumulativ vit Gaussisk bruskanal eftersom det Gaussiska bruset är en del av den användbara signalen. "Vit" innebär en lika stor mängd brus vid alla frekvenser inom kanalens bandbredd. Sådant brus kan uppstå när det utsätts för slumpmässiga energikällor, och även vara associerat med fel som uppstod under kodningen. Kunskap om sannolikheten för förekomst av Gaussiskt brus förenklar avsevärt bestämningen av den användbara signalen.
Genom att jämföra kanalkapaciteten och Hartleys formel kan vi hitta det effektiva antalet urskiljbara nivåer:
Att ta kvadratroten returnerar i huvudsak förhållandet mellan effekter och förhållandet mellan spänningar, så antalet nivåer är ungefär lika med förhållandet mellan RMS-signalamplituden och brusstandardavvikelsen. Denna likhet i form mellan Shannons bandbredd och Hartleys formel ska inte tas bokstavligt, att signalnivåerna är tillräckliga för felfri överföring. Överkodning för att eliminera fel kommer att kräva fler lager, men den maximala bithastigheten som kan nås med kodning motsvarar att använda samma från Hartleys formel.