Informationsmängd

Den aktuella versionen av sidan har ännu inte granskats av erfarna bidragsgivare och kan skilja sig väsentligt från versionen som granskades den 8 oktober 2016; kontroller kräver 3 redigeringar .

Mängden information i informationsteorin är mängden information i ett slumpmässigt objekt i förhållande till ett annat.

Låta och vara slumpvariabler definierade på motsvarande uppsättningar och . Då är mängden information relativt till skillnaden mellan a priori och a posteriori entropier:

,

var

är entropin och

- villkorlig entropi, i teorin om informationsöverföring, den karakteriserar bruset i kanalen.

Entropiegenskaper

Entropi har följande egenskaper:

,

var är antalet element i uppsättningen .

, om ett av elementen i mängden realiseras med sannolikhet 1, och resten, respektive 0, på grund av det faktum att och .

Det maximala entropivärdet uppnås när alla , dvs. alla utfall är lika sannolika.

Villkorlig entropi har följande egenskaper:

,

I det här fallet , om mappningen är envärdig, dvs. .

Det maximala värdet för den villkorliga entropin uppnås när och är oberoende slumpvariabler.

Egenskaper för informationskvantitet

För mängden information är egenskaperna sanna:

som en konsekvens av Bayes sats . om och är oberoende slumpvariabler.

Den sista egenskapen visar att mängden information är lika med informationsentropin om informationsförlustkomponenten (brus) är noll.

Litteratur