Mängden information i informationsteorin är mängden information i ett slumpmässigt objekt i förhållande till ett annat.
Låta och vara slumpvariabler definierade på motsvarande uppsättningar och . Då är mängden information relativt till skillnaden mellan a priori och a posteriori entropier:
,var
är entropin och
- villkorlig entropi, i teorin om informationsöverföring, den karakteriserar bruset i kanalen.
Entropi har följande egenskaper:
,var är antalet element i uppsättningen .
, om ett av elementen i mängden realiseras med sannolikhet 1, och resten, respektive 0, på grund av det faktum att och .
Det maximala entropivärdet uppnås när alla , dvs. alla utfall är lika sannolika.
Villkorlig entropi har följande egenskaper:
,I det här fallet , om mappningen är envärdig, dvs. .
Det maximala värdet för den villkorliga entropin uppnås när och är oberoende slumpvariabler.
För mängden information är egenskaperna sanna:
som en konsekvens av Bayes sats . om och är oberoende slumpvariabler.Den sista egenskapen visar att mängden information är lika med informationsentropin om informationsförlustkomponenten (brus) är noll.