Ömsesidig information

Den aktuella versionen av sidan har ännu inte granskats av erfarna bidragsgivare och kan skilja sig väsentligt från versionen som granskades den 20 oktober 2016; kontroller kräver 5 redigeringar .

Ömsesidig information  är en statistisk funktion av två slumpvariabler som beskriver mängden information som finns i en slumpvariabel i förhållande till den andra.

Ömsesidig information definieras genom entropin och villkorlig entropi av två slumpvariabler som

Ömsesidig informationsegenskaper

I synnerhet för oberoende slumpvariabler är den ömsesidiga informationen noll:

I fallet när en slumpvariabel (till exempel ) är en deterministisk funktion av en annan slumpvariabel ( ), är den ömsesidiga informationen lika med entropin:

Villkorlig och relativ ömsesidig information

Villkorlig ömsesidig information  är en statistisk funktion av tre slumpvariabler som beskriver mängden information som finns i en slumpvariabel i förhållande till en annan, givet värdet av den tredje:

Relativ ömsesidig information  är en statistisk funktion av tre slumpvariabler som beskriver mängden information som finns i en slumpvariabel i förhållande till en annan, förutsatt att den tredje slumpvariabeln ges:

Egenskaper

Ömsesidig information om tre slumpvariabler

Den ömsesidiga informationen för tre slumpvariabler bestäms också :

Ömsesidig information om tre slumpvariabler kan vara negativ. Överväg en enhetlig fördelning på trippel av bitar så att . Låt oss definiera slumpvariabler som värden av respektive bitar. Sedan

men samtidigt

och därför .

Litteratur