Ömsesidig information är en statistisk funktion av två slumpvariabler som beskriver mängden information som finns i en slumpvariabel i förhållande till den andra.
Ömsesidig information definieras genom entropin och villkorlig entropi av två slumpvariabler som
I synnerhet för oberoende slumpvariabler är den ömsesidiga informationen noll:
I fallet när en slumpvariabel (till exempel ) är en deterministisk funktion av en annan slumpvariabel ( ), är den ömsesidiga informationen lika med entropin:
Villkorlig ömsesidig information är en statistisk funktion av tre slumpvariabler som beskriver mängden information som finns i en slumpvariabel i förhållande till en annan, givet värdet av den tredje:
Relativ ömsesidig information är en statistisk funktion av tre slumpvariabler som beskriver mängden information som finns i en slumpvariabel i förhållande till en annan, förutsatt att den tredje slumpvariabeln ges:
Den ömsesidiga informationen för tre slumpvariabler bestäms också :
Ömsesidig information om tre slumpvariabler kan vara negativ. Överväg en enhetlig fördelning på trippel av bitar så att . Låt oss definiera slumpvariabler som värden av respektive bitar. Sedan
men samtidigt
och därför .
_ | Kompressionsmetoder|||||||
---|---|---|---|---|---|---|---|
Teori |
| ||||||
Förlust mindre |
| ||||||
Audio |
| ||||||
Bilder |
| ||||||
Video |
|