Tidslinje för utvecklingen av informationsteori
Tidslinje för händelser relaterade till informationsteori , datakomprimering , felkorrigeringskoder och relaterade discipliner:
- 1924 - Harry Nyquist talar om kvantifieringen av "Intelligence" och den hastighet med vilken den kan förmedlas av ett kommunikationssystem.
- 1927 - John von Neumann definierar von Neumann-entropin , och utökar Gibbs-entropin i kvantmekaniken.
- 1928 – Ralph Hartley introducerar Hartleys formel som logaritmen av antalet möjliga meddelanden, med informationen som förmedlas när mottagaren (mottagaren, mottagaren) kan skilja en sekvens av tecken från alla andra (oavsett vilket värde som helst).
- 1951 - David Huffman uppfinner Huffman- kodning , en metod för att hitta optimala prefixkoder för förlustfri datakomprimering.
- 1953 - Sardinas-Patterson algoritm publicerad .
- 1966 - David Fornays tidning Sammanfogad felkorrigeringskod publicerades .
- 1972 - En artikel om Justesen code publicerades .
- 1973 - David Slepian och Jack Wolf upptäcker och bevisar Slepian-Wolf Code som kodar gränserna för en distribuerad kodningskälla .
- 1993 - Claude Burrow , Alain Glaviux och Punya Thitimajshima introducerar begreppet turbokoder .
- 1995 - Benjamin Schumacher myntade termen Qubit .
- 1998 Fountain code föreslagen .
Inhemska forskares bidrag till informationsteori
- 1947 - V. A. Kotelnikov skapade teorin om potentiell brusimmunitet. Teorin om potentiell brusimmunitet gjorde det möjligt att syntetisera optimala enheter för att bearbeta alla signaler i närvaro av brus. Den hade två sektioner - teorin om att ta emot diskreta och analoga signaler.
- 1950 - När man jämför specifika koder med optimala, används resultaten av R. R. Varshamov i stor utsträckning . Intressanta nya gränser för möjligheterna till felkorrigering fastställdes av V. I. Levenshtein och V. M. Sidelnikov.
- 1956 - Matematiskt arbete behövdes, vilket lade den matematiska grunden för informationsteorin. Problemet löstes av den välkända rapporten från A. N. Kolmogorov vid sessionen för vetenskapsakademin i Sovjetunionen ägnade åt automatisering av produktionen. De första banbrytande verken av A. Ya. Khinchin ägnades åt att bevisa de grundläggande satserna för informationsteorin för det diskreta fallet.
- 1957 - när A. N. Kolmogorov studerade det berömda Hilbert-problemet om superpositioner, visade han inte bara möjligheten att representera vilken kontinuerlig funktion som helst som en superposition av kontinuerliga funktioner av tre variabler, utan skapade också en metod som gjorde det möjligt för hans elev V. I. Arnold att minska antalet variabler till två och därigenom lösa det nämnda problemet.
- 1958 - A. N. Kolmogorov . En ny metrisk invariant av transitiva dynamiska system och automorfismer av Lebesgue- rum DAN SSSR. Mycket viktiga och fruktbara möjligheter att tillämpa begreppet entropi på problemet med isomorfism av dynamiska system.
- 1958 - Rapport av I. M. Gelfand , A. N. Kolmogorov , A. M. Yaglom "Mängden information och entropi för kontinuerliga distributioner." - I boken: Tr. III All-Union Math. kongressen. M.: Publishing House of the Academy of Sciences of the USSR.
Vi noterar också arbetet av den kinesiske vetenskapsmannen Hu Guo Ding , som var på prov vid den tiden vid Moskvas universitet.
- 1961 - Hu Guo Ding . Tre omvända satser till Shannons sats i informationsteori.
- 1962 - Hu Guo Ding . Om informationsstabiliteten för en sekvens av kanaler. Sannolikhetsteori och dess tillämpningar.
- 1965 - det första numret av tidskriften "Problems of Information Transmission", skapad på initiativ av A. A. Kharkevich , publicerades .
- 1966 - Stratonovich R. L. , Grishanin B. A. "Värdet av information när det är omöjligt att direkt observera den uppskattade slumpvariabeln."
- 1968 - Stratonovich R. L., Grishanin B. A. "Spelproblem med informationstypbegränsningar."
- 1972 — Solev V. N. I genomsnitt per tidsenhet mängd information som finns i en Gaussisk stationär process i förhållande till en annan.