Video (från lat. video - jag tittar, jag ser) - en elektronisk teknik för bildande, inspelning, bearbetning, överföring, lagring och uppspelning av en rörlig bild, baserad på principerna för tv , samt ett audiovisuellt verk inspelat på ett fysiskt medium (videokassett, videoskiva, etc. .).
Videoinspelning är en elektronisk teknik för att spela in visuell information, presenterad i form av en videosignal eller en digital videodataström , på ett fysiskt medium för att spara denna information och för att kunna reproducera den och visa den på skärmen. Resultatet av en videoinspelning är ett videogram eller videofonogram [1] .
Antalet (frekvensen) bildrutor per sekund är antalet stillbilder som ändrar varandra under visningen av 1 sekunds video och skapar effekten av objekts rörelse på skärmen. Ju högre bildfrekvens, desto mjukare och mer naturlig kommer rörelsen att visas. Minsta hastighet med vilken rörelsen kommer att uppfattas som homogen är cirka 16 bilder per sekund (detta värde är individuellt för varje person). Inom ljudfilm har filmnings- och projektionsfrekvensen standardiserats sedan 1932 till 24 bilder per sekund [2] . PAL- och SÉCAM -tv-systemen använder 25 bilder per sekund (25 fps eller 25 Hz ), medan NTSC-systemet använder 30 bilder per sekund (29,97 fps för att vara exakt på grund av behovet av att matcha underbärvågsfrekvensen flera gånger). Datorvideo av bra kvalitet använder vanligtvis 30 bilder per sekund. Den övre tröskelflimmerfrekvensen som uppfattas av den mänskliga hjärnan är i genomsnitt 39-42 Hz och är individuell för varje person och beror även på observationsförhållandena [3] . Vissa moderna professionella videokameror kan filma med upp till 120 bilder per sekund. Specialkameror fotograferar med en frekvens på upp till 1000 bilder per sekund, vilket är nödvändigt, till exempel för en detaljerad studie av en kulas bana eller strukturen hos en explosion. Ultrasnabba filmkameror kan ta flera miljoner bilder per sekund. I dem är filmen orörlig och ligger på den inre ytan av en speciell trumma, och bilden viks ut av ett roterande prisma. Det finns också en ramlös video, vars princip är följande: ljuskänsliga sensorer överför data om deras tillstånd med hög frekvens, som samtidigt spelas in på media. I det här fallet finns det inga separata ramar - bara uppsättningar av information från var och en av sensorerna ( pixlar ) om deras förändring i tid. Under uppspelning finns det heller inga ramar - på skärmen ändrar pixlarna sin färg i enlighet med de inspelade arrayerna. Om pixeln inte ändrade färg uppdateras den inte. För bästa visning av sådan video krävs en speciell bildskärm.
Nedbrytningsstandarden definierar parametrarna för TV-skanningen som används för att omvandla en tvådimensionell bild till en endimensionell videosignal eller dataström. I slutändan beror antalet bildelement och bildhastighet på nedbrytningsstandarden.
Skanning kan vara progressiv (interlaced) eller interlaced . Vid progressiv skanning visas alla horisontella linjer (linjer) i en bild en efter en i tur och ordning. Med sammanflätning är varje ram uppdelad i två fält (halvramar), som var och en innehåller jämna eller udda linjer. Under en bild sänds två fält, vilket ökar flimmerfrekvensen för kineskopet över den fysiologiska tröskeln för synlighet. Interlacing var en kompromiss för att kunna överföra en bild med tillräckligt hög upplösning över en begränsad bandbreddskanal [4] . På liknande sätt använder filmprojektorer en tvåbladig obturator som höjer flimmerhastigheten på skärmen från 24 Hz till 48 Hz.
Trots sina brister har interlacing använts till denna dag i standardupplösnings-tv på grund av att det finns tv-apparater som endast stöder sådana standarder. Sådana brister är som regel uppdelningen av de vertikala gränserna för horisontellt rörliga föremål (effekten "kam" eller "kam") och synligheten av flimmer på fina texturer.
Interlacing kallas ofta på engelska sättet interlacing ( engelsk interlace ) eller interlacing . TV-apparater med kinescope, som har en skanning på 100 Hz, flimrar med en frekvens som inte uppfattas av ögat. I sådana mottagare visas den sammanflätade bilden med ramfördubbling. LCD- och LED- skärmar ( TV- apparater ) är i allmänhet fria från flimmer. I sådana enheter kan vi bara prata om bilduppdateringshastigheten, så interlacing i dem är bara ett mått på konvention som inte påverkar displayen. För att undertrycka de obehagliga effekterna som uppstår när man tittar på sammanflätad video på en progressiv skanningsskärm, används speciella matematiska metoder som kallas deinterlacing .
Nya digitala tv-standarder, som HDTV , möjliggör progressiv skanning. Den senaste tekniken gör att du kan simulera progressiv scan när du visar sammanflätad video. Den senare betecknas vanligtvis med ett "i" efter den vertikala upplösningen, såsom 720x576x50. Progressiv skanning betecknas med symbolen "p", till exempel 720p (betyder video med en upplösning på 1280 × 720 progressiv avsökning). Dessutom, för att särskilja bildhastigheten eller fälten, kan bildhastigheten indikeras med samma symboler, till exempel 24p , 50i, 50p.
Före tillkomsten av den digitala videoeran mättes den horisontella upplösningen av ett analogt videoinspelningssystem i tv-vertikala linjer (TVL) med hjälp av speciella tv-testdiagram och betecknade antalet element per linje i en videobild, beroende på frekvensen inspelningsenhetens egenskaper. Den vertikala upplösningen i bilden är fastställd i sönderdelningsstandarden och bestäms av antalet linjer.
Förhållandet mellan bildens bredd och höjd ( engelsk bildförhållande ) är den viktigaste parametern för alla videoinspelningar. Sedan slutet av 1800-talet har stumfilmer och därefter filmer av det "klassiska" formatet haft ett bildförhållande på 4:3 (4 enheter breda och 3 enheter höga; på bio skrivs det som 1,33:1 ). Man trodde att en skärm med ett sådant bildförhållande låg nära synfältet för det mänskliga ögat. TV, som dök upp strax efter, antog detta förhållande, och nästan alla analoga tv-system (och därmed tv-apparater ) hade ett bildförhållande på 4:3. De första datorskärmarna ärvde också standarden för TV-bildförhållande. Men på bio redan i början av 1950-talet, med tillkomsten av panorama- , bredbilds- och bredbildsfilm , skakades idén om den ideala skärmen. Bredbildsbiosystem har haft bildförhållanden upp till 2,75:1, som syftar till maximal "närvaro" för att göra ramkanterna mindre synliga. Det främsta skälet är att det mänskliga synfältet närmar sig ett förhållande på 2:1. För att föra ramens form närmare det naturliga synfältet (och därför förbättra uppfattningen av filmen) utvecklades biosystem med en panoramaram. Att visa bredbildsfilmer på tv krävde antingen pan-scanning av bilden eller lägga till tomma marginaler upptill och nedtill för att passa in filmen på skärmen med letterboxing . Båda metoderna resulterade i förlust av delar av bilden eller dess kvalitet. Hittills har det klassiska 1.33:1-formatet inte använts på bio alls, eftersom det helt har gett vika för den cachade 1.85:1 -bilden. När man valde bildförhållandet för HDTV -skärmen godkändes därför standarden 16:9 (1,78:1), vilket är närmare vanliga filmformat. Digital-tv i standardupplösning fokuserar i allmänhet också på bildförhållandet 16:9, med hjälp av digital anamorfism . Allt detta, som utformats av skaparna, är utformat för att fördjupa tittaren djupare i atmosfären av videon som tittas på. Det finns också alternativa förklaringar till övergången till ett brett format: möjligheten till visning i salar som ursprungligen inte var bioanpassade, önskan att försämra kvaliteten på piratkopierade videokopior och tv-kopior.
Färgvideosignaler kan överföras och spelas in på två olika sätt: utan separation av färg- och monokroma komponenter och separat. Historiskt sett var den första som dök upp kompositvideo, kallad Full Color TV Signal , som innehåller en svartvit videosignal, en färgunderbärare och synkroniseringssignaler. Emellertid är denna metod för lagring och överföring förknippad med den oundvikliga ackumuleringen av överhörning mellan luminans- och krominanssignalerna, därför sänds och spelas dessa videokomponenter in separat i de mest avancerade enheterna.
Den största skillnaden från analog videoinspelning är att digital data spelas in istället för analog video . Digital video kan distribueras på olika videomedia, via digitala videogränssnitt i form av en dataström eller filer .
Varje digital videosignal, i analogi med upplösningen på datorskärmar , kännetecknas också av upplösning ( engelsk upplösning ), horisontell och vertikal, mätt i pixlar . Vid digitalisering av analog video med standardupplösning är upplösningen 720x576 pixlar för europeisk 625/50- upplösning ( PAL och SÉCAM ), med en bildhastighet på 50 Hz (två fält, 2x25); och 720x480 pixlar för US 525/60 ( NTSC ) upplösning, vid 59,94 Hz (två fält, 2x29,97). I uttrycket 720×480 är den första siffran antalet punkter per linje (horisontell upplösning), och den andra siffran är antalet aktiva linjer som är involverade i bildkonstruktionen (vertikal upplösning). Den nya HDTV -standarden för digital TV med hög upplösning antar upplösningar på upp till 1920 × 1080 vid en uppdateringsfrekvens på 50 Hz (60 Hz för USA) med progressiv skanning. Det är 1080 linjer med 1920 pixlar per rad. För standardupplösnings-tv är den digitala upplösningen inte densamma som sönderdelningsstandardbeteckningen, eftersom den inte tar hänsyn till den redundanta informationen som sänds endast i analog tv.
Upplösning i fallet med tredimensionell video mäts i voxels - bildelement som representerar punkter (kuber) i tredimensionellt utrymme. Till exempel, för enkel 3D-video, används nu huvudsakligen upplösningen 512×512×512, demoexempel på sådan video finns idag även på handdatorer .
Antalet färger och färgupplösningen för en videoinspelning beskrivs av färgmodeller . För PAL -standarden används YUV -färgmodellen , för SÉCAM YDbDr- modellen , för NTSC YIQ- modellen , inom datorteknik används den främst RGB (och αRGB ), mer sällan HSV , och i tryckteknik - CMYK . Antalet färger som en monitor eller projektor kan visa beror på kvaliteten på monitorn eller projektorn. Det mänskliga ögat kan uppfatta, enligt olika uppskattningar, från 5 till 10 miljoner nyanser av färger. Antalet färger i en videoinspelning bestäms av antalet bitar som allokerats för att koda färgen på varje pixel ( engelska bitar per pixel, bpp ). 1 bit låter dig koda 2 färger (vanligtvis svart och vitt), 2 bitar - 4 färger, 3 bitar - 8 färger, ..., 8 bitar - 256 färger (2 8 \u003d 256), 16 bitar - 65 536 färger ( 2 16 ), 24 16 777 216 färger ( 224 ). Datorteknik har en standard och 32 bitar per pixel ( αRGB ), men denna extra α- byte (8 bitar) används för att koda pixelns transparenskoefficient (α), inte för att representera färgen (RGB). När pixeln bearbetas av videoadaptern kommer RGB-värdet att ändras beroende på värdet på α-byte och färgen på den underliggande pixeln (som blir "synlig" genom den "transparenta" pixeln), och sedan α-byte kommer att kasseras, och endast RGB-färgsignalen kommer att gå till monitorn.
Bredd (annars säger de hastighet ) videoström eller bithastighet ( eng. bithastighet ) är antalet bearbetade bitar av videoinformation per sekund (mätt med " bit/s " - bitar per sekund eller, oftare, " Mbps " - megabits per sekund, på engelska bit/s respektive Mbit/s). Ju bredare videoströmmen är, desto bättre är kvaliteten på videon som regel. Till exempel, för VideoCD- formatet är videoströmmens bredd bara cirka 1 Mbps och för DVD cirka 5 Mbps. Naturligtvis subjektivt kan skillnaden i kvalitet inte bedömas som femfaldig, men objektivt sett är den det. Och HDTV digitala tv- format använder en videoströmsbredd på cirka 10 Mbps. Hastigheten på videoströmmen gör det också mycket bekvämt att utvärdera kvaliteten på videon när den sänds över Internet .
Det finns två typer av strömbreddskontroll i en videocodec - konstant bithastighet ( eng. konstant bithastighet, CBR ) och variabel bithastighet ( eng. variabel bithastighet, VBR ). VBR-konceptet, som nu är mycket populärt, är utformat för att bevara videokvaliteten så mycket som möjligt, samtidigt som det minskar den totala volymen av den överförda videoströmmen. Samtidigt ökar bredden på videoströmmen på scener med snabb rörelse, och på långsamma scener, där bilden ändras långsamt, minskar bredden på strömmen. Detta är mycket användbart för buffrade videosändningar och överföring av lagrad video över datornätverk . Men för buffertlösa realtidssystem och för livesändningar (till exempel för telekonferenser ) är detta inte lämpligt - i sådana fall är det nödvändigt att använda en konstant videoströmningshastighet.
Videokvalitet mäts med hjälp av formella mätvärden som PSNR eller SSIM , eller genom att använda subjektiv jämförelse med andra.
Subjektiv videokvalitet mäts med följande metod:
Flera subjektiva bedömningsmetoder beskrivs i ITU-T BT.500 rekommendationer. En av de mycket använda utvärderingsmetoderna är DSIS ( Double Stimulus Impairment Scale ), där experter först visas det ursprungliga videomaterialet och sedan det bearbetade materialet . Experterna utvärderar sedan kvaliteten på bearbetningen, allt från "bearbetning är omärklig" och "bearbetning förbättrar videobilden" till "bearbetad video är mycket irriterande."
Stereoskopisk video eller helt enkelt stereovideo ( eng. stereoskopisk video eller 3D-video ) var mycket populärt i slutet av 1900-talet , och nu finns det regelbundna vågor av intresse för det. Det finns biografer över hela världen som spelar stereoskopisk video med någon form av teknik. Stereovideo kräver två videokanaler, ofta kallade lager : en för vänster öga och en för höger. Det är också nödvändigt att se till att din egen bild kommer in i "ditt" öga. Sålunda har tittaren en känsla av volym, tredimensionalitet av videomaterialet, realismen i känslan av tittande ökar. Ungefär samma, men sämre kvalitet, effekt erhålls genom att titta på en video i plastglas, där ett rött ljusfilter används för ena ögat och ett grönblått filter för det andra. Detta är den gamla principen för anaglyfstereofotografering . Ny teknik som introducerades 2006, som HD DVD och Blu-Ray- skivor , gör det möjligt att överföra mer stereoinnehåll och är avsedda att göra stereoskopisk video mer tillgänglig i hemmet.
I den första inhemska stereobiografen "Moscow", som öppnade den 4 februari 1941, användes en skärm med en slitsad trådskärm [5] . Sedan 1947 har en glasrasterduk med ett mycket stort antal mikroprismor använts i Stereokino-biografen. Rasterskärmar gjorde det möjligt att observera en tredimensionell bild utan speciella glasögon.
Efter perestrojkan fördes den unika skärmen till Odessa och försvann .
Videofilmer kan vara analoga eller digitala .
Bildstandarder för TV-sändningar
Ny digital:
Gammal analog:
|
Videokontaktstandarder (se även Lista över videoanslutningar )
|
Analoga videoformat | Digitala videoformat |
Format av digitala optiska skivmedier
|
Digital kodning och komprimeringsformat |
Videoformat | År | Tejp typ | Tejpbredd | Signaltyp | Horisontell
upplösning, TV |
Attityd
signal/brus, dB |
---|---|---|---|---|---|---|
U-Matic | 1969 | oxid | 3/4 tum | Sammansatt | 280 | 45 |
1" typ C | 1976 | oxid | 1 tum | Sammansatt | 330 | 46 |
VHS | 1976 | oxid | 1/2 tum | Sammansatt | 240 | 46 |
betacam | 1982 | oxid | 1/2 tum | Komponent | 300 | 48 |
Video8 | 1985 | Metallpulver | 8 mm | Sammansatt | 260 | 46 |
U-Matic SP | 1986 | Metallpulver | 3/4 tum | Sammansatt | 330 | 47 |
Betacam SP | 1986 | Metallpulver | 1/2 tum | Komponent | 470 | 51 |
MII | 1986 | Metallpulver | 1/2 tum | Komponent | 440 | 52 |
D1 | 1986 | Metallpulver | 3/4 tum | Digital 4:2:2 | 460 | 56 |
S-VHS | 1987 | oxid | 1/2 tum | Y/C | 400 | 47 |
D2 | 1988 | Metallpulver | 3/4 tum | Digital 4fsc | 450 | 54 |
Hej-8 | 1989 | Metallpulver | 8 mm | Y/C | 400 | 47 |
D3 | 1991 | Metallpulver | 1/2 tum | Digital 4fsc | 450 | 54 |
digital betacam | 1993 | Metallpulver | 1/2 tum | Digital 4:2:2 | 500 | 62 |
D-5 | 1994 | Metallpulver | 1/2 tum | Digital 4:2:2 | 450 | 54 |
DV | 1995 | Metallpulver | 1/4 tum | Digital 4:2:0 (PAL) 4:1:1 (NTSC) | 500 | 54 |
DVCPRO | 1995 | Metallpulver | 1/4 tum | Digital 4:1:1 | 530 | 55 |
Digital-S (D9) | 1995 | Metallpulver | 1/2 tum | Digital 4:2:2 | 540 | 55 |
DVCAM | 1996 | Metallpulver | 1/4 tum | Digital 4:2:0 (PAL) 4:1:1 (NTSC) | 530 | 55 |
3gp , avi , mpeg , mpg , mov , swf , asf , mp2 , mp4 , wmv , mts , mkv , flv
Ordböcker och uppslagsverk | ||||
---|---|---|---|---|
|
_ | Kompressionsmetoder|||||||
---|---|---|---|---|---|---|---|
Teori |
| ||||||
Förlust mindre |
| ||||||
Audio |
| ||||||
Bilder |
| ||||||
Video |
|
Videomedia och videostandarder | |||||||
---|---|---|---|---|---|---|---|
Magnetisk tejp |
| ||||||
Videoskivor |
| ||||||
Digital video |
|
Displayteknik _ | |
---|---|
Video visas |
|
Icke-video |
|
3D-skärmar |
|
Statisk | |
se även |
|