1080i og 1080p er den samme oppløsningen

Det synes fortsatt å være litt forvirring om forskjellen mellom 1080i og 1080p. Begge er 1, 920x1, 080 piksler oppløsning. Begge har 2.073.600 piksler. Fra ett perspektiv er 1080i faktisk større enn Blu-ray. Og du kan ikke engang en full 1080p / 60-kilde annet enn en PC, et videokamera eller noen fremdeles kameraer som tar opp video.

True, 1080i og 1080p er ikke det samme, men de er de samme oppløsningene. La argumentet begynne ...

1080i og 720p

Fordi TV-verdenen vår er basert på 60Hz, og fordi det er en grense for hvor mye oppløsning som kan overføres via luften (på grunn av båndbredde og MPEG-komprimering), er de to hoved HDTV-resolusjonene 1080i og 720p. La oss starte med 720p, da det er lettere å forstå.

OK, 720p er 1, 280x720 piksler, kjører til 60 bilder per sekund (fps). Dette er formatet som brukes av ABC, Fox, og deres forskjellige søster kanaler (som ESPN). Jeg har sett noen leser kommentarer som svar på andre artikler jeg har skrevet latterliggjørende ABC / Fox for denne "lavere" oppløsningen, men det er urettferdig på to store måter. Den første, på slutten av 90-tallet da alt dette skjedde, var det ingen 1080p-TVer. Jo, vi visste alle at de skulle komme, men det var mange år før de begynte å sende (nå er nesten alle TVene 1080p). Den andre store måten var sporten. Både ABC og Fox har store sports divisjoner, som spilte en stor rolle i deres beslutning om å gå med 720p. Dette er fordi når det kommer ned til det, ser det seg raskt på 60fps (mer om dette senere).

1080i betegnelsen er 1.920x1.080 piksler, kjører til 30 bilder per sekund. Dette er hva CBS, NBC, og omtrent alle andre kringkastere bruker. Matematikken er faktisk ganske enkel: 1080 ved 30fps er den samme mengden data som 720 ved 60 (eller i det minste nær nok til det vi snakker om).

Hvordan kan du spørre, gjør dette 30 fps arbeidet med TV-apparater designet for 60? Med moderne videoredigering spiller ikke bildefrekvensen mye. Tilbake i gamle dager på 90-tallet var vi imidlertid ikke så heldige. 1080-bildet er faktisk "interlaced". Det er der "jeg" kommer fra. Hva dette betyr er at selv om det er 30 bilder hvert sekund, er det faktisk 60 felt . Hvert felt er 1.920x540 piksler, hver 60. sekund. Av de 1 080 linjene piksler vil det første feltet ha alle merkelige linjer, det andre feltet vil ha alle de jevne linjene. TVen din kombinerer disse sammen for å danne en komplett ramme med video.

Hva med 1080p?

Ja, hva med det? Din 1080p-TV aksepterer mange forskjellige oppløsninger, og konverterer dem alle til 1, 920x1, 080 piksler. For de fleste kilder er dette en prosess kjent som oppkonversjon. Sjekk ut artikkelen min, passende kalt "Hva er oppkonversjon?" for mer info om den prosessen.

Når TV-en sendes et 1080i-signal, oppstår imidlertid en annen prosess: deinterlacing. Dette er når TVen kombinerer de to feltene inn i rammer. Hvis det er gjort riktig, gjentar TV-en hver full ramme for å lage 60 "fps" fra originalen 30.

Hvis det er gjort feil, tar TVen i stedet hvert felt, og bare dobler informasjonen. Så du får faktisk 1, 920x540p. Mange tidlige 1080p HDTV gjorde dette, men ganske mye ingen moderne gjør det. I en TV-gjennomgang er dette den viktigste tingen vi sjekker når vi tester deinterlacing-kompetanse.

Relaterte historier

  • LED LCD vs plasma vs LCD
  • Aktiv 3D vs passiv 3D: Hva er bedre?
  • Hvorfor 4K TV er dumme
  • Kontrastforhold (eller hvordan hver TV-produsent ligger til deg)
  • OLED: Det vi vet
  • Hvorfor alle HDMI-kablene er de samme
  • Beste 4k TV

Hvis bare det var så enkelt (hvis det er enda enkelt)

Det er imidlertid et problem. La oss ta eksemplet på sporten fra tidligere. ABC og Fox gjorde veldig bevisst valget om å gå med 720p over 1080i. Som vi sa tidligere var dette i stor grad ikke basert på noen begrensning av teknologien eller å være billig. Det er at 1080i er verre med rask bevegelse enn 720p.

Ved 60 bilder per sekund (720p) får kameraet et fullstendig øyeblikksbilde av hva det ser hver 60. sekund. Med 1080i, på den annen side, får det et halvt øyeblikksbilde hvert 60. sekund (1.920x540 hver 60.). Med de fleste ting er dette ikke en stor sak. TVen din kombinerer de to feltene. Du ser rammer. Alt er lykkelig i TV-land.

Men la oss si at det er en sportsball fyr som løper over skjermen fra høyre til venstre. Kameraet fanger et felt av ham, så en sekstedel av et sekund senere tar det et annet felt av ham. Åh, han var ikke hyggelig nok til å stå stille mens dette skjedde. Så nå har feltet "A" ham på ett sted (representert ved halvparten av bildens piksler) og felt "B" har ham litt til venstre (representert ved halvparten av bildens piksler). Hvis TV-en skulle kombinere disse to feltene, ville resultatet se ut som noen trakk en kam over ham. Denne artefakten er beleilig kalt kaming.

Ved hjelp av sportsbilder blir deres respektive organisasjoners fjær helt ruffled. Så i stedet, her er to rammer fra en video jeg tok. Jeg kalte ham Fred.

Dårlig Fred; se hva dårlig deinterlacing gjorde med ham.

Det var klart at Fred ikke beveget seg fort nok til å kaste artefakter så dårlig, men dette burde gi deg en ide om hva som skjer. TV-apparatets deinterlacing-prosessor må legge merke til bevegelsen, som i forskjellen mellom feltene, og kompensere. Vanligvis gjør det dette ved, i utgangspunktet, gjennomsnittlig forskjellen. I virkeligheten fudger kantene. Ja, det stemmer, det gjør ting oppe. Eller, hvis du vil argumentere det annerledes, manipulerer det bildet, så det er ingen gjenstander, på bekostning av absolutt oppløsning. Ikke bekymre deg, men TV-prosessering har blitt veldig bra på dette (og vanligvis gjør mye mer enn bare "gjennomsnittlig"), slik at resultatet er ganske sømløst.

Nå er det her et argument om 1080p - ekte 1080p - blir verdt. En full 60-bilder per sekund 1080p video ville være fantastisk. Ikke fordi det er en høyere oppløsning enn 1080i, men fordi det er en høyere bildefrekvens (og ikke interlaced), så blir bevegelsen mer detaljert. Det er imidlertid svært lite sannsynlig at folk flest noen gang vil se en forskjell. Kompresjonsartefakter i kilden eller kantforbedringen på skjermen er langt mer skadelige for bildet enn deinterlacing. Redusere noen av disse to faktorene ville få større effekt på bildet. Sjekk ut "Når HD ikke er HD" for mer info om det. Så med full 1080p, vil den subtile økningen i bevegelsesdetaljene ikke sannsynlig bli lagt merke til.

Og 1080p er enda mindre viktig for filmer.

Filmer (og skjønnheten i 3: 2)

Filmer er, og vil i overskuelig fremtid være 24 bilder per sekund. Jada, James Cameron, Peter Jackson, og til og med Roger Ebert vil øke rammeprisen, men det kommer til å være en oppoverbakke kamp. Når det kommer til det, likner folk 24fps med filmens magi og høyere bildefrekvenser med den virkelige verdenens virkelighet av video. Å endre folks oppfatning er mye vanskeligere enn å vri på en knapp på et videokamera. (Merk at jeg ikke argumenterer for eller mot høyere rammepriser her. Kanskje i en fremtidig artikkel.)

Nesten hver Blu-ray på markedet er 1080p / 24 eller 1, 920x1, 080 piksler med 24 bilder per sekund. Som vi har diskutert, er dette faktisk mindre enn 1080i. Selvfølgelig er den gjennomsnittlige Blu-ray mye bedre enn ditt gjennomsnittlige 1080i signal (fra kabel / satellitt, etc.). Dette skyldes oftest andre faktorer, som komprimering. Igjen, sjekk ut når HD ikke er HD.

Forresten, Blu-ray er ikke engang i stand til 1080p / 60. Minst, ikke ennå. Det maxes ut på (vent på det) 1080i! Morsomt hvordan det fungerer. Det er noen måter å få ekte 1080p / 60-video, nemlig fra en PC eller ved å skyte den med en nyere videokamera eller digital stillkamera videosfunksjon, men selv i disse tilfellene kan du ikke brenne videoen til en Blu-ray for avspilling ved 1080p / 60.

De av dere som er klare på matematikk vil lure på: hvordan viser du 24fps på en 60fps skjerm? Ikke bra, ærlig.

Trikset er en 2: 3 sekvens av rammer (kalt 3: 2, 3: 2-nedtrekk, metoden som brukes).

Tenk på filmrammer A, B, C, D og E. Når de vises på et 60Hz-TV, er de arrangert i et 2: 3-mønster, slik:

AA, BBB, CC, DDD, EE

...og så videre. Den første filmrammen er doblet, den andre rammen er tredoblet, den tredje er doblet, og så videre. Selv om dette betyr at 60Hz-TVer kan operere med minimal bearbeiding, resulterer det i en merkelig dommer på grunn av den bizarre duplisering av rammer. Dette er mest merkbart under horisontale panner, hvor kameraet synes å tøffe litt litt under bevegelsen.

Ideelt sett vil du kunne vise dupliserte rammer uten 3: 2-sekvensen. En av de mulige fordelene ved 120 og 240Hz LCD-skjermer er muligheten til å vise filminnhold på et jevnt flertall på 24: 5x i tilfelle 120Hz og 10x for 240Hz. Dessverre har ikke alle 120 eller 240Hz-TVene den muligheten. Noen plasmaer har evnen, men i mange tilfeller er det en flimrende 48Hz (96Hz er langt bedre, og tilbys på noen avanserte modeller).

Som en side, er Soap Opera Effect TV-en som skaper rammer for å sette inn mellom de virkelige filmrammer for å få opp til 120 eller 240 Hz. Dette resulterer i en ultralett bevegelse med filminnhold som gjør at det ser ut som video. Folk faller inn i to forskjellige kategorier når de ser Soap Opera Effect: De som hater det og vil kaste opp og galne mennesker (bare tuller). For mer informasjon om dette, sjekk ut "Hva er oppdateringsfrekvens?"

Men hva med spill?

Som jeg diskuterte i min "4K for PS4? Hvem bryr seg?" Artikkelen, er de fleste videospill egentlig ikke den oppløsningen de hevder å være på boksen (eller det vises på TVen din). De fleste blir gjengitt (dvs. opprettet) med lavere oppløsning, og deretter oppkonvertert til hvilken oppløsning du liker. Så jeg antar at det kunne være et argument at disse er 1080p, da det er teknisk antall piksler sendt av Xbox / PS3, men jeg vil hevde at den faktiske oppløsningen er hva spillet gjengis på. Tilfelle i punkt: Gran Turismo 5 gjengis ved 1, 280x1080 piksler. Dette er omtrent 50 prosent flere piksler enn 720p, men en lik mengde mindre enn "ekte" 1080p. Upconversion er ikke ekte oppløsning, heller ikke med vanlig videoinnhold, eller med spillinnhold.

Hvis du er en PC-spiller, kan du imidlertid få 1080p / 60. For det meste gjør PC-spill på samme oppløsning videokortutgangene. For mer informasjon om hvordan du bruker PCen med TVen, sjekk ut "Slik bruker du TVen som en dataskjerm for spill, videoer og mer."

Bunnlinjen

Mens 1080i og 1080p har samme antall piksler, har de forskjellige rammepriser (og en er interlaced). Virkeligheten er, bortsett fra PC-spill, det er ikke noe kommersielt tilgjengelig "ekte" 1080p-innhold. Det er enten 1080i-innhold deinterlaced av TV-en, 1080p / 24-innhold fra Blu-ray, eller oppkonvertert innhold fra konsollspill.

Det er ikke å si at det ikke ville vært bra hvis vi hadde flere 1080p / 60 kilder, men litt bedre bevegelsesdetaljer ville ikke være en stor merkbar forskjell. Med andre ord savner du egentlig ikke noe med 1080i.


Har du et spørsmål til Geoff? Først, sjekk ut alle de andre artiklene han har skrevet om emner som HDMI kabler, LED LCD vs plasma, Active vs Passive 3D, og ​​mer. Har du fortsatt et spørsmål? Send ham en e-post! Han vil ikke fortelle deg hvilken TV du skal kjøpe, men han kan bruke brevet i en fremtidig artikkel. Du kan også sende ham en melding på Twitter @TechWriterGeoff eller Google+.

 

Legg Igjen Din Kommentar