Hvorfor ser bilder tatt med iPhone 4S ut som søppel på Retina MacBook Pro?

Den nye Retina MacBook Pro er den mest pikselbelastede Apple-enheten ennå, med mer enn fem millioner av de små tennene spredt over 220 piksler per tomme. Det er mange små prikker, men tro det eller ei, det oversetter bare til bare fem megapiksler. Og siden iPhone har hatt et 5 megapiksel kamera siden 2010, bilder tatt på en iPhone 4 eller iPhone 4S skal kunne dra full nytte av Retina MacBook Pros oppløsning på 2880 x 1800 vise.

Så hvorfor er det at bilder tatt med en iPhone 4 eller iPhone 4S ser så elendige ut på en Retina MacBook Pro? Det er det Instapaper -utvikleren Marco Arment ønsker å vite, og det gjør vi også. Vi har en teori skjønt.

Over på bloggen hans skriver Marco Arment:

Som en del av min datamaskinoppsett i 2012 byttet jeg også ut den bærbare datamaskinen min med en Retina MacBook Pro, og det første den skriker etter er en høyoppløselig skrivebordsbakgrunn. Flott, tenkte jeg, jeg skal bare bruke ett av bildene mine. (På skrivebordet bruker jeg en solid grå bakgrunn, men på den bærbare datamaskinen liker jeg å ha det litt moro. Og det ville være en forbrytelse å sette en solid grå bakgrunn på den skjermen.)

Nesten ingenting jeg har skutt siden 2010 er brukbart.

Rebel -bildene ser greie ut. 5D Mark II -bildene ser flotte ut. Men bilder fra iPhone 4, og til og med fra 4S, holder ikke. De ser fine ut på en 3,5-tommers skjerm, men de ser forferdelige ut på min store skrivebordsmonitor og er avskyelige på Retina MacBook Pro.

Jeg er ingen ekspert, men jeg antar at dette ikke har noe å gjøre med bare megapiksler. Faktisk, over hele linjen, har kvaliteten på et digitalt fotografi mindre å gjøre med hvor mange piksler det består av og mer å gjøre med kvaliteten og størrelsen på kamerasensoren.

Her er avtalen. Ved digital fotografering er det vanligvis en direkte sammenheng mellom størrelsen på en kamerasensor og hvor lysfølsom den er. Derfor er speilreflekskameraer så store. Det er imidlertid måter rundt størrelsesbegrensningen. Hvis en kamerasensor ikke har nok lys til å ta et klart bilde, kan du gjøre ISO -verdien og gjøre den mer følsom for lys. Men det er en ulempe: når du gjør det, introduserer du også mer støy i bildet.

På grunn av enhetens størrelse må kamerasensoren i iPhone 4 og iPhone 4S være ganske liten, og den er følgelig ikke like lysfølsom som en større sensor. Apple kompenserer for denne mindre sensoren på forskjellige smarte måter, men en av de store måtene den kompenserer på er ved automatisk og aggressiv justering av ISO for hvert bilde du tar.

Jeg tipper at dette er problemet Marco Arment støter på. Hans iPhone-bilder ser flotte ut på en 3,5 eller til og med 9,7-tommers skjerm, men mengden støy som blir introdusert av den automatiske ISO-justeringen er mye, mye mer merkbar ved 15-tommer.

Den gode nyheten er at Apples smarttelefonkameraer bare blir bedre, og jeg vil tro at iPhone 5 vil fortsette den trenden. Kanskje i oktober vil Apples iPhone -kameraer endelig innhente den utrolige skjermteknologien til Retina MacBook Pro.

Kilde: Marco.org

Siste blogginnlegg

| Cult of Mac
August 21, 2021

ClamCase Pro gjør iPad Mini til en uhåndterlig netbookHvis du trodde det var å gjøre iPad til en bærbar datamaskin ved å sette den i et etui med et...

| Cult of Mac
August 21, 2021

Hvorfor bør du kjøpe AppleCare+ for HomePodServicegebyrer på HomePod er ikke billige.Foto: Ste Smith/Cult of MacHvis du bare punget ut $ 350 for Ap...

| Cult of Mac
August 21, 2021

Ny Fallout 4 tilhengeren er fullpakket med hunder, atomvåpen og Ron PerlmanHvis det skjer noe med denne hunden, Bethesda, så hjelp meg ...Foto: Bet...