Pixel versus iPhone
Wer gewinnt das Wettrüsten bei der Fotofunktionalität?
Mehr Kameras und mehr aus Serien berechnete Bilder, aber weiterhin 12MP bei allen Kameras – Apple und Google gehen mit ihren neuen Smartphones einen sehr ähnlichen Weg und optimieren die bereits sehr überzeugende Bildqualität erneut. Google lässt bei beiden Kameras die Wahl zwischen RAW und JPEG. In beiden Fällen errechnet das Pixel ein Foto aus einer Serie. Das iPhone setzt weiterhin auf JPEG bzw. HEIC. Wer RAWs machen will, braucht eine Fremd-App, allerdings liefern auch dann nur Hauptund Normaloptik RAW-Daten, die bei Google und Apple die Endung .DNG tragen. Zwar sind die von uns verwendeten Fremd-Apps für iPhone-RAWs nicht kostenlos, überzeugen aber mit Stabilität und Funktionsvielfalt.
Die Qualität der mit einer Fremd-App aufgenommenen RAWs ist nicht immer gleich. Bei hellem Licht sind die Unterschiede weniger relevant, bei schlechteren Lichtbedingungen, wenn das iPhone generell stärker zum Rauschen neigt, sind diese auffälliger. Beim Testen ist uns der Lowlight-Aufnahmemodus der ProCamera-App positiv aufgefallen. In dieser Einstellung fotografiert die App mit kleinerer ISO-Zahl und längerer Belichtung. Als Ergebnis sind die RAWs weniger verrauscht und zeigen mehr Details. Natürlich kann man Fremd-Apps auch für JPEGs nutzen, und je nach Situation kann eine Fremd-App tatsächlich ein besseres Bild liefern, doch der Zusatzaufwand lohnt sich eher selten. Die Signalverarbeitung der Apple-KameraApp
ist gelungen und hat Farbe, Belichtung sowie die Detailzeichnung gut im Griff. Während das Pixel bei RAW und JPEG auf Bildserien zugreifen kann, berechnet das iPhone nur beim Einsatz der iPhone-App und nachlassendem Licht das fertige Bild aus einer Serie. Den RAWs und JPEGs von Fremd-Apps fehlt – nach unserer Beobachtung – diese breitere Datenbasis. Unterm Strich hat das iPhone eine Kamera mehr zu bieten. Die Abbildung bei gutem Licht ist ähnlich, wobei das iPhone die besseren JPEGs liefert. Das Pixel liegt aber bei schwachem Licht klar vorn. Das Rauschen ist bei iPhoneFotos selbst im günstigsten Fall stärker ausgeprägt und verhindert eine bessere Detailzeichnung. whe
Die Nachtfunktion ist ein beliebtes Feature, das sowohl Google als auch Apple in den 11er-Geräten anbieten: Beide Smartphones interpolieren ein Bild aus mehreren Aufnahmen. Wie lange belichtet wird, hängt vom Licht im Motiv sowie von den Handbewegungen ab. Das Pixel macht im Nachtmodus JPEGs und RAWs (hier: DNGs), das iPhone nur JPEGs. Die iPhone-Bilder wurden mit der Lowlight-Einstellung der ProCamera-App (1: RAW, 2: JPEG) sowie der hauseigenen Kamera-App mit dem Nachtprogramm (3) aufgenommen; die Fotos aus dem Pixel ebenso mit dem Nachtsichtprogramm (4: RAW, 5: JPEG). Das Pixel kann man in der Dämmerung auch noch mit guten Resultaten im Fotomodus belassen, doch die Aufnahmen im Nachtmodus sind etwas detailreicher. Das RAW aus dem iPhone rauscht mehr als das aus dem Pixel, was den Bildeindruck trübt – aber es basiert im Gegensatz zu den Fotos aus dem Pixel auch nicht auf einer Serie. Die Pixel-Aufnahme ist sauber und zeigt je nach Struktur dieselbe oder sogar eine etwas bessere Zeichnung.
Ganz ähnlich punktet auch das Pixel-JPEG (5) mit schwächerem Rauschen und weniger Artefakten gegenüber dem JPEG der ProCamera-App in Lowlight (2). Allerdings ist das JPEG aus dem Pixel noch etwas härter abgestimmt. Dass im iPhone noch weiteres Potenzial steckt, beweist Bild 3: ein JPEG der Kamera-App von Apple. Die Qualität dieser Aufnahme kommt nah an das Pixel-JPEG heran. Sie rauscht etwas mehr, zeigt aber eine natürlichere Abstimmung und stellenweise mehr Struktur.