Quad für Kameras
Sony arbeitet offenbar an mehr als sechs neuen Kleinbildsensoren. Besonders spannend sind die beiden Modelle IMX521CQR-CMOS mit 60 Megapixeln und IMX311AQKCMOS mit diagonal angeordneten Pixeln.
60-Megapixel-Quad-Sensor
Der Sony IMX521CQR-CMOS ist in BSI-Bauweise (back side illumination = rückseitig belichtet) konstruiert. Das Überraschende ist hier die Quad-BayerFarbfilterstruktur, die bisher nur in Smartphonesensoren verwendet wird, unter anderem von Huawei und Honor. Herkömmliche Sensoren nutzen die Bayer-Matrix mit zwei grünempfindlichen und je einem rot- und einem blauempfindlichen Pixel in einem Viererfeld. Beim Quad-Bayer sind Einheiten aus 2 x 2 gleichfarbigen Pixeln in der Bayer-Struktur angeordnet. Anders ausgedrückt: Aus einem grünen Pixel werden vier grüne, aus einem roten bzw. blauen Pixel vier rote bzw. vier blaue. So kann der Sensor mit 60 Megapixeln (9576 x 6388) und interpolierten Farben oder mit 15 Megapixeln (4788 x 3194) ausgelesen werden. In diesem Fall sind die 2 x 2-Cluster zu einem Pixel verrechnet. Der IMX521CQR beherrscht die 12-, 14- und 16-Bit-Codierung und erreicht bei 15 Megapixeln Datenraten von 62, 25 bzw. 7,5 B/s. Grundsätzlich erfassen fast alle momentan genutzten Sensoren nur eine Farbe pro Pixel – das sind in der Regel Rot, Grün oder Blau. Für den fertigen Bildpunkt in der Bilddatei braucht die Kamera aber drei Farben. Die fehlenden Farbwerte werden deswegen aus den Werten der Nachbarpixel interpoliert. So können die 2 x 2-Cluster im neuen Sony-Sensor bei dieser Berechnung zu Nachteilen gegenüber einem herkömmlichen Sensor mit 60 Megapixeln führen. Andererseits sind die Farben nicht das Wichtigste für die Bildqualität. Stattdessen bietet der Quad-Ansatz drei Möglichkeiten der Signalberechnung und erlaubt damit situationsbezogen unterschiedliche Ausleseverfahren.
Drei Ausleseverfahren
1: Die Kamera liest jedes 2 x 2-Array als ein einziges Pixel aus. Der Fotograf erhält dann ein 15-Megapixel-Bild mit vergleichsweise großen Bildpunkten – ideal bei wenig Licht. 2: Die Kamera liest den Sensor bei viel Licht als 60-Megapixel-Sensor aus und liefert dem Fotografen nun ein besonders hoch aufgelöstes Bild. In beiden Fällen steht der Kamera pro Bildpunkt nur eine Farbinformation zur Verfügung, und sie muss die anderen beiden dazu interpolieren. 3: Die Kamera liest ein gegenüber der Pixelstruktur verschobenes 2 x 2-Array als ein einziges Pixel aus. Zu diesem verschobenen Array gehören immer zwei Grün-, ein Blau- und ein Rotpixel des Sensors. In diesem Fall muss die Kamera keine Farben interpolieren – das kommt nicht nur der Farbqualität, sondern auch der Auflösung zugute. Auch hierbei ist ein Bild mit 15 Megapixeln das Ergebnis. Es sollte in puncto Feinzeichnung aber einem klassischen 15-Megapixel-Bild überlegen sein.
48 Megapixel diagonal
Technisch ungewöhnlich ist auch der Sony IMX311AQK-CMOS mit BSI und in Stacked-Bauweise konstruiert – er hat also einen integrierten DRAMChip für eine schnellere Datenverarbeitung. Außerdem ist der Bayer-Farbfilter diagonal ausgerichtet. Dieser Sensor arbeitet mit einer Auflösung von 48 Megapixeln und unterstützt ebenfalls die 16-Bit-A/DUmwandlung. Seine diagonalen Strukturen erlauben eine höhere rechnerische Auflösung in senkrechter und waagerechter Richtung. Die übliche Ausrichtung bevorzugt die Diagonalen. ColorFoto misst darum die Auflösung in acht Richtungen und mittelt dann den Wert. Optisch sind waagerechte und senkrechte Strukturen meist wichtiger als die diagonalen. Diese Anordnung kann also optisch einen Vorteil haben. Übrigens: Von Fujifilm gab es früher ähnliche Ansätze.