De toekomst van fotografie
Al meer dan 2000 jaar is de mens gefascineerd door het idee een beeld vast te leggen en door te geven. We geven je een overzicht van hoe het principe van fotografie zich heeft ontwikkeld en waar het in de toekomst naartoe gaat.
Zo heeft de fotografie zich ontwikkeld en hier gaat het naartoe.
Al in de vierde eeuw v.Chr. legde de filosoof Aristoteles de basis voor fotografie zoals we die nu kennen. Hij was de eerste die een fenomeen beschreef dat de Italiaanse ‘uomo universale’ Leonardo da Vinci pas zo’n 1800 jaar later vergeleek met de werking van het menselijk oog. Het principe van de ‘camera obscura’ oftewel speldenprikcamera: Da Vinci beschreef de mogelijkheid een fel verlicht onderwerp met behulp van een donkere ruimte (waar een klein gaatje in zit) af te beelden op een stuk papier en voor altijd te bewaren.
Pas meer dan 300 jaar later, in het jaar 1826, lukte het de Franse uitvinder Joseph Nicéphore Niépce om de eerste duurzaam houdbare foto te maken. In de volgende 150 jaar werden er veel verschillende uitvindingen gedaan rond de analoge techniek. Nieuwe materialen en ontwikkelingsprocessen leidden tot meer acceptatie en uiteindelijk ook tot een groeiend enthousiasme voor fotografie. Na zwart-witfoto’s volgden kleurenfoto’s, en de zware kasten met fotografische platen werden compactcamera’s met kleinbeeldpatronen voor iedereen.
In 1969 veranderde alles: George Smith en Willard Boyle ontwikkelden de charge-coupled device (ladinggekoppelde component), waarvoor ze in 2009 de Nobelprijs voor Natuur-
kunde ontvingen. De zogeheten CCD-sensor was eenvoudig gezegd in staat lichtinformatie om te zetten in digitale informatie – een principe dat Steven Sasson (ingenieur van het Amerikaanse bedrijf Kodak) korte tijd later zou gebruiken. Hij bouwde de eerste draagbare digitale camera met een gewicht van meer dan 3,5 kilo en een resolutie van 10.000 pixels. Als opslagmedium werd een digitale cassette gebruikt.
De eerste ‘echte’ digitale camera die in massaproductie ging, verscheen pas in november 1990: de Dycam Model 1 (beter bekend als de Logitech Fotoman). Zwart-witfoto’s die met een naar kleinbeeld omgerekende brandpuntsafstand van 55 millimeter werden gemaakt, werden door de 0,09 megapixel CCD-sensor op het geïntegreerde geheugen van 4 MB opgeslagen. Omgerekend kostte je dat toen 1200 euro.
Het tijdperk van de digitale fotografie
De eerste digitale spiegelreflexcamera met kleinbeeldsensor verscheen in 2002, de Contax N Digital. Deze camera had waarden waar hedendaagse fotografen slechts minzaam om kunnen glimlachen. De CCD-sensor van Philips had een voor die tijd hoge resolutie van 6 megapixel en had een groot instelbaar ISO-bereik – van ISO 25 tot ISO 400. De concurrentie zat echter niet stil. Reeds in de jaren 90 ontwikkelde de Amerikaanse elektrotechnisch ingenieur Eric Fossum een alternatief voor de CCD-sensor, de zogeheten Active Pixel Sensor (APS). Deze CMOS-sensor had als voordeel dat zowel de productiekosten als het stroomverbruik lager waren. Bovendien waren er door de productiemethode meer functies mogelijk. Zo kon er een belichtingscontrole en een analoog/ digitaal-converter op de chip worden geïntegreerd. Nadelen waren een slechtere ruisverhouding bij beperkte lichtomstandigheden en meer kleurruis.
Het goedkopere sensortype won het uiteindelijk van de concurrenten. Door de verdere ontwikkeling en verkleining
van het circuit werden de nadelen van de CMOS-sensor steeds verder opgeheven, tot de beeldkwaliteit uiteindelijk beter was dan die van de CCD-sensor. Tegenwoordig zijn ze in consumentencamera’s praktisch helemaal verdwenen en zie je ze alleen nog af en toe in instapmodellen van het digitale middenformaat. De AP-sensor wordt daarentegen nog altijd verder ontwikkeld. De volgende stap is een nog hogere lichtgevoeligheid, wat bij CMOS-sensoren momenteel door middel van Backside Illumination (BSI) wordt gerealiseerd. De sensor wordt omgekeerd in de camera gezet, met het circuit van het objectief af gericht. Licht kan daardoor rechtstreeks, zonder afleiding op de gevoelige oppervlakte vallen. Het resultaat is dat de sensor gevoeliger is en minder ruis produceert.
Strijd tegen rolling shutter-effect
Zowel Sony als Panasonic richten zich momenteel in hun onderzoek tot een ander nadeel van de CMOS-sensor, namelijk het rolling shutter-effect. Dit houdt in dat de camera zeer snel bewegende objecten alleen vervormd weergeeft. De reden daarvoor is dat de beeldchips alleen regel voor regel kunnen worden uitgelezen. Zo wordt het rotorblad van een snel draaiende vliegtuigpropeller meervoudig afgebeeld. De oplossing hiervoor heet global shutter. Sony plaatst achter elke pixel van zijn BSI-sensor een aparte 14-bit A/D-converter. Om de grotere hoeveelheid data te kunnen verwerken, ontwikkelden de ingenieurs tegelijkertijd een snelle interface. Desondanks neemt deze constructie relatief veel ruimte in, omdat elke pixel zijn eigen converter heeft. De nieuwe chip met een resolutie van 1,5 megapixel en een leessnelheid van 660 beelden per seconde is in het begin van dit jaar geïntroduceerd. Panasonic bewandelt momenteel een andere weg. Bijna tegelijkertijd met de bekendmaking van Sony presenteerde het bedrijf een organische 8K CMOS-sensor met global shutter-functie, een breder kleurenspectrum en een grotere dynamische omvang. De opbouw van de chip is volledig anders dan bij de concurrentie. In plaats van afzonderlijke, in het siliciumsubstraat van de sensor geïntegreerde fotodioden wordt een organische, lichtgeleidende laag over de hele oppervlakte van de chip gebruikt. Hierdoor is het mogelijk om de gedeeltes die nodig zijn voor de opslag en het converteren van foto-elektrische ladingen uit elkaar te halen en horizontaal onder elkaar te rangschikken. Circuits die beeldinformatie tegelijkertijd vanuit alle gedeeltes doorgeven aan de processor nemen daarbij minder ruimte in dan bij de klassieke configuratie. De resolutie van de sensor kan daardoor gemakkelijker worden geschaald en de productie wordt goedkoper. Er zijn dus meerdere redenen waarom het uitgangspunt van Panasonic succesvoller zou kunnen worden dan het idee van Sony. Maar niet elke
revolutionaire aanpak wordt een succes. Het Duitse bedrijf Raytrix bood in 2010 al een blik op de toekomst van fotografie, met de eerste lichtveldcamera, ook wel plenoptische camera. Twee jaar later verscheen het eerste consumentenmodel van het bedrijf Lytro op de markt. In tegenstelling tot standaard fotografie gebruiken lichtveldcamera’s niet het twee- maar vierdimensionale lichtveld. Omdat het licht van elk beeldelement met behulp van microscopische lenzen voor de sensor vanuit verschillende richtingen wordt vastgehouden, is er geen onscherpte zichtbaar. Die kun je achteraf toevoegen en naar wens verschuiven. De combinatie van conventionele sensors en spiegels maakt bovendien een stereoscopische weergave mogelijk. Uit lichtveldfoto’s kun je dus direct 3D-foto’s extraheren. In 2016 is Lytro weer uit de consumentenmarkt gestapt en concentreert zich nu op de professionele videomarkt. Met de Lytro Cinema (eveneens uit 2016) richt de fabrikant zich nu meer op virtual reality. De technische gegevens van de 125.000 dollar dure lichtveldcamera zijn imposant. Een resolutie van 755 megapixel waarmee je 40K video kunt opnemen met 300 beelden per seconde. Een speciale server verwerkt de continue datastroom van tot wel 400 gigabyte per seconde.
Verkleinen is eindig
Omdat het trendsettende principe van de lichtveldcamera nog altijd is gebaseerd op conventionele sensoren gaan de grote fabrikanten door met hun onderzoeken. En dat is ook nodig, omdat nu al de grenzen van het verkleinen van sensors in zicht komen. In samenwerking met universiteiten ontstaan zo nieuwe ideeën over hoe camera’s in de toekomst beeldinformatie kunnen verwerken. Fabrikanten rusten moderne beeldchips nu al niet meer uit met steeds hogere resoluties. De oppervlakte van een sensor wordt door de standaard bepaald, zowel bij FourThirds, APS-C als kleinbeeldformaat. Hoe meer afzonderlijke pixels er op een beeldchip gerealiseerd moeten worden, hoe moeilijker het is om de complexe architectuur erin te krijgen. Bovendien stellen sensoren met hoge resoluties hoge eisen aan objectieven.
Hoe kleinschaliger de sensor het beeld van een lens aftast, hoe groter de kans op vervormingen en kleurzwemen. Zo bereiken de resoluties in het APS-C-bereik met zeer weinig uitzonderingen een gemiddelde waarde rond de 24 megapixel. Omgerekend naar kleinbeeldformaat ligt de grens dan rond de 50 of 60 megapixel. Kort gezegd is het verkleinen van het circuit een eindige ontwikkeling.
Minder werk voor het objectief
Bij de ontwikkeling van nieuwe systemen wordt onder meer geconcentreerd op het ontlasten van objectieven. Een gebogen (curved) sensor, zoals Microsoft, Sony en Nikon ontwikkelen, kan de beeldkwaliteit verder verhogen. Tot dusver wordt het beeld door middel van meerdere lenzen zo gebroken dat het op een vlakke sensor wordt afgebeeld, maar met een gebogen sensor zijn er minder lenzen nodig. Vervormingen en aberraties worden zo ook verder gereduceerd en bovendien ontstaat in het objectief meer ruimte voor andere optimalisaties. De eerste onderzoeken van Sony laten zien dat foto’s van een gebogen sensor tot in de hoeken gelijkmatig scherp zijn. Het grote nadeel is dat de lenzen voor de sensor speciaal op de kromming moeten worden aangepast. Zodoende kan er alleen een vaste brandpuntsafstand en dus geen zoomobjectief worden gebruikt.
Maar de onderzoekers gaan nog een stap verder. In plaats van glazen constructies voor het bundelen van de lichtinformatie gebruiken de ingenieurs van de Harvard-universiteit metaal. Met behulp van een klein staafje titaandioxide (TiO2) wordt de golflengte van het invallende licht gemeten – iets wat een beetje doet denken aan de werking van het menselijk oog. Het grote voordeel is van metalen lenzen is dat de staafjes, in tegenstelling tot glas, geen optische vervormingen veroorzaken. De productiekosten liggen volgens de universiteit op maar een fractie van de prijzen van reguliere objectieven. De fijne structuur is bovendien in de dikte van een blad papier te realiseren.
Razendsnelle rastertechniek
De ontwikkelaars aan het California Institute of Technology (Caltech) laten bij hun onderzoek naar de camera van de toekomst het objectief zelfs helemaal weg. De techniek Phased Array Optics (PAO), die in 2017 werd geïntroduceerd, tast de omgeving binnen een femtoseconde af. Een femtoseconde is een biljardste van een seconde, oftewel 0,000.000.000.000.001 seconde. Er wordt alleen een zeer begrensd gebied per keer vastgelegd. Maar het systeem kan zijn positie enorm snel veranderen. Daardoor ontstaat een raster waaruit de beeldprocessor een foto kan construeren.
Naast de technische veranderingen profiteert de fotografie van de toekomst uiteindelijk ook van de ontwikkeling van kunstmatige intelligentie. Er zijn nu al systemen, zoals ‘ARCore’ van Google en ‘ARKit’ van Apple, die de omgeving waarnemen en in real-time driedimensionale objecten in tweedimensionale foto’s kunnen integreren. Zo helpt de camera de fotograaf op basis van voorkeuren en met het oog op de beste resultaat. Of het onderwerp dan werkelijk interessant op de foto staat, moet de fotograaf ook in de toekomst nog altijd zelf bepalen.