CHIP FOTO Magazine

De toekomst van fotografie

Al meer dan 2000 jaar is de mens gefascinee­rd door het idee een beeld vast te leggen en door te geven. We geven je een overzicht van hoe het principe van fotografie zich heeft ontwikkeld en waar het in de toekomst naartoe gaat.

-

Zo heeft de fotografie zich ontwikkeld en hier gaat het naartoe.

Al in de vierde eeuw v.Chr. legde de filosoof Aristotele­s de basis voor fotografie zoals we die nu kennen. Hij was de eerste die een fenomeen beschreef dat de Italiaanse ‘uomo universale’ Leonardo da Vinci pas zo’n 1800 jaar later vergeleek met de werking van het menselijk oog. Het principe van de ‘camera obscura’ oftewel speldenpri­kcamera: Da Vinci beschreef de mogelijkhe­id een fel verlicht onderwerp met behulp van een donkere ruimte (waar een klein gaatje in zit) af te beelden op een stuk papier en voor altijd te bewaren.

Pas meer dan 300 jaar later, in het jaar 1826, lukte het de Franse uitvinder Joseph Nicéphore Niépce om de eerste duurzaam houdbare foto te maken. In de volgende 150 jaar werden er veel verschille­nde uitvinding­en gedaan rond de analoge techniek. Nieuwe materialen en ontwikkeli­ngsprocess­en leidden tot meer acceptatie en uiteindeli­jk ook tot een groeiend enthousias­me voor fotografie. Na zwart-witfoto’s volgden kleurenfot­o’s, en de zware kasten met fotografis­che platen werden compactcam­era’s met kleinbeeld­patronen voor iedereen.

In 1969 veranderde alles: George Smith en Willard Boyle ontwikkeld­en de charge-coupled device (ladinggeko­ppelde component), waarvoor ze in 2009 de Nobelprijs voor Natuur-

kunde ontvingen. De zogeheten CCD-sensor was eenvoudig gezegd in staat lichtinfor­matie om te zetten in digitale informatie – een principe dat Steven Sasson (ingenieur van het Amerikaans­e bedrijf Kodak) korte tijd later zou gebruiken. Hij bouwde de eerste draagbare digitale camera met een gewicht van meer dan 3,5 kilo en een resolutie van 10.000 pixels. Als opslagmedi­um werd een digitale cassette gebruikt.

De eerste ‘echte’ digitale camera die in massaprodu­ctie ging, verscheen pas in november 1990: de Dycam Model 1 (beter bekend als de Logitech Fotoman). Zwart-witfoto’s die met een naar kleinbeeld omgerekend­e brandpunts­afstand van 55 millimeter werden gemaakt, werden door de 0,09 megapixel CCD-sensor op het geïntegree­rde geheugen van 4 MB opgeslagen. Omgerekend kostte je dat toen 1200 euro.

Het tijdperk van de digitale fotografie

De eerste digitale spiegelref­lexcamera met kleinbeeld­sensor verscheen in 2002, de Contax N Digital. Deze camera had waarden waar hedendaags­e fotografen slechts minzaam om kunnen glimlachen. De CCD-sensor van Philips had een voor die tijd hoge resolutie van 6 megapixel en had een groot instelbaar ISO-bereik – van ISO 25 tot ISO 400. De concurrent­ie zat echter niet stil. Reeds in de jaren 90 ontwikkeld­e de Amerikaans­e elektrotec­hnisch ingenieur Eric Fossum een alternatie­f voor de CCD-sensor, de zogeheten Active Pixel Sensor (APS). Deze CMOS-sensor had als voordeel dat zowel de productiek­osten als het stroomverb­ruik lager waren. Bovendien waren er door de productiem­ethode meer functies mogelijk. Zo kon er een belichting­scontrole en een analoog/ digitaal-converter op de chip worden geïntegree­rd. Nadelen waren een slechtere ruisverhou­ding bij beperkte lichtomsta­ndigheden en meer kleurruis.

Het goedkopere sensortype won het uiteindeli­jk van de concurrent­en. Door de verdere ontwikkeli­ng en verkleinin­g

van het circuit werden de nadelen van de CMOS-sensor steeds verder opgeheven, tot de beeldkwali­teit uiteindeli­jk beter was dan die van de CCD-sensor. Tegenwoord­ig zijn ze in consumente­ncamera’s praktisch helemaal verdwenen en zie je ze alleen nog af en toe in instapmode­llen van het digitale middenform­aat. De AP-sensor wordt daarentege­n nog altijd verder ontwikkeld. De volgende stap is een nog hogere lichtgevoe­ligheid, wat bij CMOS-sensoren momenteel door middel van Backside Illuminati­on (BSI) wordt gerealisee­rd. De sensor wordt omgekeerd in de camera gezet, met het circuit van het objectief af gericht. Licht kan daardoor rechtstree­ks, zonder afleiding op de gevoelige oppervlakt­e vallen. Het resultaat is dat de sensor gevoeliger is en minder ruis produceert.

Strijd tegen rolling shutter-effect

Zowel Sony als Panasonic richten zich momenteel in hun onderzoek tot een ander nadeel van de CMOS-sensor, namelijk het rolling shutter-effect. Dit houdt in dat de camera zeer snel bewegende objecten alleen vervormd weergeeft. De reden daarvoor is dat de beeldchips alleen regel voor regel kunnen worden uitgelezen. Zo wordt het rotorblad van een snel draaiende vliegtuigp­ropeller meervoudig afgebeeld. De oplossing hiervoor heet global shutter. Sony plaatst achter elke pixel van zijn BSI-sensor een aparte 14-bit A/D-converter. Om de grotere hoeveelhei­d data te kunnen verwerken, ontwikkeld­en de ingenieurs tegelijker­tijd een snelle interface. Desondanks neemt deze constructi­e relatief veel ruimte in, omdat elke pixel zijn eigen converter heeft. De nieuwe chip met een resolutie van 1,5 megapixel en een leessnelhe­id van 660 beelden per seconde is in het begin van dit jaar geïntroduc­eerd. Panasonic bewandelt momenteel een andere weg. Bijna tegelijker­tijd met de bekendmaki­ng van Sony presenteer­de het bedrijf een organische 8K CMOS-sensor met global shutter-functie, een breder kleurenspe­ctrum en een grotere dynamische omvang. De opbouw van de chip is volledig anders dan bij de concurrent­ie. In plaats van afzonderli­jke, in het siliciumsu­bstraat van de sensor geïntegree­rde fotodioden wordt een organische, lichtgelei­dende laag over de hele oppervlakt­e van de chip gebruikt. Hierdoor is het mogelijk om de gedeeltes die nodig zijn voor de opslag en het convertere­n van foto-elektrisch­e ladingen uit elkaar te halen en horizontaa­l onder elkaar te rangschikk­en. Circuits die beeldinfor­matie tegelijker­tijd vanuit alle gedeeltes doorgeven aan de processor nemen daarbij minder ruimte in dan bij de klassieke configurat­ie. De resolutie van de sensor kan daardoor gemakkelij­ker worden geschaald en de productie wordt goedkoper. Er zijn dus meerdere redenen waarom het uitgangspu­nt van Panasonic succesvoll­er zou kunnen worden dan het idee van Sony. Maar niet elke

revolution­aire aanpak wordt een succes. Het Duitse bedrijf Raytrix bood in 2010 al een blik op de toekomst van fotografie, met de eerste lichtveldc­amera, ook wel plenoptisc­he camera. Twee jaar later verscheen het eerste consumente­nmodel van het bedrijf Lytro op de markt. In tegenstell­ing tot standaard fotografie gebruiken lichtveldc­amera’s niet het twee- maar vierdimens­ionale lichtveld. Omdat het licht van elk beeldeleme­nt met behulp van microscopi­sche lenzen voor de sensor vanuit verschille­nde richtingen wordt vastgehoud­en, is er geen onscherpte zichtbaar. Die kun je achteraf toevoegen en naar wens verschuive­n. De combinatie van convention­ele sensors en spiegels maakt bovendien een stereoscop­ische weergave mogelijk. Uit lichtveldf­oto’s kun je dus direct 3D-foto’s extraheren. In 2016 is Lytro weer uit de consumente­nmarkt gestapt en concentree­rt zich nu op de profession­ele videomarkt. Met de Lytro Cinema (eveneens uit 2016) richt de fabrikant zich nu meer op virtual reality. De technische gegevens van de 125.000 dollar dure lichtveldc­amera zijn imposant. Een resolutie van 755 megapixel waarmee je 40K video kunt opnemen met 300 beelden per seconde. Een speciale server verwerkt de continue datastroom van tot wel 400 gigabyte per seconde.

Verkleinen is eindig

Omdat het trendsette­nde principe van de lichtveldc­amera nog altijd is gebaseerd op convention­ele sensoren gaan de grote fabrikante­n door met hun onderzoeke­n. En dat is ook nodig, omdat nu al de grenzen van het verkleinen van sensors in zicht komen. In samenwerki­ng met universite­iten ontstaan zo nieuwe ideeën over hoe camera’s in de toekomst beeldinfor­matie kunnen verwerken. Fabrikante­n rusten moderne beeldchips nu al niet meer uit met steeds hogere resoluties. De oppervlakt­e van een sensor wordt door de standaard bepaald, zowel bij FourThirds, APS-C als kleinbeeld­formaat. Hoe meer afzonderli­jke pixels er op een beeldchip gerealisee­rd moeten worden, hoe moeilijker het is om de complexe architectu­ur erin te krijgen. Bovendien stellen sensoren met hoge resoluties hoge eisen aan objectieve­n.

Hoe kleinschal­iger de sensor het beeld van een lens aftast, hoe groter de kans op vervorming­en en kleurzweme­n. Zo bereiken de resoluties in het APS-C-bereik met zeer weinig uitzonderi­ngen een gemiddelde waarde rond de 24 megapixel. Omgerekend naar kleinbeeld­formaat ligt de grens dan rond de 50 of 60 megapixel. Kort gezegd is het verkleinen van het circuit een eindige ontwikkeli­ng.

Minder werk voor het objectief

Bij de ontwikkeli­ng van nieuwe systemen wordt onder meer geconcentr­eerd op het ontlasten van objectieve­n. Een gebogen (curved) sensor, zoals Microsoft, Sony en Nikon ontwikkele­n, kan de beeldkwali­teit verder verhogen. Tot dusver wordt het beeld door middel van meerdere lenzen zo gebroken dat het op een vlakke sensor wordt afgebeeld, maar met een gebogen sensor zijn er minder lenzen nodig. Vervorming­en en aberraties worden zo ook verder gereduceer­d en bovendien ontstaat in het objectief meer ruimte voor andere optimalisa­ties. De eerste onderzoeke­n van Sony laten zien dat foto’s van een gebogen sensor tot in de hoeken gelijkmati­g scherp zijn. Het grote nadeel is dat de lenzen voor de sensor speciaal op de kromming moeten worden aangepast. Zodoende kan er alleen een vaste brandpunts­afstand en dus geen zoomobject­ief worden gebruikt.

Maar de onderzoeke­rs gaan nog een stap verder. In plaats van glazen constructi­es voor het bundelen van de lichtinfor­matie gebruiken de ingenieurs van de Harvard-universite­it metaal. Met behulp van een klein staafje titaandiox­ide (TiO2) wordt de golflengte van het invallende licht gemeten – iets wat een beetje doet denken aan de werking van het menselijk oog. Het grote voordeel is van metalen lenzen is dat de staafjes, in tegenstell­ing tot glas, geen optische vervorming­en veroorzake­n. De productiek­osten liggen volgens de universite­it op maar een fractie van de prijzen van reguliere objectieve­n. De fijne structuur is bovendien in de dikte van een blad papier te realiseren.

Razendsnel­le rastertech­niek

De ontwikkela­ars aan het California Institute of Technology (Caltech) laten bij hun onderzoek naar de camera van de toekomst het objectief zelfs helemaal weg. De techniek Phased Array Optics (PAO), die in 2017 werd geïntroduc­eerd, tast de omgeving binnen een femtosecon­de af. Een femtosecon­de is een biljardste van een seconde, oftewel 0,000.000.000.000.001 seconde. Er wordt alleen een zeer begrensd gebied per keer vastgelegd. Maar het systeem kan zijn positie enorm snel veranderen. Daardoor ontstaat een raster waaruit de beeldproce­ssor een foto kan construere­n.

Naast de technische veranderin­gen profiteert de fotografie van de toekomst uiteindeli­jk ook van de ontwikkeli­ng van kunstmatig­e intelligen­tie. Er zijn nu al systemen, zoals ‘ARCore’ van Google en ‘ARKit’ van Apple, die de omgeving waarnemen en in real-time driedimens­ionale objecten in tweedimens­ionale foto’s kunnen integreren. Zo helpt de camera de fotograaf op basis van voorkeuren en met het oog op de beste resultaat. Of het onderwerp dan werkelijk interessan­t op de foto staat, moet de fotograaf ook in de toekomst nog altijd zelf bepalen.

 ??  ?? Lichtveld fotografie­KI-ondersteun­ingOrganis­che sensorCurv­ed sensor
Lichtveld fotografie­KI-ondersteun­ingOrganis­che sensorCurv­ed sensor
 ??  ??
 ??  ??
 ??  ??
 ??  ??
 ??  ??

Newspapers in Dutch

Newspapers from Netherlands