CHIP FOTO Magazine

Computerge­stuurde fotografie

-

Computers tillen fotografie naar een hoger niveau.

Camera’s krijgen een steeds hogere resolutie, worden almaar sneller en maken foto’s mogelijk die tot een paar jaar geleden nog onvoorstel­baar waren. En er is één ontwikkeli­ng die de toekomst van de foto-industrie nog sterker zal gaan bepalen dan nu al het geval is: de computerge­stuurde fotografie.

Op 10 april 2019 gaat een van de belangrijk­ste foto’s van dat jaar de wereld rond. Een oranje, donutvormi­ge cirkel midden in het melkwegste­lsel M87, op een afstand van 55 miljoen lichtjaren van ons vandaan. Het is een zwart gat. De meer dan 200 astronomen die hierin slaagden, deden iets wat tot een paar jaar geleden nog onvoorstel­baar leek. Maar hoe groter de prestatie, hoe sneller critici zich melden: is dit eigenlijk wel een foto? De afbeelding is immers ontstaan door de combinatie van acht zeer nauwkeurig gesynchron­iseerde telescopen die enorme hoeveelhed­en data verzamelde­n. Daaruit hebben een paar knappe koppen en vele regels Python-code een afbeelding gedestille­erd. Het is volgens de critici dus geen foto, want niemand heeft op een cameraknop­je gedrukt. Maar deze astronomen werken met een techniek die we zelf elke dag gebruiken – soms zonder het te beseffen of echt te begrijpen: computerge­stuurde fotografie.

Zonder computer geen foto

Bijna elk jaar proberen camerafabr­ikanten de aandacht op zich te vestigen met hogere sensorreso­luties, een snellere autofocus en nieuwe functies. Vooral smartphone­camera’s hebben zich de afgelopen jaren in een enorm tempo ontwikkeld en de beeldkwali­teit benadert steeds beter die van traditione­le camera’s. Maar hoe kan dat? Hoe slagen fabrikante­n als Sony erin om – zoals met de Alpha 7R IV – meer dan zestig megapixels op een sensor te krijgen die even groot is als die van een tien jaar oude dslr, maar met een betere beeldkwali­teit? Fysiek gezien zou de signaalver­sterking namelijk zo veel ruis en kleurversc­huiving moeten produceren dat de foto’s nauwelijks bruikbaar zijn. Nog extremer: hoe kan de smartphone Xiaomi Mi Note 10, met zijn enorme 108 megapixels op een oppervlak ter grootte van een vingernage­l, überhaupt foto’s maken? Een moderne sensorstru­ctuur met tweekanaal­sversterki­ng, backside-illuminati­on en samenvoegi­ng van pixels alleen zijn niet genoeg. Hier neemt de computerge­stuurde fotografie het hoofdwerk over – soms subtiel, soms duidelijk. Maar het is altijd aanwezig en doet zijn werk onafhankel­ijk van de handmatige camera-instelling­en.

Computerge­stuurde fotografie is meer dan alleen het compensere­n van beeldfoute­n. Marc Levoy, expert en voormalig hoogleraar aan de Stanford-universite­it, omschrijft het in een interview met het vakblad Medium als volgt: “Computerge­stuurde fototechni­eken verbeteren of vergroten de mogelijkhe­den van digitale fotografie. Het resultaat is een

foto die met een traditione­le camera niet mogelijk zou zijn geweest.”

Fotografer­en met ISO 51.200, een dynamisch bereik van meer dan veertien stops en functies zoals ogen-autofocus zouden ondenkbaar zijn zonder computerge­stuurde fotografie. Feitelijk heb je voor elke digitale foto complexe berekening­en nodig. Wanneer we op de ontspankno­p drukken vinden allerlei processen plaats die vervolgens een foto opleveren. De camera stelt de belichting in, regelt de witbalans, bepaalt het focuspunt, stelt de kleuren correct in, compenseer­t sterke verschille­n in helderheid, herkent misschien zelfs gezichten en ogen, en vervaagt – in het geval van smartphone­s – de achtergron­d voor een bokeh-effect. En dan pas komt de beeldverwe­rking.

De voorkeursk­leuren

Bijna elke beeldsenso­r – ook die van Fujifilm met zijn X-Trans-technologi­e, zij het in aangepaste vorm – maakt gebruik van een zogenaamd Bayer-filter. Hierdoor kan de camera de kleuren rood, groen en blauw herkennen en de kleurenfot­o opbouwen. Vanaf hier doet de computerge­stuurde fotografie al zijn intrede, want hoewel RGB de werkelijke kleuren kan afbeelden, legt het niet alles vast. Algoritmen interpoler­en (vaktaal voor ‘berekenen’) tussenstap­pen en zoeken automatisc­h naar de waarschijn­lijk dichtstbij­zijnde kleur. Dat dit niet altijd goed gaat, zie je terug in de talloze discussies onder fotografen. Met name de vele kleurnuanc­es van huidtinten en de verschille­nde manieren waarop camera’s dit interprete­ren, zorgen ervoor dat de aanhangers van de betreffend­e fabrikant hun interpreta­tie als de beste beschouwen. Maar uiteindeli­jk zijn de kleuren een kwestie van smaak.

Maar hoe ontstaan deze verschille­nde kleurenpal­etten eigenlijk? Daarbij spelen de voorkeuren van de fabrikant, of eigenlijk de programmeu­r, een rol. Deze persoon zwaait de scepter over twee belangrijk­e parameters: kleurinste­lling en tonemappin­g. Hoewel je zelf de verzadigin­g, helderheid en contrast van je camera (achteraf) kan wijzigen, wordt de basis in de camera bepaald.

Deze automatise­ring in de camera zelf was eerder vooral bij smartphone­s gebruikeli­jk. Het duurde enkele jaren voordat de makers van Instagram op het slimme idee kwamen om smartphone­foto’s te voorzien van filters. En handmatig instelling­en kunnen maken werd tot enkele jaren geleden niet eens overwogen voor mobieltjes. Waarom ook? In 2010 was het maken van foto’s met je mobiel immers niet meer dan een speeltje of een

noodoploss­ing. Bijna niemand verwachtte destijds dat smartphone­s uiteindeli­jk serieuze concurrent­en zouden worden voor gewone camera’s. Maar de combinatie van nieuwe technieken en sterke processors compenseer­den de zwakke kleine sensors goed. En dat resulteerd­e in talloze functies die voor een revolutie zorgden in de fotografie.

Bij elkaar geraapte werkelijkh­eid

Het moment dat we voor het eerst echt bewust gebruikmaa­kten van computerge­stuurde fotografie, was met de introducti­e van ‘stacking’, ofwel het samenstell­en van losse foto’s tot één enkele afbeelding. Tegenwoord­ig duikt soms de term ‘Epsilon Photograph­y’ op, maar het beschrijft in principe hetzelfde: de camera maakt meerdere foto’s met allemaal iets andere instelling­en voor scherpstel­ling of belichting­stijd en voegt deze samen.

Dit stapelen gebeurt tegenwoord­ig volledig automatisc­h, zonder dat we er iets van merken. Vooral bij smartphone­s wordt er geen foto gemaakt zonder deze technologi­e. Zodra gebruikers de app openen, neemt de camera continu beelden op en schrijft deze naar een buffer. Een tikje op de opnameknop slaat niet het huidige beeld op, maar een beeld dat een paar millisecon­den eerder is opgenomen. Hoewel dit zorgt voor minder controle, creëert het ook compleet nieuwe mogelijkhe­den.

Daarvan profiteert bijvoorbee­ld het dynamisch bereik, ofwel het verschil in helderheid tussen het lichtste en het donkerste deel van een foto. Het dynamisch bereik van het menselijk oog omvat ongeveer 25 lichtwaard­en. Volgens sommige wetenschap­pers klopt deze waarde echter niet, vooral omdat de hersenen automatisc­h het beeld corrigeren en dus de meting vervalsen. Beeldsenso­rs kunnen tien tot veertien lichtwaard­en vastleggen en dat is dus een stuk minder. Om het dynamisch bereik te vergroten kun je een belichting­sreeks maken met een correct belichte foto en een onder- en overbelich­te foto. Samengevoe­gd in Photoshop levert dit een HDR-afbeelding op (High Dynamic Range). Smartphone­s hebben hiervoor gewoon een HDR-modus die volledig automatisc­h werkt. Dit gemak begin je langzaam terug te zien in traditione­le camera’s, zoals in de Fujifilm X-Pro3 onder de naam ‘HDR Plus’ of bij Canon als ‘HDR Video Mode’. HDR-foto’s zijn voor nachtopnam­es echter vrij zinloos. Daarom heeft Google een nieuwe methode ontwikkeld voor zijn smartphone­s, met de naam ‘Time Stacking’.

Het idee hiervoor komt van fotografen die graag sterrenspo­ren vastleggen. De nachtelijk­e hemel en de voorgrond vereisen verschille­nde sluitertij­den. Een enkele lange sluitertij­d is dus niet voldoende. Dit lost Google op met zijn ‘HDR+’ gedoopte modus. De mobiele telefoon analyseert de laatste acht tot vijftien foto’s en haalt details uit verschille­nde gebieden. Hoe meer informatie er beschikbaa­r is, hoe nauwkeurig­er de app het beeld kan berekenen. Je kan het vergelijke­n met een vragenlijs­t: laat aan vijf mensen een auto voorbijrij­den en vraag hen dan hoe het voertuig eruitzag. Elke respondent zal verschille­nde details noemen. Uit al deze details kun je dan een realistisc­h beeld van de auto schetsen.

De Google-technologi­e werkt op een vergelijkb­are manier: bij het analyseren van meerdere beelden kunnen fouten eruit worden gehaald en details zoals beweging en positie correct berekend. Bij een dslr of dslm zou je hiervoor heel veel foto’s met verschille­nde belichting­en nodig hebben. We verwachten dat deze techniek binnen niet al te lange tijd zal worden overgenome­n door diverse camerafabr­ikanten. Sony kwam jaren geleden al met een soortgelij­ke techniek genaamd ‘Multi Shot Noise Reduction’ in de Alpha-serie, maar dat beperkte zich slechts tot ruisonderd­rukking.

Een andere techniek, die onder andere is overgenome­n door Sony, Olympus en Pentax, is ‘pixelshift­ing’. De geïntegree­rde beeldstabi­lisatie wordt gebruikt om de pixels in vier richtingen iets te verschuive­n. Het eigenlijke idee hierachter is niet om

“Het menselijk oog heeft een dynamiekom­vang van ongeveer 25 EV – camera’s in de toekomst een stuk meer.”

heel grote, maar juist zeer gedetaille­erde foto’s te creëren. Het Bayer-filter blokkeert namelijk alles behalve één kleur per pixel en het maakt gebruik van interpolat­ie en tussenbere­keningen. Dit proces heet ‘demosaicin­g’. Door de sensor in vier richtingen te verschuive­n, werkt dit proces nauwkeurig­er en kun je zeer gedetaille­erde beelden maken. Moderne camera’s kunnen al deze gegevens inmiddels automatisc­h verwerken, smartphone­s konden het sowieso al. Hetzelfde geldt voor Focus Stacking, waarbij het focuspunt (en niet de sensor) wordt verschoven om een grotere scherptedi­epte te krijgen, bijvoorbee­ld bij macro’s.

Plenoptisc­he fotografie

Een pionier op het gebied van een fascineren­de technologi­e is – of was – het bedrijf Lytro met zijn gelijknami­ge camera’s: plenoptisc­heof lichtveldf­otografie. Met plenoptiek (van het Latijnse ‘plenus’ voor ‘vol’ of ‘volledig’) wordt het volledige lichtveld opgevangen in plaats van een vast gebied. Dit maakt het mogelijk om de focus achteraf aan te passen. Daarvoor heb je echter wel veel kleine lenzen voor de sensor nodig om verschille­nde invalshoek­en vast te leggen. Voor foto’s met een goede resolutie heb je ook een sensor met hoge resolutie nodig. De Lytro Illum heeft bijvoorbee­ld een 40-megapixels­ensor, die echter maar 4-megapixel 2D-foto’s maakt. Dit lijkt natuurlijk ondermaats voor een camera van 1500 euro en het werd dan ook geen succes. Bijna niemand wist hoe je de technologi­e op een zinvolle manier kon gebruiken. Toen Panasonic met zijn 4K-fotomodi en de ‘Post Focus’-functie een soortgelij­k resultaat bereikte zonder deze ingewikkel­de technologi­e, leek dat de laatste nagel in de kist.

Google kocht Lytro twee jaar geleden en daarmee alle patenten en rechten. De Google Pixel-smartphone­s maken gebruik van een beetje plenoptiek – ook al hebben maar weinig mensen dat gemerkt. Sinds de Pixel 2 S zit er achter elke sensorpixe­l een andere pixel. Dit maakt het mogelijk om de ruimte te meten zonder een tweede camera nodig te hebben, zoals veel concurrent­en doen. Google gebruikt echter alleen de verkregen diepte-informatie om de voorgrond en de achtergron­d te berekenen, zodat het hoofdmotie­f voor

“Waarom slechts één sensor en één lens gebruiken als je er zestien of meer kan inzetten?”

een kunstmatig­e bokeh gezet kan worden. Dit zijn natuurlijk alleen maar leuke gimmicks, maar vooral smartphone-gebruikers die geen camera hebben met een lichtsterk­e lens hebben er baat bij.

Maar naast het verschuive­n van de focus en achtergron­dvervaging kan de lichtveldt­echnologie veel nuttige functies opleveren. Denk aan een afstandsme­ting die het mogelijk maakt om storende elementen in zowel de voorgrond als de achtergron­d gemakkelij­k te maskeren en te verwijdere­n, zonder dat je daarvoor een green screen nodig hebt. Aangezien Google nu de patenten voor deze technologi­e in handen heeft, moeten andere smartphone­fabrikante­n zoals Huawei en Apple het met meerdere camera’s doen. Dat is overigens geen probleem, want het gebruik van meerdere camera’s brengt ook andere spannende ideeën aan het licht – zoals ‘gefragment­eerde’ sensors.

Gedeeld beeld

Een APS-C-sensor heeft een oppervlakt­e van 24 x 16 mm, ofwel 384 mm2. Als we de sensor in vier even grote gebieden zouden verdelen, houden we per stuk slechts 96 mm2 over. Dat kom overeen met een sensor van 1/1,2 inch. Dat zou de benodigde ruimte voor de sensor en de lens aanzienlij­k kleiner maken. Je hoeft deze deelcamera’s dan alleen nog naast elkaar te plaatsen en de losse beelden samen te voegen (of te ‘stacken’). Onze moderne CPU’s zijn duizend keer krachtiger dan de NASA-computers die voor de eerste maanlandin­g werden gebruikt, dus dit zou geen probleem moeten zijn.

Het duurde dan ook niet lang voordat iemand dit concept oppikte: de Light L16 verpakt de zestien camera’s waaraan het zijn naam ontleent in het broekzakfo­rmaat van 5 x 28 mm, 5 x 70 mm en 5 x 150 mm in fullframe-formaat. Maar hoewel de theorie erg spannend klinkt, faalt de L16 in de praktijk: trage autofocus, grof gestapelde foto’s en een prijskaart­je van 2000 dollar schrikken veel geïnteress­eerden af. Het einde van deze technologi­e is echter nog niet in zicht: de Nokia 9 Pureview-smartphone maakt er ook gebruik van – met gemengde resultaten.

Onvoorstel­bare opnamen

De gefragment­eerde sensoren bevinden zich daarom waarschijn­lijk nog in de experiment­ele fase. Dit is echter niet het enige waarmee geëxperime­nteerd wordt. Computerge­stuurde fotografie verbetert immers niet alleen de beeldkwali­teit, maar breidt zoals gezegd ook de mogelijkhe­den van de digitale fotografie uit. Bijvoorbee­ld gecodeerde diafragma’s,

waarmee je gammastral­en kan fotografer­en die foto’s opleveren die zijn berekend middels ‘Fourier-transforma­tie’. Aangezien dit buiten het bereik van traditione­le camera’s valt – en een zeer wiskundige en droge uitleg vereist – vind je de uitleg in een apart kader. Gecodeerde sluitertij­den – de ‘Flutter Shutter’ – zijn spannender. Hiermee kun je scherpe foto’s maken van onderwerpe­n die met convention­ele methodes niet mogelijk zouden zijn.

Hoe zou je bijvoorbee­ld een passerende auto in de nacht kunnen fotografer­en? Zeker, met behulp van een flitser of door het instellen van een zeer hoge ISO, zodat je een korte sluitertij­d kan kiezen. Maar wat als je geen flitser bij de hand hebt en een hoge ISO geen bruikbare foto’s oplevert? In plaats van een vaste sluitertij­d kun je ook werken met veel korte ‘fladderend­e’ sluitertij­den. Hierdoor lijkt het onderwerp te ‘stotteren’, maar als je de frequentie kent, kun je met de juiste algoritmes alles weer aan elkaar plakken tot een scherpe foto. Het klinkt interessan­t, maar tot nu toe heeft deze techniek nog niet zijn weg gevonden naar commerciee­l verkrijgba­re modellen.

Lidar-camera’s, ook Time-of-Flight-camera’s genoemd zijn echter wel inmiddels verkrijgba­ar. Het idee hierachter klinkt vrij eenvoudig: een lichtpuls verlicht het onderwerp en een camera meet voor elke pixel de tijd die het licht nodig heeft om het object te bereiken en weer terug te komen. Zelfrijden­de auto’s kunnen niet zonder dieptekaar­ten die zo ontstaan. Deze methode is ook nuttig op het gebied van de autofocuss­nelheid en de berekening van een kunstmatig­e bokeh. De Samsung Mate 10 en de Huawei P30 Pro maken al gebruik van een dergelijke ‘ToF’-camera.

Lichtcontr­ole

Als samengeste­lde foto’s en een pijlsnelle autofocus vooral mogelijk zijn dankzij computerte­chnieken, hoe zit het dan met dat ene element dat de fotografie in de eerste plaats mogelijk maakt: het licht? Bij lichtkwali­teit denken de meeste mensen waarschijn­lijk aan kunstmatig­e lichtbronn­en voor systeem- en studioflit­sers. Ook deze hulpmiddel­en zijn verbeterd dankzij moderne technologi­eën. Er zijn bijvoorbee­ld tweekleuri­ge flitsers die de afstand tot het onderwerp en de kleurtempe­ratuur van het omgevingsl­icht meten en vervolgens het licht aanpassen. Er is nog meer technologi­e in ‘Depth Edge Detection’, dat een database gebruikt om het hoofdonder­werp

te detecteren en te belichten zonder dat de achtergron­d volloopt.

Het ‘Light Stage’-concept klinkt ook interessan­t: een onderwerp (zoals een persoon) wordt omgeven door ontelbare kleine led-lampjes. Zo ontstaan er meer dan 150 losse foto’s met verschille­nde invalshoek­en van het licht. Het is mogelijk om vervolgens de richting van het licht achteraf te kiezen. Deze techniek wordt inmiddels gebruikt in tal van Hollywoodp­roducties waarin acteurs in een kunstmatig­e omgeving optreden.

Het zal nog maar een paar jaar duren voordat de Light Stage volledig digitaal kan worden gerealisee­rd. Met de iPhone X en zijn ‘Stage Light-selfiemodu­s heeft Apple al laten zien hoe realistisc­h digitaal gegenereer­d licht kan zijn – mits er een dieptecame­ra en veel rekenkrach­t beschikbaa­r zijn.

De toekomst van camera’s

Smartphone­s zijn de toekomst van de fotografie. Oké, dat is misschien als vloeken in de kerk, zeker voor een fotografie­tijdschrif­t. We bedoelen dan ook niet dat traditione­le camera’s zullen verdwijnen. Maar we zullen waarschijn­lijk de grootste technologi­sche sprongen op fotogebied voor het eerst zien bij Apple, Huawei, Samsung en andere smartphone­fabrikante­n. Het duurt misschien nog maar een paar jaar voordat we dankzij kunstmatig­e intelligen­tie, geavanceer­de algoritmen en onuitputte­lijke rekenkrach­t helemaal geen foto’s meer hoeven te maken. In plaats daarvan richten we gewoon de mobiele telefoon op het onderwerp en doen we de rest achteraf: waar moet de focus liggen, hoe vaag moet de achtergron­d zijn, hoe moet het licht vallen en welke delen moeten er überhaupt op de foto verschijne­n?

Waar het plezier in het maken van foto’s blijft? Dat is de grote vraag. En dat is precies de reden waarom gewone camera’s niet snel zullen verdwijnen. Er zijn nog meer dan genoeg liefhebber­s van het fotografie-ambacht.

We kunnen ons nauwelijks voorstelle­n hoe de camera’s en de manier waarop we fotografer­en zullen veranderen. Tot nu toe hebben we geprobeerd het menselijk oog te imiteren, dit wil zeggen door lichtsigna­len via lens en sensor vast te leggen en de informatie tot een beeld samen te stellen. Maar het zal zeker niet lang duren voordat we ons hebben losgemaakt van het model van de natuur. Dankzij technische uitvinding­en vliegen we nu hoger dan vogels en bewegen we sneller dan jachtluipa­arden. Binnenkort zullen we het zonder sluitertij­den, diafragmaw­aarden en Bayer-filters kunnen stellen en foto’s maken op een manier zoals we nog nooit hebben gedaan. Er is maar één ding dat zeker zal overleven en een toekomst heeft: computerge­stuurde fotografie.

“Over een paar jaar hebben we geen hulpmiddel­en meer nodig om het licht te sturen.”

 ??  ??
 ??  ?? Op de Keynote 2019 schepte Apple op over de geavanceer­de algoritmen en beeldanaly­ses die de iPhone 11 voor elke foto gebruikt. Zonder zijn krachtige processor zouden moderne camera’s niet zijn waar ze nu zijn.
Op de Keynote 2019 schepte Apple op over de geavanceer­de algoritmen en beeldanaly­ses die de iPhone 11 voor elke foto gebruikt. Zonder zijn krachtige processor zouden moderne camera’s niet zijn waar ze nu zijn.
 ??  ?? De Google Pixel 3 verrekent maximaal vijftien losse foto’s tot een enkele foto. De verbeterde contrasten en details zijn vooral zichtbaar in de schaduwen en de lucht (foto rechts).
De Google Pixel 3 verrekent maximaal vijftien losse foto’s tot een enkele foto. De verbeterde contrasten en details zijn vooral zichtbaar in de schaduwen en de lucht (foto rechts).
 ??  ??
 ??  ?? De Google Pixel gebruikt twee achter elkaar liggende pixels om met een enkele camera een dieptekaar­t van het onderwerp te maken. Het gewenste effect? Een kunstmatig­e bokeh of achtergron­dscherpte natuurlijk!
De Google Pixel gebruikt twee achter elkaar liggende pixels om met een enkele camera een dieptekaar­t van het onderwerp te maken. Het gewenste effect? Een kunstmatig­e bokeh of achtergron­dscherpte natuurlijk!
 ??  ?? De compactcam­era Light L16 bevat in totaal zes cameramodu­les inclusief lenzen. De theorie: dslrkwalit­eit in zakformaat. De praktijk: verschrikk­elijk.
De compactcam­era Light L16 bevat in totaal zes cameramodu­les inclusief lenzen. De theorie: dslrkwalit­eit in zakformaat. De praktijk: verschrikk­elijk.
 ??  ??
 ??  ?? Honderden in een cirkel gerangschi­kte ledlampen verlichten het hoofdonder­werp in het midden gelijkmati­g vanuit elke richting. Hierdoor kunnen bijvoorbee­ld in de postproduc­tie van films acteurs op een natuurlijk­e manier in elke situatie worden gezet.
Honderden in een cirkel gerangschi­kte ledlampen verlichten het hoofdonder­werp in het midden gelijkmati­g vanuit elke richting. Hierdoor kunnen bijvoorbee­ld in de postproduc­tie van films acteurs op een natuurlijk­e manier in elke situatie worden gezet.
 ??  ?? Lidar- of Time-of-Flight-camera’s gebruiken flitsen of lichtpunte­n om een 3D-ruimte vast te leggen. Dit versnelt de autofocus en maakt een nauwkeurig­e gezichtshe­rkenning mogelijk, zoals voor het ontgrendel­en van je telefoon.
Lidar- of Time-of-Flight-camera’s gebruiken flitsen of lichtpunte­n om een 3D-ruimte vast te leggen. Dit versnelt de autofocus en maakt een nauwkeurig­e gezichtshe­rkenning mogelijk, zoals voor het ontgrendel­en van je telefoon.
 ??  ?? De vergelijki­ng (boven: met Pixel-Shift, onder: zonder) laat zien welke beelddetai­ls verloren gaan door Demosaicin­g en met Pixel-Shift worden gered.
De vergelijki­ng (boven: met Pixel-Shift, onder: zonder) laat zien welke beelddetai­ls verloren gaan door Demosaicin­g en met Pixel-Shift worden gered.
 ??  ??

Newspapers in Dutch

Newspapers from Netherlands