Die Ge­fahr aus der Ka­me­ra

Die Bil­der­ken­nungs­soft­ware von Cle­ar­view AI sorgt für Dis­kus­sio­nen. Das Start-up wirbt mit den Mög­lich­kei­ten bei der Ver­bre­chens­be­kämp­fung. Kri­ti­ker fürch­ten je­doch das En­de der Pri­vat­sphä­re und se­hen die De­mo­kra­tie in Ge­fahr.

Rheinische Post Hilden - - Wirtschaft - VON FLO­RI­AN RINKE

NEW YORK Es gibt wohl kaum ei­nen Au­tor, der so span­nend düs­te­re Zu­kunfts­wel­ten kre­iert wie Marc Els­berg. Sei­ne Ro­ma­ne sind War­nun­gen vor den Mög­lich­kei­ten der Wis­sen­schaft – und sehr oft er­schre­ckend re­al. In sei­nem 2014 er­schie­ne­nen Buch „Ze­ro“schrieb Els­berg über ei­ne Welt vol­ler Da­ten­bril­len, Ka­me­ras und Smart­pho­nes, in de­nen es kein Ent­kom­men mehr gibt, weil Men­schen prak­tisch über­all er­kannt wer­den kön­nen. Das ist kei­ne Fik­ti­on mehr, wie ei­ne Re­cher­che der „New York Ti­mes“über das New Yor­ker Start-up Cle­ar­view AI zeigt.

Was macht das Start-up?

Cle­ar­view AI durch­sucht das In­ter­net mit ei­nem Al­go­rith­mus nach al­len öf­fent­lich zu­gäng­li­chen Bil­dern. Man grei­fe da­bei nicht auf pri­va­te In­hal­te in So­zia­len Netz­wer­ken zu­rück, heißt es. Den­noch kann sich das Sys­tem of­fen­bar auf rund drei Mil­li­ar­den Fo­tos stüt­zen, die in Netz­wer­ken wie Face­book und Youtube ge­sam­melt wur­den. Nut­zer der App kön­nen das Bild ei­ner Per­son hoch­la­den und be­kom­men laut „New York Ti­mes“an­schlie­ßend Bil­der an­ge­zeigt, auf de­nen die­se Per­son auch zu se­hen ist – mit ei­nem Link, wo die­ses Fo­to ent­stan­den ist. Meh­re­re Si­cher­heits­be­hör­den in den USA set­zen das Sys­tem an­geb­lich be­reits ein.

Wie funk­tio­niert die Ge­sichts­er­ken­nung?

Das Start-up setzt an­geb­lich ein künst­li­ches neu­ro­na­les Netz, des­sen Auf­bau den Schich­ten des mensch­li­chen Ge­hirns nach­emp­fun­den ist, ein. Es über­setzt die op­ti­schen Merk­ma­le der Men­schen in les­ba­re Da­ten/ma­the­ma­ti­sche For­meln, die sich an­schlie­ßend mit den aus an­de­ren Da­ten ge­won­ne­nen Fo­tos ver­glei­chen las­sen.

Wie se­hen Da­ten­schüt­zer sol­che An­ge­bo­te?

Der Bun­des­be­auf­trag­te für Da­ten­schutz, Ul­rich Kel­ber, hat vor dem Ein­satz von Tech­no­lo­gi­en zur Ge­sichts­er­ken­nung im öf­fent­li­chen Raum ge­warnt. Grund­sätz­lich stel­le die bio­me­tri­sche Ge­sichts­er­ken­nung „ei­nen po­ten­zi­ell sehr weit­ge­hen­den Grund­rechts­ein­griff dar, der auf je­den Fall durch kon­kre­te Vor­schrif­ten le­gi­ti­miert sein müss­te“, sag­te Kel­ber. Ei­ne sol­che Le­gi­ti­ma­ti­on se­he er der­zeit nicht. „Ich wür­de es be­grü­ßen, wenn in Eu­ro­pa die Ge­sichts­er­ken­nung im öf­fent­li­chen Raum un­ter­sagt wür­de.“

Bie­ten sol­che Tech­no­lo­gi­en nicht auch Chan­cen?

Tech­no­lo­gie ist we­der gut noch bö­se. Sys­te­me, die Mil­lio­nen oder gar Mil­li­ar­den

Bil­der ana­ly­sie­ren, könn­ten sehr hilf­reich sein. So zeig­te die US-Ame­ri­ka­ne­rin Joy Ross be­reits vor zwei Jah­ren in ei­nem Youtube-Vi­deo, wie sie mit­hil­fe der App AI­po­ly Vi­si­on ein­kauft. Ross ist blind, doch dank der App konn­te sie ver­schie­de­ne Ap­fel­sor­ten un­ter­schei­den, in­dem sie die Ka­me­ra ih­res Smart­pho­nes auf die­se rich­te­te.

Auch bei der Er­ken­nung von Krebs oder der Ana­ly­se von Rönt­gen­bil­dern wer­den in­tel­li­gen­te Sys­te­me be­reits ein­ge­setzt – und er­zie­len da­bei häu­fig schon bes­se­re Dia­gno­se-Er­geb­nis­se als er­fah­re­ne Me­di­zi­ner. Und selbst Soft­ware zur Ge­sichts­er­ken­nung kann nütz­lich sein. Smart­pho­ne-Her­stel­ler wie App­le set­zen sie bei­spiels­wei­se ein, da­mit Nut­zer die Fo­tos auf ih­rem Ge­rät durch­su­chen kön­nen, was an­ge­sichts im­mer grö­ße­rer Men­gen an Bil­der hilf­reich sein kann. Auch Cle­ar­view selbst ar­gu­men­tiert mit dem ge­sell­schaft­li­chen Nut­zen, den das ei­ge­ne An­ge­bot bringt – bei der Ver­bre­chens­be­kämp­fung.

War­um ist der Ein­satz die­ser Tech­no­lo­gie den­noch pro­ble­ma­tisch?

Es gibt vie­le Fäl­le, wo die Mög­lich­kei­ten der Tech­nik zum Nach­teil der Men­schen ein­ge­setzt wer­den könn­ten. Wenn et­wa Bür­ger nur auf­grund der Ge­fahr, re­gis­triert zu wer­den, nicht an De­mons­tra­tio­nen teil­näh­men, sei der li­be­ra­le Rechts­staat ge­fähr­det, so Kel­ber. Die „New York Ti­mes“be­rich­te­te kürz­lich, dass Chi­na Soft­ware zur Ge­sichts­er­ken­nung ein­setzt, um die Min­der­heit der Ui­gu­ren zu über­wa­chen. Auch bei Cle­ar­view ist nicht klar, wie die Soft­ware ein­ge­setzt wird und wer die Kun­den sind. Der „New York Ti­mes“zu­fol­ge bot das Un­ter­neh­men die Soft­ware auch dem ras­sis­ti­schen Re­pu­bli­ka­ner Paul Neh­len an, da­mit die­ser po­li­ti­sche Geg­ner aus­spio­nie­ren kön­ne. Theo­re­tisch könn­ten ei­fer­süch­ti­ge Ge­set­zes­hü­ter das Pro­gramm ein­set­zen, um ih­re Part­ner zu über­wa­chen. Laut „New York Ti­mes“wuss­te Cle­ar­view, dass meh­re­re Po­li­zis­ten ein Fo­to des re­cher­chie­ren­den Jour­na­lis­ten auf des­sen Ge­heiß mit dem Sys­tem über­prüf­ten. Das Start-up hat­te al­so Ein­blick in po­li­zei­in­ter­ne Pro­zes­se.

Wer steckt hin­ter Cle­ar­view?

Das Start-up grün­de­ten laut „New York Ti­mes“der Aus­tra­li­er Ho­an Ton-That und Richard Schwartz, ein Be­kann­ter des frü­he­ren New Yor­ker Bür­ger­meis­ters und Do­nald-Trump-Ver­trau­ten Ru­dy Gui­lia­ni. Fi­nan­ziert wur­de es auch von Pe­ter Thiel, der be­reits in Face­book in­ves­tier­te und mit Pa­lan­tir ein wei­te­res Un­ter­neh­men auf­bau­te, des­sen Tech­nik un­ter an­de­rem zur Ver­bre­chens­be­kämp­fung ein­ge­setzt wird.

FO­TO: SHUT­TER­STOCK

Soft­ware zur Ge­sichts­er­ken­nung ar­bei­tet mit künst­li­cher In­tel­li­genz. Sie er­fasst we­sent­li­che Merk­ma­le und spei­chert die­se ab.

Newspapers in German

Newspapers from Germany

© PressReader. All rights reserved.