Enttarnung der künstlichen Intelligenz
Digitale Wasserzeichen: Um der Gefahr von gefälschten Inhalten vorzubeugen, sollen KI-generierte Bilder oder Audios schnell als solche erkennbar sein.
OpenAI wieder zusammen. Sie nennt sich Content Authenticity Initiative (CAI) und wurde von Adobe, Microsoft oder eben der New York Times ins Leben gerufen. OpenAI unterstützt sie ebenso wie Google. Die Initiative wiederum steht hinter dem offenen Standard C2PA.
Dieser erfasst den „Ursprung sowie jede Bearbeitung eines Bildes und speichert es in den Metadaten“, erklärt Florian Hasibar, Mitgründer von mytalents.ai, einer Lernplattform, die sich mit dem Einsatz von generativer KI im Arbeitsalltag beschäftigt. „C2PA scheint sich durchzusetzen“, befindet der KI-Experte. Auch, weil selbst Kamerahersteller wie Leica oder Canon den
Standard verwenden. „Gekennzeichnet“werden mit C2PA also nicht nur synthetische Bilder, sondern auch „echte“Fotos. Konzerne wie Meta gehen noch weiter und versprechen Tools, die KI-generierte Bilder entdecken, selbst wenn Metadaten geändert wurden.
Google tüftelt indes an einer Technologie, die sich SynthID nennt. Diese verspricht zweierlei. Einerseits sollen damit KIBilder erkannt werden, andererseits wirkt sie selbst schon in der Entstehung von Bildern. SynthID greift dabei auf die Pixelstruktur der Bilder zu und webt dort die Wasserzeichen ein. So, dass sie für das menschliche Auge unsichtbar sind, von
Technologie aber erkannt werden. Was freilich zugleich bedeutet, dass die Nutzerinnen und Nutzer Zugriff auf die Erkennungssoftware benötigen.
SynthID, so verspricht es Google, würde jedenfalls weder die Bildqualität beeinträchtigen noch durch eine Bearbeitung der Bilder verschwinden. Dass der Konzern von der Technologie überzeugt ist – auch wenn sie nicht vor „extremer Manipulation“gefeit sei –, zeigt auch die Tatsache, dass SynthID mittlerweile selbst bei Audiodateien eingesetzt wird. Die Technik ist adaptiert, das Prinzip bleibt dasselbe: Während das menschliche Ohr die Kennzeichnung nicht wahrnimmt, ist technologisch schnell erkennbar, dass die Audios KI-generiert sind.
In der Erkennung schlummern übrigens die größten Herausforderungen. OpenAI etwa zog jüngst den hauseigenen AI Classifier wieder zurück. Das Tool sollte längere KI-Texte erkennen. Tat das aber mehr schlecht als recht. Der einstigen Ankündigung hat OpenAI lediglich einen Absatz vorangestellt: „Wir erforschen derzeit effektivere Techniken zur Ursprungserkennung von Text.“