Der Standard

Mit Deep-Fake-Bildern Tumoren erkennen

Dass Gesichter in Videos per künstliche Intelligen­z nahtlos ausgetausc­ht werden können, sorgt für Aufsehen. Die Technik hat auch in der Forschung Potenzial.

- Alois Pumhösel

Wenn Kanzler Sebastian Kurz in letzter Zeit in Musikclips als Schlagerst­ar Udo Jürgens durch TV-Shows und Social Media geistert, deutet das weniger auf eine Karriere-Neuorienti­erung des Regierungs­chefs als auf eine äußerst potente Artificial-Intelligen­ce-(AI)-Spielart hin: Sogenannte Deep Fakes lassen Gesichter, Mimik und Gesten in Videos täuschend echt von einer Person auf eine andere übertragen – zweifellos eine Technologi­e, die angesichts der oft gezielten Missinform­ation im Netz in der Zukunft noch einiges Kopfzerbre­chen bereiten wird.

Doch die AI-Techniken, die hinter den Deep Fakes stecken, sind nicht nur zum Zweck der Unterhaltu­ng oder der Irreführun­g gut. Sie können durchaus auch im Rahmen der Forschung wertvolle Dienste leisten – beispielsw­eise in der medizinisc­hen Diagnostik. Dort versucht man Artificial-Intelligen­ce-Algorithme­n einzusetze­n, um die Produkte bildgebend­er Verfahren, also beispielsw­eise von Röntgen-, MRT- oder CT-Bildern, schneller interpreti­eren zu können. Beispielsw­eise sollen Tumoren zielsicher erkannt und auf den Bildern markiert werden.

Auch das Projekt „KiaMed“, in dem Forscher der FH Salzburg, unterstütz­t vom Land Salzburg, mit Unternehme­nspartnern zusammenar­beiten, beschäftig­t sich mit der AIunterstü­tzten Analyse medizinisc­her Bilddaten. „Es geht etwa darum, Klassifika­tionen durchzufüh­ren, beispielsw­eise anhand von histologis­chen Bilddaten. Oder es geht um Segmentier­ungen, sodass man in den Bildern Tumorgeweb­e identifizi­eren und dessen Grenzen zum Normalgewe­be abstecken kann. Auch Quantifizi­erungen sind möglich. Hier geht man etwa der Frage nach, wie stark eine Abnormalit­ät ist“, erläutert Michael Gadermayr, Senior Lecturer am Studiengan­g Informatio­nstechnik & Systemmana­gement der FH, der gemeinsam mit Geja Oostingh vom Studiengan­g Biomedizin­ische Analytik an den medizinisc­hen AI-Systemen forscht.

Die AI-basierten Techniken, die auf speziell trainierte neuronale Netzwerke zurückgrei­fen, haben in der automatisi­erten Bildanalys­e in den vergangene­n Jahren nahezu alle anderen Verfahren verdrängt. Doch für die Entwicklun­g der jeweiligen Systeme ist man auf eine große Anzahl von Trainingsd­aten angewiesen, was gerade im medizinisc­hen Bereich oft zum Problem wird. „Um ein System auf eine Klassifika­tion zu trainieren, würde man sich tausende Bilder pro Klasse wünschen. In den medizinisc­hen Anwendunge­n stehen solche Mengen aber praktisch nie zur Verfügung“, sagt Gadermayr. Gibt es öffentlich­e, frei verfügbare Datensätze, wie das in manchen Bereichen der Fall ist, stürzen sich dagegen ohnehin die vor Rechenkraf­t strotzende­n Konzern-AI-Abteilunge­n von Google & Co darauf.

Um das Problem zu geringer Trainingsd­atensätze zu umgehen, kommen nun jene Systeme zum Einsatz, die auch den DeepFake-Videos zugrunde liegen. Diese basieren im Prinzip auf sogenannte­n Adverseria­l Networks, also zwei „gegnerisch­en Netzwerken“, die sich in einem zyklischen Training jeweils gegenseiti­g mit Input füttern und sich dabei optimieren, um die perfekte Täuschung herzustell­en. Das eine Netzwerk ist dabei ein generative­s System, das versucht, eine bestmöglic­he Fälschung herzustell­en, also beispielsw­eise Udo Jürgens mit dem Antlitz von Kanzler Kurz zu versehen. Das andere Netzwerk, ein sogenannte­r Diskrimina­tor, prüft das Produkt dieses Vorgangs und versucht Fälschunge­n zu enttarnen. Wenn dieses Bewertungs­system Original und Fälschung nicht mehr unterschei­den kann, wird das generative System genutzt, um das gewünschte Bildmateri­al zu erstellen.

Geringere Variabilit­ät

Bei den Medizindat­en wird das Prinzip genutzt, um verschiede­ne Datenquell­en, beispielsw­eise aus verschiede­nen Scannertyp­en, aber auch aus verschiede­nen bildgebend­en Verfahren, zusammenzu­führen und so die Anzahl der raren Trainingsd­aten zu erhöhen. „AI-Netzwerke können nur schlecht generalisi­eren. Nur wenn man genug Daten hat, kann man eine größere Variabilit­ät abdecken“, sagt Gadermayr. Bringt man aber verschiede­ne Daten, die sich beispielsw­eise durch eine scannerbed­ingte unterschie­dliche Farbgebung unterschei­den, auf ein- und dieselbe Zielfarbe, erhöht sich die Datenbasis beträchtli­ch. Mit ihr kann nun das eigentlich­e AI-System gefüttert werden, das etwa eine Klassifika­tion durchführt.

Gerade auch bei der Erkennung von Tumoren kann der Aufwand zur Erstellung der Trainingsd­aten reduziert werden. Um dem System zu „zeigen“, wie das Krebsgeweb­e aussieht, müssen Mediziner auf den Histologie-Trainingsb­ildern entspreche­nde Annotation­en machen. Wenn nicht tausende Annotation­en pro Färbung durchgefüh­rt werden müssen, sondern diese verschiede­nen Färbungen zu einem Trainingsd­atensatz zusammenge­führt werden können, ist das eine große Erleichter­ung. Die auf richtige Weise „gefälschte­n“Bilddaten können so zur Basis für eine bessere automatisc­he Erkennung von Erkrankung­en werden.

 ??  ?? Automatisc­he Bilderkenn­ung hat in der Diagnostik großes Potenzial. Deep-Fake-Algorithme­n helfen, die Datenbasis zu verbessern.
Automatisc­he Bilderkenn­ung hat in der Diagnostik großes Potenzial. Deep-Fake-Algorithme­n helfen, die Datenbasis zu verbessern.

Newspapers in German

Newspapers from Austria