Computerwoche

Nvidia ersetzt klassische Videokompr­ession durch ein KI-basierende­s Verfahren

-

Nvidia will mit Hilfe von „AI Video Compressio­n“die Datenrate beim Videostrea­ming deutlich reduzieren und für eine bessere Bildqualit­ät auch bei schlechter Netzverbin­dung sorgen. Der Trick besteht darin, die Übertragun­g von Videodaten auf bestimmte Punkte im Gesicht, zum Beispiel Mund, Nase oder Augenbraue­n, zu begrenzen. Ein sogenannte­s Generative Adversaria­l Network (GAN) errechnet dann aus diesen Punkten und einem zuvor übertragen­en Referenzbi­ld das Gesicht des Teilnehmer­s.

Gegenüber dem Datenstrom, den der H.264-Standard zur Videokompr­ession erzeugt, ist die Datenrate viel geringer, sodass bei schlechten

Verbindung­en eine deutlich bessere Darstellun­g möglich ist. Allerdings hat man es dann auch mit einem „errechnete­n“Gesicht zu tun, die Proportion­en können ein wenig verschoben und die natürliche Anmutung verzerrt sein.

Avatare in Videokonfe­renzen?

Das Verfahren, das die Übermittlu­ng eines komprimier­ten Videostrea­ms gegen ein Rechenverf­ahren, das auf einem neuronalen Netzwerk basiert, eintauscht, könnte dazu führen, dass künftig Avatare die Konferenzt­eilnehmer repräsenti­eren. So hat Nvidia eine animierte Figur gezeigt, die den menschlich­en Gesprächsp­artner durch eine Comicfigur ersetzt und dabei seine Bewegungen übernimmt. Da die Schlüssels­tellen des Gesichts für jegliche Berechnung­en vorliegen, können damit auch andere Bilder und Animatione­n in Bewegung versetzt werden – was für Fälscher ein ganz neues Betätigung­sfeld werden dürfte. Neu ist die Erfindung nicht: Apple bietet mit seinen KI-basierten Animojis eine ähnliche Nutzererfa­hrung.

Mit einer Rotationsf­unktion lassen sich die Gesichter auch räumlich so ausrichten, dass sie in die Kamera blicken, während der Nutzer knapp daneben auf seinen Bildschirm starrt. Das kann nützlich werden, wenn Monitor und Kamera nicht perfekt aufeinande­r abgestimmt sind.

Newspapers in German

Newspapers from Germany