Titelstory: Den Strahlen auf der Spur Professionelle Grafikkarten von Nvidia und PNY
Mit dem Raytracing-Verfahren entstehen besonders realistisch wirkende 3D-Bilder. Doch es braucht dafür nicht nur viel Grafikleistung, sondern oft auch Geduld. Bis jetzt. Denn die professionellen Grafiklösungen von PNY mit Turing-Technologie und der RTX-Pl
Schon vor einem halben Jahrhundert hat unter anderem Arthur Appel von IBM einen Algorithmus für das computergenerierte Raytracing vorgestellt. Das Verfahren beruht darauf, dass die Lichtstrahlen zum Beispiel vom Auge zu den Objekten oder von Objekten zu ande
ren Objekten zurückverfolgt werden. Damit kommt es unserer Wahrnehmung der Welt oder der Funktionsweise einer Kamera recht nahe, nur verfolgt man den Weg der Lichtstrahlen von der anderen Seite, vom Auge oder Objektiv aus. Das hat allerdings seinen Preis. Es braucht oft Stunden oder Tage, um nur einen Frame in hoher grafischer Qualität via Raytracing zu berechnen. In der Filmproduktion oder der Werbung muss das, abgesehen vielleicht von den Kosten, kein Problem sein, aber für die realistische 3D-Grafik in Spielen oder der virtuellen Realität, wo Echtzeitrendering gefragt ist, scheidet Raytracing somit aus.
Doch eine neue Generation von Grafikprozessoren hilft, diese Hürde zu überwinden. Einen Vorgeschmack erhielten Besucher der Siggraph bereits vor vier Jahren, als es Nvidia mit seinen Grafiklösungen wie OptiX gelang, ein CAD-Modell via Raytracing in wenigen Sekunden in ein fotorealistisches Bild zu verwandeln. Doch noch fehlte eine dedizierte Hardware-Architektur.
Raytracing auf der GPU
Mit der Turing-Architektur der aktuellen professionellen Grafiklösungen von Nvidia, die im vergangenen Jahr auf den Markt gekommen sind, ändert sich das gerade. Der Grafikspezialist hat die Raytracing-Funktionalität sozusagen in Hardware gegossen. Was bisher mit
Software emuliert werden musste, erledigen nun spezialisierte RT-Cores in der GPU. Aber das heißt nicht, dass jedes 3D-Spiel nun raytracing-fähig wäre. Die Cores beschleunigen das 3D-Rendering, und mit Raytracing-SDKs haben die Entwickler nun die Möglichkeit, das Potential der Grafikkarten auszureizen und entsprechende Funktionen in ihre Software einzubauen. Auch die Grafikschnittstelle DirectX unterstützt nun unter dem Namen DXR jetzt das hardwarebasierte Echtzeit-Raytracing.
Die neue Plattform von Nvidia, RTX, steht nicht nur für Raytracing, sondern vereint mehrere Grafiktechnologien, die Turing-Architektur und Entwicklerkits in sich. Sie ermöglicht mit den Programmierschnittstellen wie Nvidias OptiX, DXR oder Vulkan das Echtzeit-Rendering fotorealistischer Bilder und Szenarien mit Schatten, Reflexionen und Lichtbrechungen. Diese Funktionen richten sich vor allem an 3D-Künstler und Visualisierungsexperten und andererseits machen sie die 3D-Inhalte auch den Privatanwender schnell zugänglich.
Künstliche Intelligenz
Die neue RTX-Generation der professionellen Grafikkarten kann aber noch mehr, und sie bedient sich dabei aus dem Regal der High-End-Komponenten. 3D-Anwendungen können nun auch auf die bereits aus der Volta-Architektur bekannten Tensor Cores zurückgreifen. Diese Deep-Learning-Einheiten werden auf diese Weise nun auch einem größeren Publikum zugänglich sein. Nicht nur die Entwickler sollen, unterstützt von SDKs, von intelligenterer Bildbearbeitung und der Automatisierung sich wiederholender Aufgaben profitieren, sondern auch CGISpezialisten, Designer und Gamer. Denn so lassen sich rechenintensive Abläufe beschleunigen, was auch den Endanwendern Zeit und Ressourcen spart. Ein spektakuläres Beispiel für KI-Anwendungen sind die täuschend echt wirkenden computergenerierten Darstellungen von Gesichtern, für die Nvidia ein neuronales Netz verwendet.
Shading und realistischere Simulationen
Auch das Shading erfuhr einige Verbesserungen. Variable-Rate-Shading, TextureSpace-Shading und Multiview-Rendering versprechen eine detailliertere Darstellung und eine optimierte Interaktivität bei der Arbeit an großen Modellen und beim Aufenthalt in virtuellen Welten.
Schon länger bekannt und etabliert sind Nvidias Technologien, die das Verhalten von 3D-Objekten detailliert beschreiben. Diese werden von den StreamingMultiprocessor-Cores der neuen Plattform unterstützt, die auch die bekannten CUDA-Cores umfassen. Flüssigkeiten, Partikel, Rauch, Feuer oder Bekleidung lassen sich mit Technologien wie PhysX schneller und realistischer simulieren und in virtuelle Umgebungen einbinden. Diesen Simulationen kommt die stärkere Parallelisierung von Rechenaufgaben, eine gegenüber der vorhergehenden Generation verdoppelte Bandbreite und eine neuartige Cache-Architektur zugute.
Datenaustausch
Für den Austausch von visualisierten Inhalten sorgen Standardformate wie Universal Scene Description (USD) von Pixar oder das Format der Material Definition Language (MDL). ( anm) ■ Weitere Informationen: www.pny.eu und www.nvidia.de