Aufbruch in eine neue
Produktionen stieg stetig an. Wollte man beispielsweise im Film „Ben Hur“von 1959 Menschenmassen zeigen, so musste man zehntausende Komparsen engagieren, um dies zu ermöglichen. Um flexibel bei den Bildhintergründen zu sein, setzte man schon damals auf Bluescreen-hintergründe, um Darsteller im Vordergrund aufzuzeichnen und diese später mit neuen Hintergründen zu kombinieren. Dies geschah natürlich nicht im Computer, sondern musste mit mehreren Filmnegativen per mühevoller Handarbeit arrangiert werden. Schon in Schwarz-weiß-filmen nutzte man diese Freistellungstechnik, indem man beispielsweise schwarze Hintergründe abfilmte (durch die Negativ-kopie farblos). Eine besondere Herausforderung stellten Fantasy-filme dar, bei denen Puppen zum Einsatz kamen. Steckte dabei kein Darsteller im Kostüm, mussten Figurenmodelle Millimeter
für Millimeter per Hand animiert werden. Die einzelnen Bewegungsphasen der Figuren (oftmals 12 bis 24 pro Sekunde) wurden von Kameras aufgezeichnet und anschließend als Animation ähnlich der eines Daumenkinos abgespielt. Die aufwändigen Stop-motion-animationen (monatelange Arbeiten für wenige Minuten Film) erscheinen selbst aus heutiger Sicht überaus beeindruckend und die Macher von damals, allen voran Ray Harryhausen, inspirieren Filmemacher bis heute. Viele „Oldschool“filme sind sogar deutlich besser gealtert als die ersten Gehversuche mit Computeranimationen. Doch der technische Aufwand von damals hatte auch seine Grenzen. Ein Beispiel, auf das wir später noch einmal zu sprechen kommen, sind Filmfahrten im Auto oder der Ritt zu Pferde. Ist die Kamera ausreichend weit entfernt, werden solche Aufgaben häufig von Stunt-doubles
So kommen realistische Computergrafiken auf den Bildschirm
übernommen, während bei Nahaufnahmen oftmals ein beliebter Filmtrick zum Einsatz kommt. Die Darsteller sitzen in einem Auto oder auf einem mechanischen Rücken, der später im Film ein Pferd darstellen soll und durch eine bewegliche Plattform wird häufig das Gefühl erzeugt, dass sich der Unterbau bewegt. Statt den gesamten Unterbau durch eine Landschaft zu bewegen, wählt man gerade bei Serienproduktionen lieber den bequemeren Weg einer Studioaufnahme und spult im Hintergrund auf einer Leinwand eine Videoaufnahme ab. Durch diese Kombination aus beweglichem Set-aufbau und Leinwandvideo wird die Illusion von Geschwindigkeit und Bewegung erzeugt. Da das abgespielte Video im Hintergrund aber nur ein 2D-video ist, würde jeder Kameraschwenk diese Illusion auffliegen lassen: Die 3D-perspektive im Auto würde sich entsprechend der Kamera
fahrt ändern, aber der 2D-hintergrund würde diesen „Schwindel“auffliegen lassen. Somit sind die Möglichkeiten, die Kamera am Set zu bewegen, in solchen Szenen äußert limitiert. Doch diese Technik bietet auch wertvolle Vorteile: Alles kann am Set umgesetzt werden und die finale Aufnahme ist bereits beim Dreh im Kasten. Durch die Rückprojektion können sich effektvolle Spiegelungen auf dem Lack eines Automodells ergeben und somit je nach Kameraeinstellung durchaus realistisch erscheinen, besonders dann, wenn der Hintergrund sanft unscharf gestellt wird.
Der Beginn des Computerkinos
Mit jeder technischen Innovation ändert sich die Herangehensweise beim Filmemachen und kaum eine Technologie nahm so starken Einfluss auf die Produktion der Bilder wie die Computertechnik. In den 1970er-jahren waren ausschließlich im Computer erzeugte Grafiken noch auf wenige Minuten, meist sogar wenige Sekunden beschränkt und oftmals kamen bunte Drahtgittermodelle zum Einsatz, die ein Science-fiction-flair vermitteln sollten. Die meisten Bilder, die Sie in den 1970erfilmen wie „Westworld“, „Star Wars“oder „Alien“sehen, sind traditionell produziert, entweder durch aufwändige Set-aufbauten in Lebensgröße oder Miniaturmodelle. Selbst Spezialeffekte wie Feuer und Explosionen wurden häufig durch Practical-effects umgesetzt. Eines der bekanntesten Beispiele
für Computeranimationen sind die Laserschwerter in „Star Wars“, doch auch hier dachte man ursprünglich in eine ganz andere Richtung. Im ersten veröffentlichten Teil, der heute als Episode 4 bekannt ist, sorgten zunächst rotierende beklebte Stäbe für Lichtreflexionen, denn man wollte den Laserschwerteffekt schon beim Filmdreh im Kasten haben. Da es sich während des Filmdrehs aber schnell herausstellte, dass die Schwertkämpfe an Dynamik verloren, die Lichtreflexionen nicht immer perfekt von der Kamera eingefangen werden konnten und die Schwerter schnell zerbrachen, begann man damit, auf die reflektierenden Oberflächen mehr und mehr zu verzichten und den Leuchteffekt stattdessen später am Computer zu erzeugen. Dieses Konzept wird bis heute beibehalten, doch damit es auf der Leinwand überzeugend aussieht und klingt, muss ein enormer Aufwand nach den Dreharbeiten betrieben werden. Nicht nur müssen die Computereffekte perfekt auf die Filmaufnahme abgestimmt werden, sondern auch bei der Tonabmischung ist Kreativität und voller Körpereinsatz gefragt. Die markanten Laserschwert-soundeffekte haben ihren Ursprung in einem defekten Kabel eines Recorders, der die Brummgeräusche eines Bildröhrenfernsehers einfing. Sämtliche Schwertkampfszenen wurden von einem Tontechniker im Aufnahmestudio nachgeahmt und mittels des markanten Surrens aufgezeichnet. Nur durch diesen Aufwand harmonieren Bild und Ton perfekt miteinander und Sie erhalten im Film den Eindruck, dass bei einem Laserschwertkampf tatsächlich zwei energiegeladene Klingen aufeinanderprallen. Dass Computergrafiken in den Anfängen schlichtweg zu umständlich und teuer zu produzieren waren, gereicht vielen Filmklassikern mittlerweile zum Vorteil, denn die wesentlichen Elemente eines Films wurden mit traditionellen Mitteln gebaut und in hochwertiger analoger Qualität abgefilmt. Diese Hingabe, beeindruckende Practical-effects zu erstellen und Computertechnik mit Augenmaß zu nutzen, zeigt sich in 1980er- und 1990erfilmmeilensteinen wie „Blade Runner“, „Star Wars Episode 5 und 6“, „The Abyss“, „Terminator 1 und 2“, „Jurassic Park“, „Titanic“oder „Matrix 1“. Nach der Jahrtausendwende schienen handgemachte Effekte hingegen immer stärker in den Hintergrund zu rücken und Produktionen mehr und mehr auf nachträglich erstellte Computeranimationen zu setzen. Doch ist eine „Herr der Ringe“-trilogie nicht deutlich besser gealtert als die neueren Teile der „Hobbit“trilogie? Und erscheinen Filme wie „Matrix 1“nicht wesentlich angenehmer als der Cgi-bombast der nachfolgenden „Matrix“teile 2 und 3? Doch warum ist das so?
Warum CGI häufig versagt
Schaut man auf die Kinokassenumsätze von Filmen, dann lässt sich ein negativer Zusammenhang zwischen zu vielen Cgieffekten und Zuschauereinnahmen nicht
herstellen. Zu den erfolgreichsten Filmen gehören sogar die, die ohne Green-screentechnik und Computeroptik undenkbar gewesen wären, allen voran James Camerons „Avatar“oder die „Avengers“-filmreihe. Doch Computergrafiken können den Filmgenuss deutlich schmälern, gerade wenn menschliche Personen vollständig digital nachgeahmt werden oder wenn sich reale Personen inmitten von Computerwelten bewegen, und beide Elemente nicht perfekt harmonieren. Vergleicht man beispielsweise die „Hobbit“-trilogie mit „Der Herr der Ringe“, so ist selbst für den wenig technikinteressierten Zuschauer auffällig, dass die Bilder der jüngeren Trilogie künstlicher aussehen, was selbst bei solch einem Fantasy-szenario vom Filminhalt ablenken kann. Der Grund: Die „Hobbit“-trilogie entstand unter einem enormen Zeitdruck, „Herr der Ringe“-regisseur Peter Jackson musste das Megaprojekt inmitten der laufenden Produktionsphase übernehmen und zugleich wollten neue Technologien wie 3D-kameraaufnahmen bei doppelter Bildanzahl pro Sekunde gemeistert werden. Der Ablauf war zwar vergleichbar zum Dreh der „Herr der Ringe“-trilogie, doch der Fokus verschob sich deutlicher Richtung Computergrafik. Das Resultat: Die Darsteller erscheinen oftmals wie Fremdkörper inmitten der Cgi-umgebung und Effekte haben im Vergleich zu „Der Herr der Ringe“an Wucht eingebüßt – Elfenbogenschütze Legolas scheint nun mehr denn je durch die Luft zu schweben. Selbst ein technischer Cgi-meilenstein wie „Avatar“von James Cameron, der enorm von der 3D-produktion profitierte, erscheint aus heutiger Sicht wie ein Videospiel. Wie schnell Computereffekte altern, lässt sich in Filmen wie „Star Wars“Episode 1 bis 3 oder
„Matrix“Teil 2 erkennen. Somit lässt sich durchaus objektiv festhalten: Die Computertechnik hat dafür gesorgt, dass wir immer häufiger in fremde Welten abtauchen können, doch inmitten dieser unendlichen Möglichkeiten scheint die menschliche Komponente oftmals in den Hintergrund zu rücken. Wenn Darsteller und Produzenten am Set nicht mehr erkennen können, wie die Szenen später einmal aussehen werden, die Filmkameras meist nur noch einzelne Personen und Bewegungen vor einem grünen Hintergrund aufnehmen und der Großteil eines Films erst in monatelanger Kleinstarbeit in Großraumbüros entsteht, dann kommt es unweigerlich zu einem Bruch. Filme erscheinen wie eine Masterarbeit in Computergrafik-design, aber nicht wie eine Herzensangelegenheit zwischen Regisseur und Darstellern. Und diese Diskrepanz bleibt häufig auch auf der Kinoleinwand nicht verborgen, ganz gleich, wieviele Cgi-effekte, Lens-flares und Colour-grading-farbexzesse über das originale Kamerabild ausgeschüttet werden. Die letzten 20 Jahre waren somit rückblickend nicht der erhoffte Befreiungsschlag für das moderne Kino, wenn man auf der Suche nach dem nächsten „Star Wars“-gefühl der 1970er, dem Sci-fi-gefühl der 1980er oder dem nächsten „Herr der Ringe“-epos der frühen 2000er-jahre war. „Star Wars“-schöpfer George Lucas sagte einmal in einem Interview treffend, dass es beim Höhepunkt der ersten „Star Wars“-trilogie nicht darum ging, mit den neuen Möglichkeiten der Computertechnik ein Wettrüsten anzuzetteln. Es ging auch nicht darum, im großen Finale den Zuschauern die Effekte pausenlos um die Ohren zu hauen. Stattdessen war es ein Lichtschwertkampf zwischen Vater und Sohn, der die Geschichte rund um Luke Skywalker zum emotionalen Höhepunkt führte. Und auch wenn George Lucas die eigenen Ziele mit seiner übertriebenen Liebe für die Computertechnik in den frühen 2000er-jahren immer weiter aus den Augen verlor und es auch andere Regisseure nicht schafften, mit der jüngsten „Star Wars“-trilogie den Charme der Originale zu erreichen, so gab es dennoch viele positive Beispiele. Der computeranimierte Tiger im Film „Life of Pi“ist beispielsweise ein technisches Meisterwerk geworden und mindestens ebenso beeindruckend ist der riesige Wassertank mit Wellenfunktion, der dem Darsteller am Set physisch alles abverlangte. Noch extremer geht Regisseur Christopher Nolan zu Werke: Wer Filme wie „Inception“, „Interstellar“oder „Dunkirk“gesehen hat, wird oftmals erst durch das Bonusmaterial wissen, wie die Szenen tatsächlich erstellt wurden. Oder hätten Sie gedacht, dass der Zeitreisewürfe im Film „Interstellar“zum Teil als riesiges Modell nachgebaut wurde, um die wichtigsten Szenen am Set filmen zu können? Für Nolan selbst ist es oftmals der Spaß am Filmemachen, der durch eine Greenscreen-aufnahme im Keim erstickt wird, weshalb er Set-aufbauten vorzieht. Je aufwändiger das Set und die Hintergründe, desto einfacher sei es laut Nolan, pure Magie auf der Kinoleinwand zu entfachen. Mark H Weingartner, der oftmals mit Nolan an den Special Effects arbeitet, beschreibt seinen Beruf so: Der beste Computereffekt ist laut Weingartner der, der nicht als solcher zu erkennen ist und seine Aufgabe ist immer dann erfüllt, wenn die Zuschauer nicht nachvollziehen können, wie die Kinobilder erschaffen wurden. Es es gibt zahlreiche weitere Beispiele von talentierten Regisseuren und Specialeffects-designern: Filme wie „Blade Runner 2049“, „The Revenant“oder „First Man: Aufbruch zum Mond“zeigen in beeindruckender Art und Weise, dass sich durch aufwändige Filmsets ausdrucksstarke Bilder erschaffen lassen, denen der Zahn der Zeit nichts anhaben kann. Und auch eine neue „Star Wars“-serie macht Hoffnung, denn hier gibt es sie noch: Die Liebe für das alte Kino, gepaart mit den technischen Möglichkeiten der Gegenwart und Zukunft. Die Disney-plus-serie „The Mandalorian“wirkt wie der komplette Gegenentwurf zu den aktuellen Disney Kinofilmen. Hier geht es nach Wild West Manier ruppiger zu und Fans der ersten „Star Wars“-trilogie oder der Serie „Serenity“werden sich sofort heimisch fühlen. Dabei ist der Look von „The Mandalorian“nur auf dem ersten Blick klassisch angehaucht, denn die Filmtechnik der Serie entspringt gänzlich neuen Möglichkeiten, die die Filmbranche erst in naher
Zukunft entdecken und ausreizen wird. Das Besondere: „The Mandalorian“schlägt die Brücke zwischen den Anfängen des Kinos und den enormen Möglichkeiten moderner Computerwelten.
Die Zukunft des Entertainments
Doch was ist das Besondere an „The Mandalorien“und warum sorgt noch mehr Computereinsatz für die Lösung fast aller Probleme, mit denen sich Filmemacher die letzten 20 Jahre herumschlagen mussten? Es beginnt bereits bei der Auswahl der Mittel, die Grafikern zur Verfügung steht. Die Computerhintergründe werden mit der Unreal Engine 4 erstellt, die auch viele aktuelle Videospiele antreibt. Hinter der Unreal Engine steckt der Games-gigant Epic, der beispielsweise mit dem Spiel „Fortnite“Millioneneinnahmen generiert. Doch hinter Epic stecken auch die klugen Köpfe der Unreal Engine wie Tim Sweeney und diese haben schnell begriffen, dass mit steigender Computerleistung die Möglichkeiten nahezu grenzenlos ausfallen können. Traditionelle Computergrafikprogramme und insbesondere 3D-programme für aufwändige Filmszenen haben oftmals den Nachteil, dass diese zu langsam arbeiten oder die Bilder in einem geringen Detailgrad erstellt werden müssen, um diese in Echtzeit beeinflussen zu können. Als Peter Jackson bei „Der Herr der Ringe“oder „Der Hobbit“per Echtzeit-3d-grafiken die Kamerafahrten vorausplante, so sah er dabei nicht die finale Qualität, sondern lediglich eine simple Vorabversion, die eher an die Frühzeit von 3D-videospielen erinnerte. Nicht exakt zu wissen, wie das Ergebnis später einmal aussehen wird, ist für Regisseure, Produzenten und Darsteller ein riesiges Problem, denn alles, was die Zuschauer später einmal erblicken, müssen sich die Beteiligten am Set im Kopf zusammenreimen. Epic setzt nun an genau diesem Schwachpunkt an: Durch die stetig wachsende Leistung von Computergrafikkarten ist es mittlerweile möglich, fotorealistische Ergebnisse mit Echzeit-3d-engines wie der Unreal Engine 4 zu erzielen. Zugleich profitierte Epic von einem glücklichen Umstand: Ein neues Start-up-unternehmen namens Quixel machte es sich in den letzten Jahren zur Aufgabe, mit hochwertigen Profikameras die entlegensten Winkel unseres Erdballs abzufilmen – quasi ein Google-maps mit einem künstlerischen Qualitätsanspruch. Aus diesen Aufnahmen mit rauschfreier 8K-bildqualität erstellte Quixel eine gigantische Fotogrammetrie-datenbank und taufte sie passend Megascans. Seit einigen Jahren können sich Künstler weltweit daraus bedienen: Die Fotodaten sind optimal für die Bearbeitung am Computer vorbereitet und können im 3D-programm nachträglich angepasst werden. Doch damit aus den Fotos echte 3D-szenen werden können, braucht es das richtige Grundgerüst, und wie es der Zufall will, wurde Quixel Megascans von Epic aufgekauft und beide Welten sind nun direkt in der Unreal Engine 4 ineinander verzahnt. Die Arbeit von Quixel lässt sich bereits in Spielen wie „A Plague Tale Innoscene“, aber auch in Filmen betrachten. Die Megascans von Quixel kommen beispielsweise bei den Neuverfilmungen „Der König der Löwen“oder im „Dschungelbuch“zum Einsatz, also immer dann, wenn realistisch aussehende Umgebungen über Computer erstellt werden sollen. Doch auch dieser technische Fortschritt ist noch lange nicht genug, um allen Filmemachern bei der Umsetzung ihrer Träume zu helfen, schließlich stehen am Set oftmals echte Darsteller im Mittelpunkt und die Aufzeichnung erfolgt über traditionelle Filmkameras.
Das nächste Level
Am Set von „The Mandalorian“glaubt man tatsächlich, in eine andere Welt einzutauchen und innerhalb von Sekunden können sich Darsteller und Produzenten von einer heißen Wüstenumgebung in eine tiefgefrorene Eiswelt teleportieren. Möglich wird dies durch riesige Led-walls, also selbstleuchtende Kinoleinwände. Diese sind das Fenster in die schöne neue Tricktechnikwelt. Um die 4K-displays mit Leben zu füllen, kommen die Unreal Engine 4 und die Megascans von Quixel zum Einsatz. Grafiker erstellen hieraus echte 3D-welten, vergleichbar zu einem Videospiel, die auf der LED-WALL angezeigt werden können. Mehr noch: Produzenten können mit Vr-brillen vorab die virtuelle Land
schaft in all ihrer Pracht erkunden und die besten Spots für die späteren Aufnahmen am Set definieren. Der Produktionsablauf eines modernen Cgi-films wird damit auf den Kopf gestellt: Computereffekte werden vorab erstellt und sind beim Dreh bereits vorhanden. Regisseure und Darsteller sehen genau, wie die Szenen später auf der Kinoleinwand wirken werden. Die Beleuchtung durch die Led-walls auf das Filmset sorgt für fotorealistische Reflexionen, was es erübrigt, diese später umständlich am Computer einfügen zu müssen. Erinnern Sie sich noch an unser Beispiel von Darstellern, die im Auto sitzen, während im Hintergrund eine Videosequenz über eine Leinwand abgespielt wird? Dieses Grundprinzip wird durch die Unreal Engine 4 auf die Spitze getrieben, denn über die Led-walls wird nicht nur einfach ein 2D-video wiedergegeben, sondern eine in Echtzeit erstellte 3Dgrafik, die jederzeit verändert werden kann. Ist die Beleuchtung und Farbgebung der virtuellen Hintergründe nicht optimal auf das Filmset abgestimmt und soll der Übergang zwischen Boden, Hintergrund und Decke angepasst werden, so können diese Korrekturen von einem Grafiker live vorgenommen werden. Die neue Technik sorgt dafür, dass Grafiker, Regisseure, Produzenten und Darsteller gleichzeitig das gesamte Filmprojekt vor Augen geführt bekommen, was sich positiv auf das Endergebnis auswirken kann. Doch es geht noch mehr: War die Kamera in der Frühzeit des Kinos oftmals statisch, wenn Leinwandvideos auf Hintergründen abgefilmt wurden, so kann die Filmkamera jetzt dynamisch bewegt werden. Die Perspektive des 3D-hintergrunds kann dank Unreal Engine 4 in Echtzeit synchron zu jeder Kamerabewegung angepasst werden. Wenn Kamerabewegungen am Set und die digitale Welt im Hintergrund in Echtzeit abgeglichen werden, dann ist die spätere Illusion perfekt. Und das Beste: Durch die neuen technischen Möglichkeiten rücken die Menschen am Set wieder näher zusammen. Auch der Ton profitiert enorm durch die Unreal Engine. Jedes Blatt, jeder Stein und jedes Element der virtuellen Welt lässt sich nicht nur fotorealistisch erstellen, sondern diese Objekte können auch als eigene Klangkörper dienen. Dabei ist die Unreal Engine flexibel genug, um die akustischen Gegebenheiten einzubeziehen. Wird ein virtueller Klangkörper beispielsweise in einer freien Umgebung erstellt, wandelt sich diese Schallquelle, wenn diese in einem Innenraum zweitverwertet wird. Wertvolle Zeitersparnis und nachvollziehbarer scheinbarer Realismus sind zwei der wesentlichen Faktoren, die dafür sorgen, dass sich neue Technologien wie die Unreal Engine 4 wie ein Lauffeuer in der modernen Filmbranche verbreiten werden.
Die Reise geht weiter
Die besten Filmklassiker sind auch aus heutiger Sicht noch sehenswert, weil die meisten Szenen glaubwürdig am Set umgesetzt wurden und Kameras das gesamte Geschehen in bester Qualität einfangen konnten. Der Übergang zur Computeranimation hat die etablierten Mechanismen des Kinos zunächst nicht außer Kraft gesetzt, sondern sinnvoll ergänzt, denn der Einsatz von Computertechnik war anfangs schlichtweg zu teuer, zu umständlich und zu langwierig, um auf handgemachte Special Effects verzichten zu können. Doch in den letzten 20 Jahren machte sich eine gewisse Greenscreenund Computereffekt-bequemlichkeit breit: Was am Set nicht optimal gelöst werden konnte, wurde später am Computer ausgebügelt – eine Denkweise, die man vielen aktuellen Filmen und Serien häufig leider ansieht. Doch es gibt Hoffnung: mit den neuen Möglichkeiten der Unreal Engine 4 können Filmemacher das echte Kinogefühl wieder näher ans Set holen und Regisseure sowie Darsteller sehen das komplette Ergebnis, anstatt nur Bruchstücke. Doch es fehlt noch eine letzte Brücke, um die gigantischen Grafikdaten mit kostengünstigen Mitteln weiterverarbeiten zu können. Denn schließlich warten nicht nur Film- und Serienfans auf eine technische Revolution, sondern auch Videospieler wollen wissen, was die Gaming-zukunft mit sich bringt. Bislang müssen riesige 3D-bilddaten in niedrig aufgelöste Häppchen heruntergerechnet werden, um sie in Spielen nutzen zu können. Je nach Abstand des Spielers zum Objekt in der virtuellen Welt werden häufig etliche Versionen für ein- und dasselbe
Objekt in unterschiedlichen Qualitätsstufen erstellt, um die Grafikhardware später nicht zu überfordern. Denn für Pc-grafikkarten, Playstation oder Xbox macht es einen gewaltigen Unterschied, ob sich Spieler in einem kleinen Raum aufhalten oder auf einem Berg stehen und kilometerweit bis zum Horizont blicken können. Je mehr Objekte gleichzeitig im Bild auftauchen, desto größer die Gefahr, dass das Bild ruckelt und sich das Spiel schwammig steuert. Genau hier setzt die neue Unreal Engine 5 an, die jüngst auf Sonys Playstation 5 demonstriert wurde. Grafiker können die aus Filmen bekannten Qualitätsstandards übernehmen und müssen Objekte in der Qualität nicht länger drastisch reduzieren. Zukünftig lassen sich Milliarden von Polygonen als
Rechengrundlage für die Erstellung von 3D-szenen nutzen und jedes Objekt kann optimal ausmodelliert werden, anstatt räumliche Tiefe nur durch optische Tricks wie Lichter und Schatten bei einer flachen Textur vorzugaukeln. Natürlich ist auch der Speicherplatz einer PS5 oder Xbox Series X endlich, doch gleichzeitig verbessert sich die Komprimierung von Daten stetig.
Sowohl Sony als auch Microsoft setzen auf enorm schnellen Ssd-speicher, um die Daten in den Arbeitsspeicher schaufeln zu können. Und genau an diesem Punkt rücken wieder die Fotogrammetrie-daten von Quixel in den Mittelpunkt. Der Vorteil der Next-gen-konsolen ist, dass die ultradetaillierten Megascan-grafikvorlagen schnell genug in Echtzeit innerhalb der Speicheranbindung hin- und hergeschoben werden können, ohne den Detailgrad der Vorlagen zu stark drosseln zu müssen, wie es mit PS4 und Xbox One noch der Fall ist. In den Next-gen-konsolen kommen Zusatzprozessoren zum Einsatz, die die Daten möglichst schnell von A nach B koordinieren, ohne den Hauptprozessor zu stark zu belasten. Die Technikrevolution der neuen Konsolengeneration ist vor allem das Eliminieren von Barrieren, die sich beim Auslesen und Weiterleiten von Daten auf dem Weg zur Bildberechnung und Bildausgabe ergeben. Davon profitieren Grafikdesigner von Spielen, die sich weniger um Anpassungen und mehr um die Realisierung ihrer Träume kümmern können. Glaubt man Sonys Versprechen, dann wird es mit der Playstation 5 möglich sein, die Spieldaten zukünftig 100 Mal schneller auszulesen und weiterzuleiten, als es mit einer Standard-ps4 der Fall ist. Dies eröffnet wiederum gänzlich neue Möglichkeiten, wieviel Details in einer Szene zu Gesicht und zu Gehör gebracht werden können. Denn auch das Thema Audio wird auf die Spitze getrieben: Neue Programme wie die Unreal Engine 5 nutzen stark verbesserte 3D-audio-berechnungen, um
Schallquellen in Spielen realistischer zu simulieren. Sony und Microsoft setzen bei ihren Konsolen wiederum auf Extra-hardwarebeschleuniger, um 3D-audiosignale bestmöglich berechnen zu können, ohne die CPU zu belasten. Die gute Nachricht für Sie: Die verbesserte 3D-tonqualität lässt sich auch bequem über Kopfhörer genießen, falls eine Heimkinoinstallation in den eigenen vier Wänden nicht zur Debatte steht. Die Simulation von 3D-audio wird in den nächsten Jahren einen großen Sprung nach vorn machen und dank Unreal Engine und Quixel Megascans eröffnen sich für Filme- und Spielemacher gänzlich neue Möglichkeiten, unbekannte Welten zu erschaffen. Die Zukunft des Entertainments hat begonnen!