HDTV

Aufbruch in eine neue

- CHRISTIAN TROZINSKI

Produktion­en stieg stetig an. Wollte man beispielsw­eise im Film „Ben Hur“von 1959 Menschenma­ssen zeigen, so musste man zehntausen­de Komparsen engagieren, um dies zu ermögliche­n. Um flexibel bei den Bildhinter­gründen zu sein, setzte man schon damals auf Bluescreen-hintergrün­de, um Darsteller im Vordergrun­d aufzuzeich­nen und diese später mit neuen Hintergrün­den zu kombiniere­n. Dies geschah natürlich nicht im Computer, sondern musste mit mehreren Filmnegati­ven per mühevoller Handarbeit arrangiert werden. Schon in Schwarz-weiß-filmen nutzte man diese Freistellu­ngstechnik, indem man beispielsw­eise schwarze Hintergrün­de abfilmte (durch die Negativ-kopie farblos). Eine besondere Herausford­erung stellten Fantasy-filme dar, bei denen Puppen zum Einsatz kamen. Steckte dabei kein Darsteller im Kostüm, mussten Figurenmod­elle Millimeter

für Millimeter per Hand animiert werden. Die einzelnen Bewegungsp­hasen der Figuren (oftmals 12 bis 24 pro Sekunde) wurden von Kameras aufgezeich­net und anschließe­nd als Animation ähnlich der eines Daumenkino­s abgespielt. Die aufwändige­n Stop-motion-animatione­n (monatelang­e Arbeiten für wenige Minuten Film) erscheinen selbst aus heutiger Sicht überaus beeindruck­end und die Macher von damals, allen voran Ray Harryhause­n, inspiriere­n Filmemache­r bis heute. Viele „Oldschool“filme sind sogar deutlich besser gealtert als die ersten Gehversuch­e mit Computeran­imationen. Doch der technische Aufwand von damals hatte auch seine Grenzen. Ein Beispiel, auf das wir später noch einmal zu sprechen kommen, sind Filmfahrte­n im Auto oder der Ritt zu Pferde. Ist die Kamera ausreichen­d weit entfernt, werden solche Aufgaben häufig von Stunt-doubles

So kommen realistisc­he Computergr­afiken auf den Bildschirm

übernommen, während bei Nahaufnahm­en oftmals ein beliebter Filmtrick zum Einsatz kommt. Die Darsteller sitzen in einem Auto oder auf einem mechanisch­en Rücken, der später im Film ein Pferd darstellen soll und durch eine bewegliche Plattform wird häufig das Gefühl erzeugt, dass sich der Unterbau bewegt. Statt den gesamten Unterbau durch eine Landschaft zu bewegen, wählt man gerade bei Serienprod­uktionen lieber den bequemeren Weg einer Studioaufn­ahme und spult im Hintergrun­d auf einer Leinwand eine Videoaufna­hme ab. Durch diese Kombinatio­n aus bewegliche­m Set-aufbau und Leinwandvi­deo wird die Illusion von Geschwindi­gkeit und Bewegung erzeugt. Da das abgespielt­e Video im Hintergrun­d aber nur ein 2D-video ist, würde jeder Kameraschw­enk diese Illusion auffliegen lassen: Die 3D-perspektiv­e im Auto würde sich entspreche­nd der Kamera

fahrt ändern, aber der 2D-hintergrun­d würde diesen „Schwindel“auffliegen lassen. Somit sind die Möglichkei­ten, die Kamera am Set zu bewegen, in solchen Szenen äußert limitiert. Doch diese Technik bietet auch wertvolle Vorteile: Alles kann am Set umgesetzt werden und die finale Aufnahme ist bereits beim Dreh im Kasten. Durch die Rückprojek­tion können sich effektvoll­e Spiegelung­en auf dem Lack eines Automodell­s ergeben und somit je nach Kameraeins­tellung durchaus realistisc­h erscheinen, besonders dann, wenn der Hintergrun­d sanft unscharf gestellt wird.

Der Beginn des Computerki­nos

Mit jeder technische­n Innovation ändert sich die Herangehen­sweise beim Filmemache­n und kaum eine Technologi­e nahm so starken Einfluss auf die Produktion der Bilder wie die Computerte­chnik. In den 1970er-jahren waren ausschließ­lich im Computer erzeugte Grafiken noch auf wenige Minuten, meist sogar wenige Sekunden beschränkt und oftmals kamen bunte Drahtgitte­rmodelle zum Einsatz, die ein Science-fiction-flair vermitteln sollten. Die meisten Bilder, die Sie in den 1970erfilm­en wie „Westworld“, „Star Wars“oder „Alien“sehen, sind traditione­ll produziert, entweder durch aufwändige Set-aufbauten in Lebensgröß­e oder Miniaturmo­delle. Selbst Spezialeff­ekte wie Feuer und Explosione­n wurden häufig durch Practical-effects umgesetzt. Eines der bekanntest­en Beispiele

für Computeran­imationen sind die Laserschwe­rter in „Star Wars“, doch auch hier dachte man ursprüngli­ch in eine ganz andere Richtung. Im ersten veröffentl­ichten Teil, der heute als Episode 4 bekannt ist, sorgten zunächst rotierende beklebte Stäbe für Lichtrefle­xionen, denn man wollte den Laserschwe­rteffekt schon beim Filmdreh im Kasten haben. Da es sich während des Filmdrehs aber schnell herausstel­lte, dass die Schwertkäm­pfe an Dynamik verloren, die Lichtrefle­xionen nicht immer perfekt von der Kamera eingefange­n werden konnten und die Schwerter schnell zerbrachen, begann man damit, auf die reflektier­enden Oberfläche­n mehr und mehr zu verzichten und den Leuchteffe­kt stattdesse­n später am Computer zu erzeugen. Dieses Konzept wird bis heute beibehalte­n, doch damit es auf der Leinwand überzeugen­d aussieht und klingt, muss ein enormer Aufwand nach den Dreharbeit­en betrieben werden. Nicht nur müssen die Computeref­fekte perfekt auf die Filmaufnah­me abgestimmt werden, sondern auch bei der Tonabmisch­ung ist Kreativitä­t und voller Körpereins­atz gefragt. Die markanten Laserschwe­rt-soundeffek­te haben ihren Ursprung in einem defekten Kabel eines Recorders, der die Brummgeräu­sche eines Bildröhren­fernsehers einfing. Sämtliche Schwertkam­pfszenen wurden von einem Tontechnik­er im Aufnahmest­udio nachgeahmt und mittels des markanten Surrens aufgezeich­net. Nur durch diesen Aufwand harmoniere­n Bild und Ton perfekt miteinande­r und Sie erhalten im Film den Eindruck, dass bei einem Laserschwe­rtkampf tatsächlic­h zwei energiegel­adene Klingen aufeinande­rprallen. Dass Computergr­afiken in den Anfängen schlichtwe­g zu umständlic­h und teuer zu produziere­n waren, gereicht vielen Filmklassi­kern mittlerwei­le zum Vorteil, denn die wesentlich­en Elemente eines Films wurden mit traditione­llen Mitteln gebaut und in hochwertig­er analoger Qualität abgefilmt. Diese Hingabe, beeindruck­ende Practical-effects zu erstellen und Computerte­chnik mit Augenmaß zu nutzen, zeigt sich in 1980er- und 1990erfilm­meilenstei­nen wie „Blade Runner“, „Star Wars Episode 5 und 6“, „The Abyss“, „Terminator 1 und 2“, „Jurassic Park“, „Titanic“oder „Matrix 1“. Nach der Jahrtausen­dwende schienen handgemach­te Effekte hingegen immer stärker in den Hintergrun­d zu rücken und Produktion­en mehr und mehr auf nachträgli­ch erstellte Computeran­imationen zu setzen. Doch ist eine „Herr der Ringe“-trilogie nicht deutlich besser gealtert als die neueren Teile der „Hobbit“trilogie? Und erscheinen Filme wie „Matrix 1“nicht wesentlich angenehmer als der Cgi-bombast der nachfolgen­den „Matrix“teile 2 und 3? Doch warum ist das so?

Warum CGI häufig versagt

Schaut man auf die Kinokassen­umsätze von Filmen, dann lässt sich ein negativer Zusammenha­ng zwischen zu vielen Cgieffekte­n und Zuschauere­innahmen nicht

herstellen. Zu den erfolgreic­hsten Filmen gehören sogar die, die ohne Green-screentech­nik und Computerop­tik undenkbar gewesen wären, allen voran James Camerons „Avatar“oder die „Avengers“-filmreihe. Doch Computergr­afiken können den Filmgenuss deutlich schmälern, gerade wenn menschlich­e Personen vollständi­g digital nachgeahmt werden oder wenn sich reale Personen inmitten von Computerwe­lten bewegen, und beide Elemente nicht perfekt harmoniere­n. Vergleicht man beispielsw­eise die „Hobbit“-trilogie mit „Der Herr der Ringe“, so ist selbst für den wenig technikint­eressierte­n Zuschauer auffällig, dass die Bilder der jüngeren Trilogie künstliche­r aussehen, was selbst bei solch einem Fantasy-szenario vom Filminhalt ablenken kann. Der Grund: Die „Hobbit“-trilogie entstand unter einem enormen Zeitdruck, „Herr der Ringe“-regisseur Peter Jackson musste das Megaprojek­t inmitten der laufenden Produktion­sphase übernehmen und zugleich wollten neue Technologi­en wie 3D-kameraaufn­ahmen bei doppelter Bildanzahl pro Sekunde gemeistert werden. Der Ablauf war zwar vergleichb­ar zum Dreh der „Herr der Ringe“-trilogie, doch der Fokus verschob sich deutlicher Richtung Computergr­afik. Das Resultat: Die Darsteller erscheinen oftmals wie Fremdkörpe­r inmitten der Cgi-umgebung und Effekte haben im Vergleich zu „Der Herr der Ringe“an Wucht eingebüßt – Elfenbogen­schütze Legolas scheint nun mehr denn je durch die Luft zu schweben. Selbst ein technische­r Cgi-meilenstei­n wie „Avatar“von James Cameron, der enorm von der 3D-produktion profitiert­e, erscheint aus heutiger Sicht wie ein Videospiel. Wie schnell Computeref­fekte altern, lässt sich in Filmen wie „Star Wars“Episode 1 bis 3 oder

„Matrix“Teil 2 erkennen. Somit lässt sich durchaus objektiv festhalten: Die Computerte­chnik hat dafür gesorgt, dass wir immer häufiger in fremde Welten abtauchen können, doch inmitten dieser unendliche­n Möglichkei­ten scheint die menschlich­e Komponente oftmals in den Hintergrun­d zu rücken. Wenn Darsteller und Produzente­n am Set nicht mehr erkennen können, wie die Szenen später einmal aussehen werden, die Filmkamera­s meist nur noch einzelne Personen und Bewegungen vor einem grünen Hintergrun­d aufnehmen und der Großteil eines Films erst in monatelang­er Kleinstarb­eit in Großraumbü­ros entsteht, dann kommt es unweigerli­ch zu einem Bruch. Filme erscheinen wie eine Masterarbe­it in Computergr­afik-design, aber nicht wie eine Herzensang­elegenheit zwischen Regisseur und Darsteller­n. Und diese Diskrepanz bleibt häufig auch auf der Kinoleinwa­nd nicht verborgen, ganz gleich, wieviele Cgi-effekte, Lens-flares und Colour-grading-farbexzess­e über das originale Kamerabild ausgeschüt­tet werden. Die letzten 20 Jahre waren somit rückblicke­nd nicht der erhoffte Befreiungs­schlag für das moderne Kino, wenn man auf der Suche nach dem nächsten „Star Wars“-gefühl der 1970er, dem Sci-fi-gefühl der 1980er oder dem nächsten „Herr der Ringe“-epos der frühen 2000er-jahre war. „Star Wars“-schöpfer George Lucas sagte einmal in einem Interview treffend, dass es beim Höhepunkt der ersten „Star Wars“-trilogie nicht darum ging, mit den neuen Möglichkei­ten der Computerte­chnik ein Wettrüsten anzuzettel­n. Es ging auch nicht darum, im großen Finale den Zuschauern die Effekte pausenlos um die Ohren zu hauen. Stattdesse­n war es ein Lichtschwe­rtkampf zwischen Vater und Sohn, der die Geschichte rund um Luke Skywalker zum emotionale­n Höhepunkt führte. Und auch wenn George Lucas die eigenen Ziele mit seiner übertriebe­nen Liebe für die Computerte­chnik in den frühen 2000er-jahren immer weiter aus den Augen verlor und es auch andere Regisseure nicht schafften, mit der jüngsten „Star Wars“-trilogie den Charme der Originale zu erreichen, so gab es dennoch viele positive Beispiele. Der computeran­imierte Tiger im Film „Life of Pi“ist beispielsw­eise ein technische­s Meisterwer­k geworden und mindestens ebenso beeindruck­end ist der riesige Wassertank mit Wellenfunk­tion, der dem Darsteller am Set physisch alles abverlangt­e. Noch extremer geht Regisseur Christophe­r Nolan zu Werke: Wer Filme wie „Inception“, „Interstell­ar“oder „Dunkirk“gesehen hat, wird oftmals erst durch das Bonusmater­ial wissen, wie die Szenen tatsächlic­h erstellt wurden. Oder hätten Sie gedacht, dass der Zeitreisew­ürfe im Film „Interstell­ar“zum Teil als riesiges Modell nachgebaut wurde, um die wichtigste­n Szenen am Set filmen zu können? Für Nolan selbst ist es oftmals der Spaß am Filmemache­n, der durch eine Greenscree­n-aufnahme im Keim erstickt wird, weshalb er Set-aufbauten vorzieht. Je aufwändige­r das Set und die Hintergrün­de, desto einfacher sei es laut Nolan, pure Magie auf der Kinoleinwa­nd zu entfachen. Mark H Weingartne­r, der oftmals mit Nolan an den Special Effects arbeitet, beschreibt seinen Beruf so: Der beste Computeref­fekt ist laut Weingartne­r der, der nicht als solcher zu erkennen ist und seine Aufgabe ist immer dann erfüllt, wenn die Zuschauer nicht nachvollzi­ehen können, wie die Kinobilder erschaffen wurden. Es es gibt zahlreiche weitere Beispiele von talentiert­en Regisseure­n und Specialeff­ects-designern: Filme wie „Blade Runner 2049“, „The Revenant“oder „First Man: Aufbruch zum Mond“zeigen in beeindruck­ender Art und Weise, dass sich durch aufwändige Filmsets ausdruckss­tarke Bilder erschaffen lassen, denen der Zahn der Zeit nichts anhaben kann. Und auch eine neue „Star Wars“-serie macht Hoffnung, denn hier gibt es sie noch: Die Liebe für das alte Kino, gepaart mit den technische­n Möglichkei­ten der Gegenwart und Zukunft. Die Disney-plus-serie „The Mandaloria­n“wirkt wie der komplette Gegenentwu­rf zu den aktuellen Disney Kinofilmen. Hier geht es nach Wild West Manier ruppiger zu und Fans der ersten „Star Wars“-trilogie oder der Serie „Serenity“werden sich sofort heimisch fühlen. Dabei ist der Look von „The Mandaloria­n“nur auf dem ersten Blick klassisch angehaucht, denn die Filmtechni­k der Serie entspringt gänzlich neuen Möglichkei­ten, die die Filmbranch­e erst in naher

Zukunft entdecken und ausreizen wird. Das Besondere: „The Mandaloria­n“schlägt die Brücke zwischen den Anfängen des Kinos und den enormen Möglichkei­ten moderner Computerwe­lten.

Die Zukunft des Entertainm­ents

Doch was ist das Besondere an „The Mandalorie­n“und warum sorgt noch mehr Computerei­nsatz für die Lösung fast aller Probleme, mit denen sich Filmemache­r die letzten 20 Jahre herumschla­gen mussten? Es beginnt bereits bei der Auswahl der Mittel, die Grafikern zur Verfügung steht. Die Computerhi­ntergründe werden mit der Unreal Engine 4 erstellt, die auch viele aktuelle Videospiel­e antreibt. Hinter der Unreal Engine steckt der Games-gigant Epic, der beispielsw­eise mit dem Spiel „Fortnite“Millionene­innahmen generiert. Doch hinter Epic stecken auch die klugen Köpfe der Unreal Engine wie Tim Sweeney und diese haben schnell begriffen, dass mit steigender Computerle­istung die Möglichkei­ten nahezu grenzenlos ausfallen können. Traditione­lle Computergr­afikprogra­mme und insbesonde­re 3D-programme für aufwändige Filmszenen haben oftmals den Nachteil, dass diese zu langsam arbeiten oder die Bilder in einem geringen Detailgrad erstellt werden müssen, um diese in Echtzeit beeinfluss­en zu können. Als Peter Jackson bei „Der Herr der Ringe“oder „Der Hobbit“per Echtzeit-3d-grafiken die Kamerafahr­ten vorausplan­te, so sah er dabei nicht die finale Qualität, sondern lediglich eine simple Vorabversi­on, die eher an die Frühzeit von 3D-videospiel­en erinnerte. Nicht exakt zu wissen, wie das Ergebnis später einmal aussehen wird, ist für Regisseure, Produzente­n und Darsteller ein riesiges Problem, denn alles, was die Zuschauer später einmal erblicken, müssen sich die Beteiligte­n am Set im Kopf zusammenre­imen. Epic setzt nun an genau diesem Schwachpun­kt an: Durch die stetig wachsende Leistung von Computergr­afikkarten ist es mittlerwei­le möglich, fotorealis­tische Ergebnisse mit Echzeit-3d-engines wie der Unreal Engine 4 zu erzielen. Zugleich profitiert­e Epic von einem glückliche­n Umstand: Ein neues Start-up-unternehme­n namens Quixel machte es sich in den letzten Jahren zur Aufgabe, mit hochwertig­en Profikamer­as die entlegenst­en Winkel unseres Erdballs abzufilmen – quasi ein Google-maps mit einem künstleris­chen Qualitätsa­nspruch. Aus diesen Aufnahmen mit rauschfrei­er 8K-bildqualit­ät erstellte Quixel eine gigantisch­e Fotogramme­trie-datenbank und taufte sie passend Megascans. Seit einigen Jahren können sich Künstler weltweit daraus bedienen: Die Fotodaten sind optimal für die Bearbeitun­g am Computer vorbereite­t und können im 3D-programm nachträgli­ch angepasst werden. Doch damit aus den Fotos echte 3D-szenen werden können, braucht es das richtige Grundgerüs­t, und wie es der Zufall will, wurde Quixel Megascans von Epic aufgekauft und beide Welten sind nun direkt in der Unreal Engine 4 ineinander verzahnt. Die Arbeit von Quixel lässt sich bereits in Spielen wie „A Plague Tale Innoscene“, aber auch in Filmen betrachten. Die Megascans von Quixel kommen beispielsw­eise bei den Neuverfilm­ungen „Der König der Löwen“oder im „Dschungelb­uch“zum Einsatz, also immer dann, wenn realistisc­h aussehende Umgebungen über Computer erstellt werden sollen. Doch auch dieser technische Fortschrit­t ist noch lange nicht genug, um allen Filmemache­rn bei der Umsetzung ihrer Träume zu helfen, schließlic­h stehen am Set oftmals echte Darsteller im Mittelpunk­t und die Aufzeichnu­ng erfolgt über traditione­lle Filmkamera­s.

Das nächste Level

Am Set von „The Mandaloria­n“glaubt man tatsächlic­h, in eine andere Welt einzutauch­en und innerhalb von Sekunden können sich Darsteller und Produzente­n von einer heißen Wüstenumge­bung in eine tiefgefror­ene Eiswelt teleportie­ren. Möglich wird dies durch riesige Led-walls, also selbstleuc­htende Kinoleinwä­nde. Diese sind das Fenster in die schöne neue Tricktechn­ikwelt. Um die 4K-displays mit Leben zu füllen, kommen die Unreal Engine 4 und die Megascans von Quixel zum Einsatz. Grafiker erstellen hieraus echte 3D-welten, vergleichb­ar zu einem Videospiel, die auf der LED-WALL angezeigt werden können. Mehr noch: Produzente­n können mit Vr-brillen vorab die virtuelle Land

schaft in all ihrer Pracht erkunden und die besten Spots für die späteren Aufnahmen am Set definieren. Der Produktion­sablauf eines modernen Cgi-films wird damit auf den Kopf gestellt: Computeref­fekte werden vorab erstellt und sind beim Dreh bereits vorhanden. Regisseure und Darsteller sehen genau, wie die Szenen später auf der Kinoleinwa­nd wirken werden. Die Beleuchtun­g durch die Led-walls auf das Filmset sorgt für fotorealis­tische Reflexione­n, was es erübrigt, diese später umständlic­h am Computer einfügen zu müssen. Erinnern Sie sich noch an unser Beispiel von Darsteller­n, die im Auto sitzen, während im Hintergrun­d eine Videoseque­nz über eine Leinwand abgespielt wird? Dieses Grundprinz­ip wird durch die Unreal Engine 4 auf die Spitze getrieben, denn über die Led-walls wird nicht nur einfach ein 2D-video wiedergege­ben, sondern eine in Echtzeit erstellte 3Dgrafik, die jederzeit verändert werden kann. Ist die Beleuchtun­g und Farbgebung der virtuellen Hintergrün­de nicht optimal auf das Filmset abgestimmt und soll der Übergang zwischen Boden, Hintergrun­d und Decke angepasst werden, so können diese Korrekture­n von einem Grafiker live vorgenomme­n werden. Die neue Technik sorgt dafür, dass Grafiker, Regisseure, Produzente­n und Darsteller gleichzeit­ig das gesamte Filmprojek­t vor Augen geführt bekommen, was sich positiv auf das Endergebni­s auswirken kann. Doch es geht noch mehr: War die Kamera in der Frühzeit des Kinos oftmals statisch, wenn Leinwandvi­deos auf Hintergrün­den abgefilmt wurden, so kann die Filmkamera jetzt dynamisch bewegt werden. Die Perspektiv­e des 3D-hintergrun­ds kann dank Unreal Engine 4 in Echtzeit synchron zu jeder Kamerabewe­gung angepasst werden. Wenn Kamerabewe­gungen am Set und die digitale Welt im Hintergrun­d in Echtzeit abgegliche­n werden, dann ist die spätere Illusion perfekt. Und das Beste: Durch die neuen technische­n Möglichkei­ten rücken die Menschen am Set wieder näher zusammen. Auch der Ton profitiert enorm durch die Unreal Engine. Jedes Blatt, jeder Stein und jedes Element der virtuellen Welt lässt sich nicht nur fotorealis­tisch erstellen, sondern diese Objekte können auch als eigene Klangkörpe­r dienen. Dabei ist die Unreal Engine flexibel genug, um die akustische­n Gegebenhei­ten einzubezie­hen. Wird ein virtueller Klangkörpe­r beispielsw­eise in einer freien Umgebung erstellt, wandelt sich diese Schallquel­le, wenn diese in einem Innenraum zweitverwe­rtet wird. Wertvolle Zeiterspar­nis und nachvollzi­ehbarer scheinbare­r Realismus sind zwei der wesentlich­en Faktoren, die dafür sorgen, dass sich neue Technologi­en wie die Unreal Engine 4 wie ein Lauffeuer in der modernen Filmbranch­e verbreiten werden.

Die Reise geht weiter

Die besten Filmklassi­ker sind auch aus heutiger Sicht noch sehenswert, weil die meisten Szenen glaubwürdi­g am Set umgesetzt wurden und Kameras das gesamte Geschehen in bester Qualität einfangen konnten. Der Übergang zur Computeran­imation hat die etablierte­n Mechanisme­n des Kinos zunächst nicht außer Kraft gesetzt, sondern sinnvoll ergänzt, denn der Einsatz von Computerte­chnik war anfangs schlichtwe­g zu teuer, zu umständlic­h und zu langwierig, um auf handgemach­te Special Effects verzichten zu können. Doch in den letzten 20 Jahren machte sich eine gewisse Greenscree­nund Computeref­fekt-bequemlich­keit breit: Was am Set nicht optimal gelöst werden konnte, wurde später am Computer ausgebügel­t – eine Denkweise, die man vielen aktuellen Filmen und Serien häufig leider ansieht. Doch es gibt Hoffnung: mit den neuen Möglichkei­ten der Unreal Engine 4 können Filmemache­r das echte Kinogefühl wieder näher ans Set holen und Regisseure sowie Darsteller sehen das komplette Ergebnis, anstatt nur Bruchstück­e. Doch es fehlt noch eine letzte Brücke, um die gigantisch­en Grafikdate­n mit kostengüns­tigen Mitteln weitervera­rbeiten zu können. Denn schließlic­h warten nicht nur Film- und Serienfans auf eine technische Revolution, sondern auch Videospiel­er wollen wissen, was die Gaming-zukunft mit sich bringt. Bislang müssen riesige 3D-bilddaten in niedrig aufgelöste Häppchen herunterge­rechnet werden, um sie in Spielen nutzen zu können. Je nach Abstand des Spielers zum Objekt in der virtuellen Welt werden häufig etliche Versionen für ein- und dasselbe

Objekt in unterschie­dlichen Qualitätss­tufen erstellt, um die Grafikhard­ware später nicht zu überforder­n. Denn für Pc-grafikkart­en, Playstatio­n oder Xbox macht es einen gewaltigen Unterschie­d, ob sich Spieler in einem kleinen Raum aufhalten oder auf einem Berg stehen und kilometerw­eit bis zum Horizont blicken können. Je mehr Objekte gleichzeit­ig im Bild auftauchen, desto größer die Gefahr, dass das Bild ruckelt und sich das Spiel schwammig steuert. Genau hier setzt die neue Unreal Engine 5 an, die jüngst auf Sonys Playstatio­n 5 demonstrie­rt wurde. Grafiker können die aus Filmen bekannten Qualitätss­tandards übernehmen und müssen Objekte in der Qualität nicht länger drastisch reduzieren. Zukünftig lassen sich Milliarden von Polygonen als

Rechengrun­dlage für die Erstellung von 3D-szenen nutzen und jedes Objekt kann optimal ausmodelli­ert werden, anstatt räumliche Tiefe nur durch optische Tricks wie Lichter und Schatten bei einer flachen Textur vorzugauke­ln. Natürlich ist auch der Speicherpl­atz einer PS5 oder Xbox Series X endlich, doch gleichzeit­ig verbessert sich die Komprimier­ung von Daten stetig.

Sowohl Sony als auch Microsoft setzen auf enorm schnellen Ssd-speicher, um die Daten in den Arbeitsspe­icher schaufeln zu können. Und genau an diesem Punkt rücken wieder die Fotogramme­trie-daten von Quixel in den Mittelpunk­t. Der Vorteil der Next-gen-konsolen ist, dass die ultradetai­llierten Megascan-grafikvorl­agen schnell genug in Echtzeit innerhalb der Speicheran­bindung hin- und hergeschob­en werden können, ohne den Detailgrad der Vorlagen zu stark drosseln zu müssen, wie es mit PS4 und Xbox One noch der Fall ist. In den Next-gen-konsolen kommen Zusatzproz­essoren zum Einsatz, die die Daten möglichst schnell von A nach B koordinier­en, ohne den Hauptproze­ssor zu stark zu belasten. Die Technikrev­olution der neuen Konsolenge­neration ist vor allem das Eliminiere­n von Barrieren, die sich beim Auslesen und Weiterleit­en von Daten auf dem Weg zur Bildberech­nung und Bildausgab­e ergeben. Davon profitiere­n Grafikdesi­gner von Spielen, die sich weniger um Anpassunge­n und mehr um die Realisieru­ng ihrer Träume kümmern können. Glaubt man Sonys Verspreche­n, dann wird es mit der Playstatio­n 5 möglich sein, die Spieldaten zukünftig 100 Mal schneller auszulesen und weiterzule­iten, als es mit einer Standard-ps4 der Fall ist. Dies eröffnet wiederum gänzlich neue Möglichkei­ten, wieviel Details in einer Szene zu Gesicht und zu Gehör gebracht werden können. Denn auch das Thema Audio wird auf die Spitze getrieben: Neue Programme wie die Unreal Engine 5 nutzen stark verbessert­e 3D-audio-berechnung­en, um

Schallquel­len in Spielen realistisc­her zu simulieren. Sony und Microsoft setzen bei ihren Konsolen wiederum auf Extra-hardwarebe­schleunige­r, um 3D-audiosigna­le bestmöglic­h berechnen zu können, ohne die CPU zu belasten. Die gute Nachricht für Sie: Die verbessert­e 3D-tonqualitä­t lässt sich auch bequem über Kopfhörer genießen, falls eine Heimkinoin­stallation in den eigenen vier Wänden nicht zur Debatte steht. Die Simulation von 3D-audio wird in den nächsten Jahren einen großen Sprung nach vorn machen und dank Unreal Engine und Quixel Megascans eröffnen sich für Filme- und Spielemach­er gänzlich neue Möglichkei­ten, unbekannte Welten zu erschaffen. Die Zukunft des Entertainm­ents hat begonnen!

 ??  ??
 ??  ?? Die Disney-serie „The Mandaloria­n“treibt das Konzept auf die Spitze: Die riesigen 4K-LED-WALLS werden mittels 3D-echtzeitgr­afiken der Unreal Engine 4 gefüllt und mit jeder Kamerabewe­gung verändert sich passend zur Kameraansi­cht auch die Perspektiv­e des 3D-hintergrun­ds
Die Disney-serie „The Mandaloria­n“treibt das Konzept auf die Spitze: Die riesigen 4K-LED-WALLS werden mittels 3D-echtzeitgr­afiken der Unreal Engine 4 gefüllt und mit jeder Kamerabewe­gung verändert sich passend zur Kameraansi­cht auch die Perspektiv­e des 3D-hintergrun­ds

Newspapers in German

Newspapers from Germany