Im Vorfeld der 91. Oscar-Verleihung am Sonntag, unserem Oscar Effects-Serie stellt jeden der fünf für „Visual Effects“ nominierten Filme ins Rampenlicht und betrachtet das Erstaunliche Tricks, mit denen Filmemacher und ihre Effektteams jeden dieser Filme visuell hervorstechen ließen Brille.
Einer der größten Filme aller Zeiten, das riesige Team-Up-Feature von Marvel Studios Avengers: Infinity War überraschte das Publikum, indem er Thanos, den lilahäutigen digitalen Bösewicht des Films, zu einem seiner Durchbruchstars machte.
Dargestellt vom Oscar-Nominierten Josh Brolin Durch eine Mischung aus Performance-Capture-Technologie und digitaler Animation gelang es Thanos, mehr als nur ein verrückter Titan auf einer Mission zu sein die Hälfte der Weltbevölkerung ausrotten. Das Team der Visual Effects Studios Digitale Domäne und Peter Jacksons Weta teilten sich die Aufgabe, Thanos auf der Leinwand zum Leben zu erwecken, und das Endergebnis war ein beeindruckend detailliertes, komplizierter Charakter, der sich – sowohl körperlich als auch theatralisch – gegen die geballte Macht von Marvels (meistens) Live-Action behaupten konnte Helden.
Digital Trends sprach mit zwei Mitgliedern des Digital Domain-Teams – Visual Effects Supervisor Kelly Port und dem Leiter Digital Humans des Studios. Darren Hendler – über den Prozess, Thanos auf die Leinwand zu bringen, sowie über ihre Rolle beim überraschenden Auftritt einer anderen Figur im Film Film. (Betrachten Sie dies als einen Spoilerwarnungfür alle, die es noch nicht gesehen haben Unendlichkeitskrieg.)
Avengers: Infinity War | VFX-Aufschlüsselung | Digitale Domäne
Digitale Trends: Welche Anweisungen wurden Ihnen von Marvel gegeben, als Sie das Erscheinungsbild von Thanos konzipierten? Welche Anleitung haben Sie vom Studio und dem Rest erhalten? Unendlichkeitskrieg Team?
Kelly Port: Was den Leistungsaspekt anbelangt, musste absolut sichergestellt werden, dass dies sowohl technisch als auch technisch möglich ist Ästhetisch machbar, was auch immer wir auf der technischen Seite getan haben, hat es Joshs Leistung ermöglicht, sich durchzusetzen Thanos-Charakter. Ich denke, das war von Anfang an unser Ziel. Als wir also die ersten Tests durchführten, richteten wir das ein Technik, wie sie bei den eigentlichen Dreharbeiten zum Einsatz kommen würde, und präsentierte sie etwa zum Zeitpunkt des Drehbeginns der Schuss. Josh hat das gesehen, und was wirklich schön war, war, dass er es sehen und verstehen konnte, dass er die Figur auf eine viel subtilere Art spielen konnte, als er hätte es vorgezogen.
Die Technologie hat also in gewisser Weise dazu beigetragen, seine Leistung zu prägen?
Nun ja, es waren nicht wir, die die Schauspielerei übernahmen, sondern Josh Brolin, aber ich denke, ihm gefiel die Idee wirklich, dass er nicht unbedingt etwas darüber hinausgehendes tun musste weil es sich um einen computergenerierten Charakter auf dem Bildschirm handelte, oder den Charakter größer darstellen, um seine Leistung durch eine CG-Filterung hervorzuheben Verfahren. Nachdem er die Ergebnisse des Tests gesehen hatte und festgestellt hatte, dass alle seine subtilen Gesichtszüge mit hoher Wiedergabetreue zur Geltung kamen, gab ihm das Selbstvertrauen In Zukunft könnte er es auf eine viel subtilere und zurückhaltendere Art und Weise machen – und genau das hat er getan, und die Regisseure waren wirklich glücklich mit.
„Die Schauspielerei haben nicht wir übernommen, sondern Josh Brolin.“
Wir haben die Rolle erwähnt, die die Technologie bei der Leistung gespielt hat. Was können Sie uns also über diese Technologie sagen, Darren?
Darren Hendler: Digital Domain hat ein neues, zweistufiges System für die Gesichtsbehandlung entwickelt: Masquerade und Direct Drive. Diese beiden Prozesse arbeiten zusammen, um aus der Live-Aufführung eines Schauspielers am Set eine Gesichtsanimation höchster Qualität zu erstellen.
Masquerade nimmt Bilder von einem am Helm montierten Kamerasystem auf und erstellt einen hochauflösenden Gesichtsscan des Schauspielers. Anschließend nutzt es maschinelles Lernen, um zuvor erfasste hochauflösende Tracking-Daten zu nutzen und die 150 Gesichtsbehandlungen durchzuführen Datenpunkte aus einer Motion-Capture-Sitzung in etwa 40.000 Punkte hochauflösender 3D-Gesichtsbewegungen umwandeln Daten.
Wie werden diese 150 Gesichtsdatenpunkte auf den größeren Katalog hochauflösender Gesichtsdaten übertragen?
Aus hochauflösenden Scans gesammelte Trainingsdaten zeigen uns, wozu das Gesicht des Schauspielers durch ein Regiment von Gesichtsbewegungen fähig ist. Dadurch kann der Computer viele Details sehen, darunter beispielsweise die Bewegungen des Gesichts des Schauspielers von Ausdruck zu Ausdruck, die Grenzen des Gesichtsbereichs des Schauspielers und die Faltenbildung auf der Haut des Schauspielers.
Anschließend führen wir während seines Auftritts eine Motion-Capture-Sitzung mit dem Schauspieler durch. Sie tragen einen Motion-Capture-Anzug mit einem am Helm montierten Kamerasystem und treten mit den Darstellern des Films live am Set auf. Während dieser Sitzung können wir gleichzeitig Körperaufnahmen und Gesichtsaufnahmen des Schauspielers machen. Vor Masquerade war es unmöglich, allein aus dem Live-Auftritt dieses Ausmaßes an hochauflösenden Daten für das Gesicht des Schauspielers zu erhalten.
„Wir haben einige Änderungen vorgenommen, da Brolins Leistung so gut abschnitt.“
Wie bringt man also all die Daten, die man über den Schauspieler gesammelt hat, in die computergenerierte Figur?
Der zweite Prozess im System, Direct Drive, übernimmt diese Daten von Masquerade und überträgt sie an die Kreatur – im Fall von Avengers: Infinity War, von Josh Brolin bis Thanos – durch die Erstellung eines Zuordnungsalgorithmus zwischen dem Schauspieler und der Kreatur.
Die Zuordnung umfasst die Definition der Korrespondenz zwischen dem Schauspieler und der Figur, einschließlich der Ausrichtung verschiedener Elemente der einzigartigen Anatomie jedes Einzelnen. Direct Drive findet dann heraus, wie Brolins einzigartige Gesichtsleistung am besten auf Thanos‘ einzigartiges Gesicht übertragen werden kann. Während der Direct Drive-Phase übertragen wir eine Reihe von Darbietungen und Gesichtsübungen vom Gesicht des Schauspielers auf das Gesicht der Kreatur und haben die Möglichkeit, die Übertragung zu modifizieren. Dies ist ein großer Teil des Prozesses, da wir dadurch eine zusätzliche Kontrolle hinzufügen können, um sicherzustellen, dass die Leistung des Charakters so genau wie möglich dargestellt wird.
Computergenerierte Charaktere wie Thanos neigen dazu, sich von den frühesten Konzeptphasen bis zum Endprodukt, das wir auf dem Bildschirm sehen, erheblich weiterzuentwickeln. Wie hat sich der Charakter im Laufe der Zeit, in der Sie an ihm gearbeitet haben, verändert?
Kelly Port: Wir begannen mit der bisherigen visuellen Geschichte der Figur in den Comics und Filmen. Damit war das ursprüngliche Design des Charakters festgelegt. Für Unendlichkeitskrieghaben wir ein leicht aktualisiertes Modell und eine digitale Skulptur von Thanos erhalten, die von Marvel zu uns und Weta kamen.
Ich denke, wir haben aufgrund der guten Leistung von Brolin einige Änderungen vorgenommen. Wir haben zum Beispiel einige Optimierungen vorgenommen, um Thanos‘ Augen proportional denen von Brolin anzunähern. Es ging immer darum, ein Gleichgewicht zwischen dem Anteil von Brolin in Thanos und dem Anteil des etablierten Designs von Thanos zu finden. Wir wollten natürlich nicht zu weit gehen und Josh Brolin nachbilden, aber es war schön, ein wenig von ihm und seinen körperlichen Eigenschaften im Design für Thanos zu sehen. Das hilft dabei, die Leistung etwas straffer einzustellen.
Digital Domain arbeitete an der Szene, in der der Red Skull erneut auftritt, was für Marvel-Filmfans eine große Überraschung war. Wie waren die Gespräche, als Ihnen diese bestimmte Szene gezeigt wurde, und wie haben Sie es geschafft, diese Figur authentisch auf die Leinwand zurückzubringen?
Wir hatten Spaß mit dieser Szene, denn das letzte Mal, dass wir Red Skull gesehen hatten, war, nachdem er sich den Tesseract geschnappt hatte [in Captain America: Der erste Rächer], und die Idee war, dass er davon sehr betroffen war. Wir mussten uns an das Aussehen der Figur aus früheren Filmen und Kunstwerken erinnern, spielten aber gleichzeitig mit unterschiedlichen Ideen herum.
„Der Effekt, den wir ‚Quantum Cloak‘ nannten, sah am Ende wie ein cooler Raucheffekt aus.“
Wir gingen davon aus, dass er [aufgrund seiner Interaktion mit The Tesseract] in eine Zwickmühle geraten würde Dimensionen, und wir spielten mit dieser „Phasing“-Idee – dass er ständig zwischen diesen wechseln würde Maße.
Letztendlich sah der Effekt, den wir „Quantum Cloak“ nannten, wie ein cooler Raucheffekt aus. Teile seines Umhangs lösten sich mit einem schönen, geisterhaften Effekt von ihm. Es hat wirklich Spaß gemacht, an dieser Enthüllung zu arbeiten, und es war wirklich lohnend, im Theater zu sein, wenn er aus der Dunkelheit kommt und enthüllt, dass er Red Skull ist. Die Reaktion des Publikums zu hören und diesen Moment mit ihnen zu erleben, hat Spaß gemacht.
Gibt es eine bestimmte Szene, die Ihre Erfahrungen bei der Arbeit wirklich auf den Punkt bringt? Unendlichkeitskrieg Und worauf sind Sie in diesem speziellen Film am meisten stolz?
Ich denke, worauf wir am meisten stolz sind, sind die wirklich wichtigen Szenen mit Gamora – nicht nur mit der erwachsenen Gamora auf Vormir, sondern auch mit der jungen Gamora-Szene, nachdem Thanos mit den Fingern schnippt. Ich denke, das sind einige der subtileren Darbietungen, und ich war wirklich stolz auf die Arbeit, die wir dort leisten konnten und auf die Feinheiten der Darbietung in diesen Szenen.
Weitere Oscar Effects-Interviews
- Wie „unsichtbare“ Effekte Winnie Puuh in „Christopher Robin“ zum Leben erweckten
- Um seine riesige virtuelle Welt voranzutreiben, benötigte Ready Player One eine benutzerdefinierte KI. Motor
- Wie große Bildschirme und kleine Explosionen die VFX von Solo: A Star Wars Story prägten
- Warum die Oscar-nominierten visuellen Effekte von „First Man“ einen riesigen Sprung für das Filmemachen darstellen
Es war so wichtig, das zu machen, und es waren längere Aufnahmen, die viel Emotion ohne große Gesichtsbewegungen vermitteln mussten.
Diese Szenen beruhten auf subtilen Mikroausdrücken, und wenn man an die Bandbreite aller visuellen Effekte denkt, waren diese Szenen, insbesondere in Vormir, auf mehreren Ebenen so reichhaltig. Sie hatten unterschiedliche Charaktere – Thanos, Red Skull, Gamora – und so viel Umgebung mit den wunderschönen Berggipfeln und dem Verhalten der Wolken und allem anderen darunter. Ich finde, dass diese Szenen wirklich gut zusammenpassen.
Avengers: Infinity WarPremiere am 12. Oktober 2018. Die 91. Oscar-Verleihung beginnt am 24. Februar um 20:00 Uhr ET auf ABC.
Empfehlungen der Redaktion
- Kann das MCU jemals ein weiteres Cliffhanger-Ende von „Avengers: Infinity War“ hinbekommen?
- Die Comics, Farben und Chemikalien hinter Ms. Marvels VFX
- Wie VFX das Bösewicht-Team von Spider-Man: No Way Home unterstützte
- Wie visuelle Effekte die Kämpfe in Avengers: Endgame größer und Hulk schlauer machten
- „Avengers: Endgame“ bricht den Premierenrekord von „Star Wars: Das Erwachen der Macht“.