Das Aufnehmen einer Szene in einem Film kann Dutzende von Einstellungen erfordern, manchmal auch mehr. In Gone Girl soll Regisseur David Fincher durchschnittlich 50 Einstellungen pro Szene gemacht haben. Für The Social Network spielten Rooney Mara und Jesse Eisenberg die Eröffnungsszene 99-mal (erneut unter der Regie von Fincher; anscheinend ist er dafür berüchtigt). Stanley Kubricks " The Shining" handelt von 127 Einstellungen der berüchtigten Szene, in der Wendy die Treppe hinaufsteigt und Jack einen Baseballschläger schwingt, was allgemein als die meisten Einstellungen pro Szene eines Films in der Geschichte angesehen wird.
Eine neue Software von Disney Research in Zusammenarbeit mit der University of Surrey kann dazu beitragen, die Anzahl der erforderlichen Vorgänge zu verringern und damit Zeit und Geld zu sparen. FaceDirector mischt Bilder aus mehreren Einstellungen, sodass die Gesichter der Schauspieler mit präzisen Emotionen versehen werden können.
„Das Produzieren eines Films kann sehr teuer sein, daher bestand das Ziel dieses Projekts darin, den Prozess effizienter zu gestalten“, sagt Derek Bradley, ein Informatiker bei Disney Research in Zürich, der an der Entwicklung der Software mitgewirkt hat.
Disney Research ist eine internationale Gruppe von Forschungslabors mit Standorten in Los Angeles, Pittsburgh, Boston und Zürich, die sich auf Innovationen konzentrieren, die für Disney nützlich sein könnten. Zu den jüngsten Projekten gehören ein Wandkletterroboter, ein „Augmented-Reality-Malbuch“, in dem Kinder ein Bild ausmalen können, das in einer App zu einer sich bewegenden 3D-Figur wird, und eine Kinderweste, die Empfindungen wie Vibrationen oder das Gefühl von Regentropfen vermittelt Bilderbuchszenen. Das Team hinter FaceDirector arbeitete ungefähr ein Jahr an dem Projekt, bevor es seine Forschungsergebnisse im vergangenen Dezember auf der Internationalen Konferenz für Computer Vision in Santiago, Chile, präsentierte.
Das Hauptziel und die größte Herausforderung des Projekts bestand darin, herauszufinden, wie verschiedene Einstellungen synchronisiert werden können. Schauspieler können ihre Köpfe von Aufnahme zu Aufnahme in verschiedenen Winkeln geneigt haben, in verschiedenen Tönen sprechen oder zu verschiedenen Zeiten pausieren. Um dies zu lösen, erstellte das Team ein Programm, das Gesichtsausdrücke und Audio-Hinweise analysiert. Gesichtsausdrücke werden durch Kartierung von Gesichtsmerkmalen wie Augen- und Mundwinkeln nachverfolgt. Das Programm bestimmt dann, welche Rahmen wie Puzzleteile ineinander passen. Jedes Puzzleteil hat mehrere Partner, so dass ein Regisseur oder Redakteur die beste Kombination auswählen kann, um den gewünschten Gesichtsausdruck zu erzielen.
Um experimentierfreudiges Material zu schaffen, brachte das Team eine Gruppe von Studierenden der Zürcher Hochschule der Künste mit. Die Schüler spielten mehrere Takes eines erfundenen Dialogs und machten jedes Mal unterschiedliche Gesichtsausdrücke - fröhlich, wütend, aufgeregt und so weiter. Das Team konnte dann mithilfe der Software eine beliebige Anzahl von Kombinationen von Gesichtsausdrücken erstellen, die differenziertere Emotionen hervorriefen - traurig und ein bisschen wütend, aufgeregt, aber ängstlich und so weiter. Sie waren in der Lage, mehrere Einstellungen zu mischen - zum Beispiel eine ängstliche und eine neutrale -, um steigende und fallende Emotionen zu erzeugen.
Das FaceDirector-Team ist sich nicht sicher, wie oder wann die Software im Handel erhältlich sein könnte. Das Produkt funktioniert immer noch am besten, wenn Szenen vor einem statischen Hintergrund aufgenommen werden. Sich bewegende Schauspieler und bewegende Landschaften im Freien (denken Sie an schwankende Bäume, vorbei an Autos) sind eher eine Herausforderung für die Synchronisation.