Virtual Reality – Storytelling und Produktion am Beispiel der Nachrichtensendung ZDF heute journal und dem Kurzfilm SONAR

Auf der diesjährigen re:publica ten, die Anfang Mai in Berlin stattfand, stellten unter anderem die Berliner Filmproduktionsfirma Trotzkind mit dem ZDF heute journal einen Prototyp für eine Newssendung der Zukunft in Virtual Reality vor. Die Filmstudenten Dominik Stockhausen und Philipp Maas, Absolventen der Filmakademie Baden-Württemberg, präsentierten den mehrfach ausgezeichneten 360 Grad Kurzfilm SONAR.

Was sich konkret in der Praxis im Vergleich von einer VR-Produktion zur klassischen TV- und Filmproduktion verändert hat, lässt sich anhand dieser Beispiele verdeutlichen.

Denn Virtual Reality (VR) ist „ein komplett neues Medium mit spezifischen Anforderungen und Gesetzen“ (Arne Ludwig, Vorstand EDFVR). Diese neuen Anforderungen machen sich hauptsächlich in den Bereichen Storytelling und Produktion bemerkbar.

VR-Demo: ZDF heute journal – „Mars Mission“

In Zusammenarbeit mit dem ZDF heute journal und seiner Moderatorin Eva-Maria Lemke präsentierte das Unternehmen Trotzkind eine bevorstehende Marslandung, bei der der Zuschauer interaktiv mit in das Geschehen eingreifen kann.

Die Idee zu diesem Forschungsprojekt entstand vor dem Hintergrund, dass die Produzenten Sven Haeberlein und Nico Nonne in verschiedenen Gesprächen mit Journalisten festgestellt haben, dass ein großes Interesse darin besteht, Nachrichten in Virtual Reality umzusetzen. Aus diesem Grund stellte sich für Trotzkind die Frage, mit welchen immersiven Mitteln bei Nachrichtensendungen gearbeitet werden kann, um einerseits ernste Themen zu vermitteln und andererseits den Zuschauer zu einem Teil dieser Experience zu machen.

Doch welches Newsthema eignet sich besonders, um bei den Zuschauern große Emotionen hervorzurufen? Haeberlein (Geschäftsführer Trotzkind):

 „Ein wissenschaftlicher Text vermittelt Inhalte auf einer abstrakten intellektuellen Ebene, die einen Abstand zum Leser herstellen, so dass er sich seine eigenen Gedanken dazu machen und Emotionen entwickeln kann. Ein Film hingegen drückt audiovisuell mit Bildern und Musik sehr viel mehr Emotionen aus. VR geht hierbei noch einen Schritt weiter, denn der Zuschauer wird von der Welt „eingenommen“ und die emotionale Ebene somit noch viel stärker angesprochen als die intellektuelle. Große Emotionen können mit großen Themen, wie z.B. der Fußball-WM oder den Olympischen Spielen hervorgerufen werden. Eines der größten medialen Ereignisse in der Geschichte war die Mondlandung – hier kommen Hollywood und Tagesschau zusammen. Das Thema hat zum einen Entertainmentcharakter und zum anderen einen extremen Newswert.“

Deshalb lag für die Produzenten das Thema einer bevorstehenden Marslandung nahe, einen vorausschauenden Blick in die Zukunft zu wagen, wie eine derartige VR-Nachrichtensendung aussehen könnte.

Das Ziel der Mars Mission bestand darin, den passiven Zuschauer in das Geschehen zu involvieren, so dass er im Studio umherlaufen kann und ihn zudem mittels Gesten und Handbewegungen (z.B. mit Joystick) zu einer Aktion zu animieren. Haeberlein:

„Im Gamesbereich ist es normal, dass Raumschiffe bedient werden, indem man verschiedene Knöpfe drückt. Der Anspruch bestand darin, dies für eine lineare Newssendung zu adaptieren.“

Sehen Sie hier das Video zur VR-Demo „Mars Mission“

Fotos © Trotzkind

 

Die Mars Mission folgt einem dreistufigen Storytelling-Konzept.

Um „möglichst nah zu den Leuten zu kommen“, haben sich die Produzenten überlegt, das ZDF heute journal Studio zu den Zuschauern nach Hause zu verlagern, wie etwa mitten ins Wohnzimmer oder auf die Dachterrasse – so wie im hier dargestellten Showcase.

Für die Realisierung der Interaktion sind im Vorfeld verschiedene Nutzertypen berücksichtigt worden. Bereits auf der re:publica 2015 stellten die Produzenten fest, dass es Nutzer gibt, die sehr auf diese „Interaktion stehen, und andere wiederum lediglich die Brille aufsetzen und einfach nur geradeaus starren wie bei einem Fernseher, ohne interagieren zu wollen“, erklärt Haeberlein. Aus diesem Grund entwickelte das Unternehmen für die Mars Mission ein dreistufiges Storytelling-Konzept. Der Anfang verläuft zunächst linear, der Zuschauer muss nichts tun, sitzt passiv im Studio und schaut der Moderatorin zu. Auf der zweiten Stufe folgt die Interaktion mittels eines Joysticks, mit dem der Zuschauer gemeinsam mit einer Pilotin das vorbeifliegende Spaceshuttle zum Mars fliegen kann. Auf der dritten Stufe, nach der Marslandung, kann der Zuschauer aufstehen und auf dem Mars umherlaufen.

Doch was passiert eigentlich, wenn der Zuschauer nichts macht, den Anweisungen der Pilotin nicht folgt? Auch dann stürzt das Spaceshuttle nicht ab. Die Pilotin reagiert jedoch auf den Nutzer als Co-Piloten und kommuniziert mit ihm. Die Sendung ist deshalb so konzipiert, dass sie auch ohne Aktion vom Zuschauer konsumiert werden kann.

Es kommt darauf an, dem Zuschauer vorzugaukeln, dass er eine Entscheidungsmöglichkeit hat.

Für den Autor bzw. Entwickler bedeutet das jedoch, dass er sich bereits im Vorfeld verschiedene Szenarien überlegen sollte, wie sich die Zuschauer möglicherweise verhalten könnten und dementsprechend verschiedene Drehbücher bzw. Storyboards zu entwickeln. Hierin besteht auch der Hauptunterschied im Vergleich zu einer klassischen Dramaturgie. Eine VR-Dramaturgie ist in dieser Beziehung deutlich aufwendiger. Sie ist natürlich davon abhängig, wie viele Auswahlmöglichkeiten man dem Nutzer überlassen möchte. Fest steht: Mehr Möglichkeiten zur Interaktion, erfordern mehr inhaltliche Verzweigungen und diese steigen somit exponentiell. Haeberlein erklärt, dass es außerdem darauf ankommt, dem Nutzer „vorzugaukeln“, dass er eine Entscheidungsmöglichkeit hat. In Wirklichkeit wird er gezielt in eine bestimmte Richtung gelenkt – wie bei einem Rollenspiel. Ein guter Spielleiter ist in der Lage, den Zuschauer zum Beispiel dazu zu bringen, anstatt auf den Mars zu fliegen lieber bei einem Fußballspiel mitzufiebern.

Neben diesem interaktiven inhaltlichen Aspekt besteht ein weiterer formaler Unterschied im Vergleich zur klassischen Film- und TV-Produktion im Schnitt. Es gibt keine Schnitte mehr. Die Mars Mission Experience wurde ursprünglich wie ein klassischer Film geplant: Planung, Drehbuch, Produktion/Dreh, Postproduktion. Die Praxis hat jedoch gezeigt, dass zukünftig viel mehr Zeit in die Erstellung eines Prototypen investiert werden muss, um ein gewisses ‚Spieldesign’ zu realisieren und um eine Balance zwischen Unter- und Überforderung des Nutzers zu schaffen.

Die Schnitt-Arbeit für Virtual Reality ist anders als beim klassischen Film. Hier gibt es beispielsweise auch keinen Nachdreh. Beim Gamedesign ist der Ablauf: Dreh, Schnitt, neuer Dreh, Schnitt, neuer Dreh usw. Dadurch vergrößert sich der Umfang des Projektes immens. Andererseits besteht der Vorteil darin, dass nicht mehr alles fertig abgedreht sein muss, bevor es in die Postproduktion geht. Es wird zunächst mit Papierschnipseln gearbeitet, um das Spiel zu planen, bevor überhaupt angefangen wird, die Probelayouts am Computer zu erstellen.

Für Haeberlein stellt die Postproduktion die zeit- und und kostenintensivste Stufe im Wertschöpfungsprozess dar. Bei der zehnmonatigen Produktion des Prototypen „Mars Mission“ haben vierzehn Personen (inkl. Film-Crew) mitgewirkt.

Virtuelle Welten werden nicht billig sein.

Die Kosten für eine derartige VR-Nachrichtensendung werden laut Haeberlein auf jeden Fall teurer sein als bei einer ‚normalen’ Produktion – denn: je mehr Interaktivität, um so mehr Inhalte. Vergleichsweise entsprechen 90 Minuten Film im, etwa 500-minütigem Material in einem Game, da dem Nutzer mehr Auswahlmöglichkeiten und somit Storys drumherum zur Verfügung stehen. Allerdings räumt Haeberlein ein, dass in Zukunft verschiedene Tools und Software entstehen werden, die die Prozesse vereinfachen werden und die Produktion somit günstiger wird.

Vom VR-Format zum VR-Sender

Den aufwendigsten Teil der VR-Produktion stellt die Postproduktion dar. Ein Format entspricht aktuell einem Storyteil in einem Game. Der Nutzer kann sich aussuchen, ob er sich in den nächsten dreißig Minuten zum Beispiel mit einer Doku über das Allgäu oder mit der Tagesschau auseinandersetzen möchte, die vielleicht gerade in einem anderen Storyteil läuft.

Beim klassischen Fernsehen hat der Zuschauer auch mehrere Auswahlmöglichkeiten und kann umschalten. Eine Sendung bedient einen Weg, der dem Zuschauer aufzeigt, was ihn thematisch in den nächsten zwanzig Minuten erwartet. „Das dahinter kann man sich in der VR-Welt wie einen Sender vorstellen. Man könnte auch sagen, eine VR-Sendung ist der Sender und darunter kann es hunderte von Untersendungen geben.“, erklärt Haeberlein.

Ob VR-Sendungen – wie die hier beschriebene Demo zur Mars Mission – überhaupt in nächster Zeit von den klassischen TV-Sendern angefragt werden, lässt sich aktuell schwer abschätzen.

„Die TV-Sender sind gerade erst einmal dabei sich umzuschauen, wie sie VR verwenden können. Die Herausforderungen liegen aber nicht nur bei den Sendern, sondern auch beim Staat. Dieser muss VR zunächst als ‚Medium’ anerkennen, z.B. hinsichtlich der Inanspruchnahme von Förderungen. Hierbei handelt es sich natürlich nicht nur um Virtual Reality, sondern um den gesamten Gamessektor. In diesem Bereich hat in den letzten Jahren dahingehend ein Umdenken stattgefunden , dass es sich hierbei um ein Medium handelt, in dem der Staat vertreten sein will“, führt Haeberlein fort.

Generell stellt sich seiner Meinung nach die Frage,

„was dem Staat klassische Medien wie Film, Theater, Oper usw. im Vergleich zu den neuen Medien wert sind? Es kommen ja immer mehr Medien dazu, aber es wird nicht unbedingt mehr Geld zur Verfügung gestellt.“


SONAR, 360 Grad Kurzfilm

In dem von den Filmstudenten Dominik Stockhausen und Philipp Maas entwickelten Sci-fi Kurzfilm SONAR geht es um eine Drohne, die einen unbekannten Asteroiden entdeckt. Auf ihrer Reise über eine felsigen Oberfläche empfängt sie ein starkes Signal. Um den Ursprung ausfindig zu machen, erkundet die Drohne ein altes Labyrinth, ein Ort, der ein Geheimnis in sich birgt, das sehr viel dunkler ist als es selbst.

Den Film bezeichnen seine Macher als eine „neue Form des cinematischen Entertainments, der ein eindrucksvolles Gleichgewicht zwischen dem traditionellen Filmemachen und den interaktiven Medien schafft.“ Dieser experimentelle, immersive 360 Grad Kurzfilm besteht aus einer 3D Computeranimation. Entstanden ist der Film in einer Produktionszeit von ungefähr vier Monaten (die sich von Mitte 2014 bis Ende 2015 in Etappen vollzogen hat). Ende des letzten Jahres wurde der Film fertiggestellt und mit einer App auf den Markt gebracht (im Oculus Store erhältlich).

Sehen Sie hier das Video zum SONAR Kurzfilm

Fotos © Stockhausen, Maas (Filmakademie Baden-Württemberg)

Die Besonderheit bei SONAR besteht darin, dass es sich hierbei um einen ‚nicht interaktiven’ animierten Film handelt – das heißt es ist ein komplett vorgerendertes Video, das vor dem Zuschauer abläuft. Der Zuschauer hat also keine Entscheidungsmöglichkeit wie bei der „Mars Mission“, jedoch kann er in dem 360 Grad Raum schauen wohin er will. Deshalb bestand die Herausforderung für die Produzenten im Vorfeld darin, nicht genau zu wissen, wohin die Aufmerksamkeit des Zuschauers gerade gerichtet ist und wie das Storytelling an dieser Stelle vorangetrieben werden kann. Aus diesem Grund haben sich die Produzenten Stockhausen und Maas neue Herangehensweisen überlegt, wie man den Blick des Zuschauers und seine Aufmerksamkeit in der 360 Grad Umgebung fokussieren und lenken kann.

Obwohl es bei SONAR Sequenzen gibt, in denen sich der Zuschauer einfach nur umschauen kann, gibt es auch Momente, die für den weiteren Verlauf der Story wichtig sind. Um den Blick in die richtige Richtung zu lenken wurden folgende Mittel eingesetzt:

  • Bewegung

Um den Blick des Zuschauers zu lenken, wurde mit Bewegung gearbeitet. Hierfür wurde ein Raumschiff eingesetzt, das von der linken oberen Seite zur rechten Seite fliegt. Von dem Punkt, an dem das Raumschiff dann gerade ist, wird in eine neue Szene übergeblendet und so weiter. Der Zuschauer kann wie bei einer Karte den Bewegungslinien der Drohne folgen und somit kann eine Blickrichtung erzeugt werden.

  • Licht

Zusätzlich wurde mit viel Licht gearbeitet, denn mittels der Beleuchtung können die entscheidenden Stellen ebenfalls signalisiert werden. Das Weltall war für die Macher von SONAR deshalb ein gutes Setting, da in dieser dunklen Umgebung gut mit Scheinwerfern gearbeitet werden konnte.

  • Frontale Ausrichtung

Es wurde versucht, alles, was in der Geschichte passiert, möglichst frontal auszurichten. Aus diesem Grund existieren in der weiterführenden Geschichte keine Elemente, die aus dem frontalen 120 Grad Blickfeld herausfallen.

  • Schaffung eines künstlichen Rahmens

Beim klassischen Film wird mit sogenannten Frames (festen Rahmen) gearbeitet, in denen sich der Zuschauer mit seinem Blick bewegt. Bei 360 Grad Videos gibt es diese Frames nicht mehr. Deshalb wurde bei SONAR versucht, ein künstliches Frame zu schaffen, indem der Rand des Blickfeldes, in dem gerade etwas passiert, mit verschiedenen Objekten versehen wird. Praktisch sieht das so aus, dass der Zuschauer auf der Suche nach dem hörbaren Signal ist. Sobald der Ursprung des Signals gefunden wurde, wird im Film eine mit einem Kabel versehene Sonde herausgeschickt, deren Bild auf einen Monitor übertragen wird, der links gerade noch im Blickfeld zu sehen ist. Weiterhin wurde mit einer Struktur gearbeitet, wie sie im Cockpit des Raumschiffs zu sehen ist. Sie besteht aus einer geometrischen Stangenkonstruktion vor einer halbrunden Glaskuppel. Dadurch konnte etwas mehr Kontrolle über den Blick erreicht werden.

Es kommt darauf an, für welche Hardware produziert wird.

Die Herausforderung bestand für die Produzenten darin, dass sich je nach Brillenmodell die Blickfelder verschieben, d.h. sie weiter oder enger ausfallen. Beispielsweise hatte eine frühere Oculus Rift Version ein weiteres Blickfeld. Aus dem Grund sind mit dem neueren Oculus Rift Modell einige Elemente aus dem Blickfeld verloren gegangen und man sieht weniger. Es kommt deshalb ganz speziell darauf an, für welche Hardware produziert wird.

Beim Schnitt hat der Zuschauer das Gefühl des Teleportierens.

Dem Zuschauer kommt eine wichtigere Rolle zu als im klassischen Film, denn er nimmt in der Geschichte den Point-of-View ein. Der Schnitt im klassischen Film kommt einer räumlichen Bewegung gleich. Ein Schnitt im VR vermittelt dem Zuschauer das Gefühl, dass er „irgendwohin transportiert wird“. Er befindet sich in einem 360 Grad Raum und wenn plötzlich ein räumlicher Wechsel (z.B. von einem Haus in den Garten) stattfindet, hat der Zuschauer das Gefühl des Teleportierens. Das heißt, es fehlt die Distanz zur Leinwand, die mit einem Rahmen umgeben ist. Für den Zuschauer entsteht deshalb eine Situation der Verwirrung und er muss sich zunächst komplett neu im Raum orientieren. Deshalb sollte der Szenenwechsel mittels weicher Überblendungen sehr kontrolliert stattfinden.

Stockhausen fügt hinzu, dass beim Storytelling für VR eine völlig andere Art von Geschichte benötigt wird und man sich als Filmemacher „komplett von der klassischen Art, wie man filmische Geschichten erzählt, lösen und das Medium so nehmen muss, wie es gerade ist“. Filmische Erzählmittel wie Schnitt, Kadrierung, Einstellungsgrößen, Tiefenschärfe usw. können nicht eins zu eins aus dem Film übernommen werden, sie verändern sich komplett.

Hinsichtlich der Produktion muss zunächst zwischen einem animierten und einem szenischen Film in Virtual Reality unterschieden werden. Obwohl sich konzeptionell beide lange auf der gleichen Schiene bewegen, werden die Produktionsabläufe anders gehandhabt. Beide Produktionsprozesse vereint die Tatsache, dass vom Autor/Produzenten nicht zu hundert Prozent vorausgeplant werden kann, wie der Film am Ende funktionieren oder aussehen wird. Ein Animationsfilm ist bereits in der Vorproduktion komplett vom Timing und den Gesten her erarbeitet.

Bei der Umsetzung von SONAR war die Art und Weise der Umsetzung sehr unkonventionell. Heute wird vorrangig mit Engines, also in Echtzeit mittels entsprechender Software gearbeitet. Diese erstellen Echtheit 3D Bilder sowie eine Geometrie – ähnlich einer Games-Software. Hierbei bekommt man ein ganz unmittelbares Feedback, man kann die Szene öffnen, sich eine Szene zusammenbauen, die Brille aufsetzen und sich in dieser Szene bewegen. Auf diese Weise bekommt man ein Instant-Feedback.

In die Vorproduktion muss wesentlich mehr Zeit gesteckt werden als bei einem klassischen Film.

Dies ist gerade für den Werbefilmbereich relevant, da die Zeit für Werbefilme oftmals knapp bemessen ist und die Produktionsseite dem Kunden zunächst vermitteln muss, dass dieses Medium und das Erzählen in diesem Medium noch so unberechenbar und unerforscht ist und die Umsetzung eines solchen Filmprojektes noch sehr viel Research und Development erfordert.

„Es fällt wirklich viel Vorabreit an, um so ein Projekt ideal umzusetzen.“ Das ist laut Stockhausen der Hauptgrund, warum derzeit so viele Projekte scheitern, „weil viele schnell auf diesen VR-Zug aufspringen und sich positionieren wollen und oftmals die Vorarbeit zu kurz ausfällt.“

Hinsichtlich Postproduktion gehen szenischer und animierter Film stark auseinander. Beim szenischen Film liegt die Hauptarbeit in der Postproduktion (siehe „Mars Mission“), um diese Bilder nachzuarbeiten, zu verbessern, zu stitchen. Bei der Animation fällt die Postproduktion deutlich kürzer aus. Stockhausen:

„Beim Animationsfilm geht man in der Postproduktion in den Schnitt und macht ein Compositing – also fügt die Ebenen zusammen. Da hat man noch sehr viel Spielraum. Jedes einzelne Bild, das man bekommt, ist ja dieses 360 Grad Panorama. Deshalb ist alles verzerrt und man muss drumherum arbeiten, um im Nachhinein noch mal auf die Bilder zuzugreifen. Das ist sehr zeitaufwendig. Deshalb ist es bei animierten VR-Filmen so, dass der Fokus sich mehr auf die Vorproduktion und die Produktion verlagert.“

Prinzipiell ist Stockhausen der Meinung, dass

gegenwärtig alles noch nicht so in Stein gemeißelt ist. Alles kann sich schnell ändern, da sich die Techniken und die Herangehensweisen so schnell ändern. Seiner Meinung nach braucht es noch viel Zeit und weitere Projektexperimente, um dieses Medium greifbarer zu machen. Aktuell wird versucht, viele Inhalte auf das neue Medium zu adaptieren, aber das eigentliche Potenzial ist noch gar nicht richtig fassbar.“

Stockhausen selbst wartet „noch auf die VR-Experience, die ihn emotional packt und ihn durchgängig überzeugt.“ Es gibt aus seiner Sicht derzeit sehr viele Projekte, in denen einzelne Aspekte sehr vielversprechend und faszinierend sind. Er glaubt, dass gerade der Austausch zwischen diesen einzelnen Ansätzen sehr wichtig ist, um ein Gespür dafür zu bekommen, was man machen kann und was nicht, dass man aber auch den ganzen Status Quo und Richtlinien, die sich gerade entwickeln, wieder nimmt und anfängt aufzubrechen, um diese ganze Entwicklung so offen wie möglich zu halten.

Hintergrund:
Die Interviews mit Sven Haeberlein (Geschäftsführer Trotzkind GmbH) und Dominik Stockhausen (Filmstudent, Filmakademie Baden-Württemberg) wurden von Anett Göritz im Rahmen einer empirischen Studie der DCI Institute GmbH, in Kooperation mit der Hochschule Fresenius sowie dem EDFVR, zum Thema: „Bedeutung von Virtual Reality für den Bewegtbildsektor“ geführt.
Die Kurzfassung des Artikels erschien zuerst auf www.kress.de (21.06.2016)