Virtual Reality – Storytelling und Produktion am Beispiel der Nachrichtensendung ZDF heute journal und dem Kurzfilm SONAR

Auf der diesjährigen re:publica ten, die Anfang Mai in Berlin stattfand, stellten unter anderem die Berliner Filmproduktionsfirma Trotzkind mit dem ZDF heute journal einen Prototyp für eine Newssendung der Zukunft in Virtual Reality vor. Die Filmstudenten Dominik Stockhausen und Philipp Maas, Absolventen der Filmakademie Baden-Württemberg, präsentierten den mehrfach ausgezeichneten 360 Grad Kurzfilm SONAR.

Was sich konkret in der Praxis im Vergleich von einer VR-Produktion zur klassischen TV- und Filmproduktion verändert hat, lässt sich anhand dieser Beispiele verdeutlichen.

Denn Virtual Reality (VR) ist „ein komplett neues Medium mit spezifischen Anforderungen und Gesetzen“ (Arne Ludwig, Vorstand EDFVR). Diese neuen Anforderungen machen sich hauptsächlich in den Bereichen Storytelling und Produktion bemerkbar.

VR-Demo: ZDF heute journal – „Mars Mission“

In Zusammenarbeit mit dem ZDF heute journal und seiner Moderatorin Eva-Maria Lemke präsentierte das Unternehmen Trotzkind eine bevorstehende Marslandung, bei der der Zuschauer interaktiv mit in das Geschehen eingreifen kann.

Die Idee zu diesem Forschungsprojekt entstand vor dem Hintergrund, dass die Produzenten Sven Haeberlein und Nico Nonne in verschiedenen Gesprächen mit Journalisten festgestellt haben, dass ein großes Interesse darin besteht, Nachrichten in Virtual Reality umzusetzen. Aus diesem Grund stellte sich für Trotzkind die Frage, mit welchen immersiven Mitteln bei Nachrichtensendungen gearbeitet werden kann, um einerseits ernste Themen zu vermitteln und andererseits den Zuschauer zu einem Teil dieser Experience zu machen.

Doch welches Newsthema eignet sich besonders, um bei den Zuschauern große Emotionen hervorzurufen? Haeberlein (Geschäftsführer Trotzkind):

 „Ein wissenschaftlicher Text vermittelt Inhalte auf einer abstrakten intellektuellen Ebene, die einen Abstand zum Leser herstellen, so dass er sich seine eigenen Gedanken dazu machen und Emotionen entwickeln kann. Ein Film hingegen drückt audiovisuell mit Bildern und Musik sehr viel mehr Emotionen aus. VR geht hierbei noch einen Schritt weiter, denn der Zuschauer wird von der Welt „eingenommen“ und die emotionale Ebene somit noch viel stärker angesprochen als die intellektuelle. Große Emotionen können mit großen Themen, wie z.B. der Fußball-WM oder den Olympischen Spielen hervorgerufen werden. Eines der größten medialen Ereignisse in der Geschichte war die Mondlandung – hier kommen Hollywood und Tagesschau zusammen. Das Thema hat zum einen Entertainmentcharakter und zum anderen einen extremen Newswert.“

Deshalb lag für die Produzenten das Thema einer bevorstehenden Marslandung nahe, einen vorausschauenden Blick in die Zukunft zu wagen, wie eine derartige VR-Nachrichtensendung aussehen könnte.

Das Ziel der Mars Mission bestand darin, den passiven Zuschauer in das Geschehen zu involvieren, so dass er im Studio umherlaufen kann und ihn zudem mittels Gesten und Handbewegungen (z.B. mit Joystick) zu einer Aktion zu animieren. Haeberlein:

„Im Gamesbereich ist es normal, dass Raumschiffe bedient werden, indem man verschiedene Knöpfe drückt. Der Anspruch bestand darin, dies für eine lineare Newssendung zu adaptieren.“

Sehen Sie hier das Video zur VR-Demo „Mars Mission“

Fotos © Trotzkind

 

Die Mars Mission folgt einem dreistufigen Storytelling-Konzept.

Um „möglichst nah zu den Leuten zu kommen“, haben sich die Produzenten überlegt, das ZDF heute journal Studio zu den Zuschauern nach Hause zu verlagern, wie etwa mitten ins Wohnzimmer oder auf die Dachterrasse – so wie im hier dargestellten Showcase.

Für die Realisierung der Interaktion sind im Vorfeld verschiedene Nutzertypen berücksichtigt worden. Bereits auf der re:publica 2015 stellten die Produzenten fest, dass es Nutzer gibt, die sehr auf diese „Interaktion stehen, und andere wiederum lediglich die Brille aufsetzen und einfach nur geradeaus starren wie bei einem Fernseher, ohne interagieren zu wollen“, erklärt Haeberlein. Aus diesem Grund entwickelte das Unternehmen für die Mars Mission ein dreistufiges Storytelling-Konzept. Der Anfang verläuft zunächst linear, der Zuschauer muss nichts tun, sitzt passiv im Studio und schaut der Moderatorin zu. Auf der zweiten Stufe folgt die Interaktion mittels eines Joysticks, mit dem der Zuschauer gemeinsam mit einer Pilotin das vorbeifliegende Spaceshuttle zum Mars fliegen kann. Auf der dritten Stufe, nach der Marslandung, kann der Zuschauer aufstehen und auf dem Mars umherlaufen.

Doch was passiert eigentlich, wenn der Zuschauer nichts macht, den Anweisungen der Pilotin nicht folgt? Auch dann stürzt das Spaceshuttle nicht ab. Die Pilotin reagiert jedoch auf den Nutzer als Co-Piloten und kommuniziert mit ihm. Die Sendung ist deshalb so konzipiert, dass sie auch ohne Aktion vom Zuschauer konsumiert werden kann.

Es kommt darauf an, dem Zuschauer vorzugaukeln, dass er eine Entscheidungsmöglichkeit hat.

Für den Autor bzw. Entwickler bedeutet das jedoch, dass er sich bereits im Vorfeld verschiedene Szenarien überlegen sollte, wie sich die Zuschauer möglicherweise verhalten könnten und dementsprechend verschiedene Drehbücher bzw. Storyboards zu entwickeln. Hierin besteht auch der Hauptunterschied im Vergleich zu einer klassischen Dramaturgie. Eine VR-Dramaturgie ist in dieser Beziehung deutlich aufwendiger. Sie ist natürlich davon abhängig, wie viele Auswahlmöglichkeiten man dem Nutzer überlassen möchte. Fest steht: Mehr Möglichkeiten zur Interaktion, erfordern mehr inhaltliche Verzweigungen und diese steigen somit exponentiell. Haeberlein erklärt, dass es außerdem darauf ankommt, dem Nutzer „vorzugaukeln“, dass er eine Entscheidungsmöglichkeit hat. In Wirklichkeit wird er gezielt in eine bestimmte Richtung gelenkt – wie bei einem Rollenspiel. Ein guter Spielleiter ist in der Lage, den Zuschauer zum Beispiel dazu zu bringen, anstatt auf den Mars zu fliegen lieber bei einem Fußballspiel mitzufiebern.

Neben diesem interaktiven inhaltlichen Aspekt besteht ein weiterer formaler Unterschied im Vergleich zur klassischen Film- und TV-Produktion im Schnitt. Es gibt keine Schnitte mehr. Die Mars Mission Experience wurde ursprünglich wie ein klassischer Film geplant: Planung, Drehbuch, Produktion/Dreh, Postproduktion. Die Praxis hat jedoch gezeigt, dass zukünftig viel mehr Zeit in die Erstellung eines Prototypen investiert werden muss, um ein gewisses ‚Spieldesign’ zu realisieren und um eine Balance zwischen Unter- und Überforderung des Nutzers zu schaffen.

Die Schnitt-Arbeit für Virtual Reality ist anders als beim klassischen Film. Hier gibt es beispielsweise auch keinen Nachdreh. Beim Gamedesign ist der Ablauf: Dreh, Schnitt, neuer Dreh, Schnitt, neuer Dreh usw. Dadurch vergrößert sich der Umfang des Projektes immens. Andererseits besteht der Vorteil darin, dass nicht mehr alles fertig abgedreht sein muss, bevor es in die Postproduktion geht. Es wird zunächst mit Papierschnipseln gearbeitet, um das Spiel zu planen, bevor überhaupt angefangen wird, die Probelayouts am Computer zu erstellen.

Für Haeberlein stellt die Postproduktion die zeit- und und kostenintensivste Stufe im Wertschöpfungsprozess dar. Bei der zehnmonatigen Produktion des Prototypen „Mars Mission“ haben vierzehn Personen (inkl. Film-Crew) mitgewirkt.

Virtuelle Welten werden nicht billig sein.

Die Kosten für eine derartige VR-Nachrichtensendung werden laut Haeberlein auf jeden Fall teurer sein als bei einer ‚normalen’ Produktion – denn: je mehr Interaktivität, um so mehr Inhalte. Vergleichsweise entsprechen 90 Minuten Film im, etwa 500-minütigem Material in einem Game, da dem Nutzer mehr Auswahlmöglichkeiten und somit Storys drumherum zur Verfügung stehen. Allerdings räumt Haeberlein ein, dass in Zukunft verschiedene Tools und Software entstehen werden, die die Prozesse vereinfachen werden und die Produktion somit günstiger wird.

Vom VR-Format zum VR-Sender

Den aufwendigsten Teil der VR-Produktion stellt die Postproduktion dar. Ein Format entspricht aktuell einem Storyteil in einem Game. Der Nutzer kann sich aussuchen, ob er sich in den nächsten dreißig Minuten zum Beispiel mit einer Doku über das Allgäu oder mit der Tagesschau auseinandersetzen möchte, die vielleicht gerade in einem anderen Storyteil läuft.

Beim klassischen Fernsehen hat der Zuschauer auch mehrere Auswahlmöglichkeiten und kann umschalten. Eine Sendung bedient einen Weg, der dem Zuschauer aufzeigt, was ihn thematisch in den nächsten zwanzig Minuten erwartet. „Das dahinter kann man sich in der VR-Welt wie einen Sender vorstellen. Man könnte auch sagen, eine VR-Sendung ist der Sender und darunter kann es hunderte von Untersendungen geben.“, erklärt Haeberlein.

Ob VR-Sendungen – wie die hier beschriebene Demo zur Mars Mission – überhaupt in nächster Zeit von den klassischen TV-Sendern angefragt werden, lässt sich aktuell schwer abschätzen.

„Die TV-Sender sind gerade erst einmal dabei sich umzuschauen, wie sie VR verwenden können. Die Herausforderungen liegen aber nicht nur bei den Sendern, sondern auch beim Staat. Dieser muss VR zunächst als ‚Medium’ anerkennen, z.B. hinsichtlich der Inanspruchnahme von Förderungen. Hierbei handelt es sich natürlich nicht nur um Virtual Reality, sondern um den gesamten Gamessektor. In diesem Bereich hat in den letzten Jahren dahingehend ein Umdenken stattgefunden , dass es sich hierbei um ein Medium handelt, in dem der Staat vertreten sein will“, führt Haeberlein fort.

Generell stellt sich seiner Meinung nach die Frage,

„was dem Staat klassische Medien wie Film, Theater, Oper usw. im Vergleich zu den neuen Medien wert sind? Es kommen ja immer mehr Medien dazu, aber es wird nicht unbedingt mehr Geld zur Verfügung gestellt.“


SONAR, 360 Grad Kurzfilm

In dem von den Filmstudenten Dominik Stockhausen und Philipp Maas entwickelten Sci-fi Kurzfilm SONAR geht es um eine Drohne, die einen unbekannten Asteroiden entdeckt. Auf ihrer Reise über eine felsigen Oberfläche empfängt sie ein starkes Signal. Um den Ursprung ausfindig zu machen, erkundet die Drohne ein altes Labyrinth, ein Ort, der ein Geheimnis in sich birgt, das sehr viel dunkler ist als es selbst.

Den Film bezeichnen seine Macher als eine „neue Form des cinematischen Entertainments, der ein eindrucksvolles Gleichgewicht zwischen dem traditionellen Filmemachen und den interaktiven Medien schafft.“ Dieser experimentelle, immersive 360 Grad Kurzfilm besteht aus einer 3D Computeranimation. Entstanden ist der Film in einer Produktionszeit von ungefähr vier Monaten (die sich von Mitte 2014 bis Ende 2015 in Etappen vollzogen hat). Ende des letzten Jahres wurde der Film fertiggestellt und mit einer App auf den Markt gebracht (im Oculus Store erhältlich).

Sehen Sie hier das Video zum SONAR Kurzfilm

Fotos © Stockhausen, Maas (Filmakademie Baden-Württemberg)

Die Besonderheit bei SONAR besteht darin, dass es sich hierbei um einen ‚nicht interaktiven’ animierten Film handelt – das heißt es ist ein komplett vorgerendertes Video, das vor dem Zuschauer abläuft. Der Zuschauer hat also keine Entscheidungsmöglichkeit wie bei der „Mars Mission“, jedoch kann er in dem 360 Grad Raum schauen wohin er will. Deshalb bestand die Herausforderung für die Produzenten im Vorfeld darin, nicht genau zu wissen, wohin die Aufmerksamkeit des Zuschauers gerade gerichtet ist und wie das Storytelling an dieser Stelle vorangetrieben werden kann. Aus diesem Grund haben sich die Produzenten Stockhausen und Maas neue Herangehensweisen überlegt, wie man den Blick des Zuschauers und seine Aufmerksamkeit in der 360 Grad Umgebung fokussieren und lenken kann.

Obwohl es bei SONAR Sequenzen gibt, in denen sich der Zuschauer einfach nur umschauen kann, gibt es auch Momente, die für den weiteren Verlauf der Story wichtig sind. Um den Blick in die richtige Richtung zu lenken wurden folgende Mittel eingesetzt:

  • Bewegung

Um den Blick des Zuschauers zu lenken, wurde mit Bewegung gearbeitet. Hierfür wurde ein Raumschiff eingesetzt, das von der linken oberen Seite zur rechten Seite fliegt. Von dem Punkt, an dem das Raumschiff dann gerade ist, wird in eine neue Szene übergeblendet und so weiter. Der Zuschauer kann wie bei einer Karte den Bewegungslinien der Drohne folgen und somit kann eine Blickrichtung erzeugt werden.

  • Licht

Zusätzlich wurde mit viel Licht gearbeitet, denn mittels der Beleuchtung können die entscheidenden Stellen ebenfalls signalisiert werden. Das Weltall war für die Macher von SONAR deshalb ein gutes Setting, da in dieser dunklen Umgebung gut mit Scheinwerfern gearbeitet werden konnte.

  • Frontale Ausrichtung

Es wurde versucht, alles, was in der Geschichte passiert, möglichst frontal auszurichten. Aus diesem Grund existieren in der weiterführenden Geschichte keine Elemente, die aus dem frontalen 120 Grad Blickfeld herausfallen.

  • Schaffung eines künstlichen Rahmens

Beim klassischen Film wird mit sogenannten Frames (festen Rahmen) gearbeitet, in denen sich der Zuschauer mit seinem Blick bewegt. Bei 360 Grad Videos gibt es diese Frames nicht mehr. Deshalb wurde bei SONAR versucht, ein künstliches Frame zu schaffen, indem der Rand des Blickfeldes, in dem gerade etwas passiert, mit verschiedenen Objekten versehen wird. Praktisch sieht das so aus, dass der Zuschauer auf der Suche nach dem hörbaren Signal ist. Sobald der Ursprung des Signals gefunden wurde, wird im Film eine mit einem Kabel versehene Sonde herausgeschickt, deren Bild auf einen Monitor übertragen wird, der links gerade noch im Blickfeld zu sehen ist. Weiterhin wurde mit einer Struktur gearbeitet, wie sie im Cockpit des Raumschiffs zu sehen ist. Sie besteht aus einer geometrischen Stangenkonstruktion vor einer halbrunden Glaskuppel. Dadurch konnte etwas mehr Kontrolle über den Blick erreicht werden.

Es kommt darauf an, für welche Hardware produziert wird.

Die Herausforderung bestand für die Produzenten darin, dass sich je nach Brillenmodell die Blickfelder verschieben, d.h. sie weiter oder enger ausfallen. Beispielsweise hatte eine frühere Oculus Rift Version ein weiteres Blickfeld. Aus dem Grund sind mit dem neueren Oculus Rift Modell einige Elemente aus dem Blickfeld verloren gegangen und man sieht weniger. Es kommt deshalb ganz speziell darauf an, für welche Hardware produziert wird.

Beim Schnitt hat der Zuschauer das Gefühl des Teleportierens.

Dem Zuschauer kommt eine wichtigere Rolle zu als im klassischen Film, denn er nimmt in der Geschichte den Point-of-View ein. Der Schnitt im klassischen Film kommt einer räumlichen Bewegung gleich. Ein Schnitt im VR vermittelt dem Zuschauer das Gefühl, dass er „irgendwohin transportiert wird“. Er befindet sich in einem 360 Grad Raum und wenn plötzlich ein räumlicher Wechsel (z.B. von einem Haus in den Garten) stattfindet, hat der Zuschauer das Gefühl des Teleportierens. Das heißt, es fehlt die Distanz zur Leinwand, die mit einem Rahmen umgeben ist. Für den Zuschauer entsteht deshalb eine Situation der Verwirrung und er muss sich zunächst komplett neu im Raum orientieren. Deshalb sollte der Szenenwechsel mittels weicher Überblendungen sehr kontrolliert stattfinden.

Stockhausen fügt hinzu, dass beim Storytelling für VR eine völlig andere Art von Geschichte benötigt wird und man sich als Filmemacher „komplett von der klassischen Art, wie man filmische Geschichten erzählt, lösen und das Medium so nehmen muss, wie es gerade ist“. Filmische Erzählmittel wie Schnitt, Kadrierung, Einstellungsgrößen, Tiefenschärfe usw. können nicht eins zu eins aus dem Film übernommen werden, sie verändern sich komplett.

Hinsichtlich der Produktion muss zunächst zwischen einem animierten und einem szenischen Film in Virtual Reality unterschieden werden. Obwohl sich konzeptionell beide lange auf der gleichen Schiene bewegen, werden die Produktionsabläufe anders gehandhabt. Beide Produktionsprozesse vereint die Tatsache, dass vom Autor/Produzenten nicht zu hundert Prozent vorausgeplant werden kann, wie der Film am Ende funktionieren oder aussehen wird. Ein Animationsfilm ist bereits in der Vorproduktion komplett vom Timing und den Gesten her erarbeitet.

Bei der Umsetzung von SONAR war die Art und Weise der Umsetzung sehr unkonventionell. Heute wird vorrangig mit Engines, also in Echtzeit mittels entsprechender Software gearbeitet. Diese erstellen Echtheit 3D Bilder sowie eine Geometrie – ähnlich einer Games-Software. Hierbei bekommt man ein ganz unmittelbares Feedback, man kann die Szene öffnen, sich eine Szene zusammenbauen, die Brille aufsetzen und sich in dieser Szene bewegen. Auf diese Weise bekommt man ein Instant-Feedback.

In die Vorproduktion muss wesentlich mehr Zeit gesteckt werden als bei einem klassischen Film.

Dies ist gerade für den Werbefilmbereich relevant, da die Zeit für Werbefilme oftmals knapp bemessen ist und die Produktionsseite dem Kunden zunächst vermitteln muss, dass dieses Medium und das Erzählen in diesem Medium noch so unberechenbar und unerforscht ist und die Umsetzung eines solchen Filmprojektes noch sehr viel Research und Development erfordert.

„Es fällt wirklich viel Vorabreit an, um so ein Projekt ideal umzusetzen.“ Das ist laut Stockhausen der Hauptgrund, warum derzeit so viele Projekte scheitern, „weil viele schnell auf diesen VR-Zug aufspringen und sich positionieren wollen und oftmals die Vorarbeit zu kurz ausfällt.“

Hinsichtlich Postproduktion gehen szenischer und animierter Film stark auseinander. Beim szenischen Film liegt die Hauptarbeit in der Postproduktion (siehe „Mars Mission“), um diese Bilder nachzuarbeiten, zu verbessern, zu stitchen. Bei der Animation fällt die Postproduktion deutlich kürzer aus. Stockhausen:

„Beim Animationsfilm geht man in der Postproduktion in den Schnitt und macht ein Compositing – also fügt die Ebenen zusammen. Da hat man noch sehr viel Spielraum. Jedes einzelne Bild, das man bekommt, ist ja dieses 360 Grad Panorama. Deshalb ist alles verzerrt und man muss drumherum arbeiten, um im Nachhinein noch mal auf die Bilder zuzugreifen. Das ist sehr zeitaufwendig. Deshalb ist es bei animierten VR-Filmen so, dass der Fokus sich mehr auf die Vorproduktion und die Produktion verlagert.“

Prinzipiell ist Stockhausen der Meinung, dass

gegenwärtig alles noch nicht so in Stein gemeißelt ist. Alles kann sich schnell ändern, da sich die Techniken und die Herangehensweisen so schnell ändern. Seiner Meinung nach braucht es noch viel Zeit und weitere Projektexperimente, um dieses Medium greifbarer zu machen. Aktuell wird versucht, viele Inhalte auf das neue Medium zu adaptieren, aber das eigentliche Potenzial ist noch gar nicht richtig fassbar.“

Stockhausen selbst wartet „noch auf die VR-Experience, die ihn emotional packt und ihn durchgängig überzeugt.“ Es gibt aus seiner Sicht derzeit sehr viele Projekte, in denen einzelne Aspekte sehr vielversprechend und faszinierend sind. Er glaubt, dass gerade der Austausch zwischen diesen einzelnen Ansätzen sehr wichtig ist, um ein Gespür dafür zu bekommen, was man machen kann und was nicht, dass man aber auch den ganzen Status Quo und Richtlinien, die sich gerade entwickeln, wieder nimmt und anfängt aufzubrechen, um diese ganze Entwicklung so offen wie möglich zu halten.

Hintergrund:
Die Interviews mit Sven Haeberlein (Geschäftsführer Trotzkind GmbH) und Dominik Stockhausen (Filmstudent, Filmakademie Baden-Württemberg) wurden von Anett Göritz im Rahmen einer empirischen Studie der DCI Institute GmbH, in Kooperation mit der Hochschule Fresenius sowie dem EDFVR, zum Thema: „Bedeutung von Virtual Reality für den Bewegtbildsektor“ geführt.
Die Kurzfassung des Artikels erschien zuerst auf www.kress.de (21.06.2016)

 

Wie Virtual Reality die TV-Produktionsbranche radikal verändern wird

Virtual Reality (VR), dessen ursprüngliche Entwicklung bereits bis in die 60er Jahre zurückreicht,[1] hat mit dem Aufkommen neuer Informations- und Kommunikationstechnologien vor allem im letzten Jahrzehnt einen neuen Aufschwung erfahren. Was bedeutet Virtual Reality? «Virtual reality is a high-end user-computer interface that involves real-time simulation and interactions though multiple sensorial channels. These sensorial modalities are visual, auditory, tactile, smell, and taste.» [2] Der Mehrwert von VR besteht darin, dass sich die Nutzer in Situationen begeben oder Orte besuchen können, die für sie in der Realität nicht oder nur schwer zugänglich wären (z.B. eine Reise zum Nordpol).[3] Übertragen auf den Fernsehsektor wird aus dem medienspezifischen passiven «Fern-Sehen» ein aktives «Fern-Erleben» und der Zuschauer wird ähnlich wie bei einer Freizeitbeschäftigung aktiv in das Geschehen involviert.[4] Medienökonomische Untersuchungen haben VR bereits in den 90er Jahren vorausgesagt, dass es eine «ähnliche Entwicklung der Kommerzialisierung durchlaufen [wird] wie das Fernsehen».[5] Virtual Reality könnte sich demzufolge zu einem gefragten Werbeträger entwickeln, da sich der Konsument in einem Umfeld aufhält, das er sich selbst ausgesucht hat, «dadurch wird die Werbebotschaft positiver assoziiert».[6]

Spätestens seit diesem Jahr drängen verschiedene Hersteller mit ihren Headsets (z.B. Oculus Rift, HTC Vive) in den Massenmarkt. Die Nutzung der VR-Brillen nimmt zu. Einer Umfrage der BITKOM (2015) zufolge, können sich 14 Mio. Deutsche (jeder Fünfte) die Nutzung von VR-Brillen generell vorstellen.[7] Parallel zum steigendem Absatz der Hard- und Software, wächst auch die Nachfrage nach qualitativ hochwertigen VR-Inhalten aus der Unterhaltungsindustrie. Auf Basis erster Prognosen, werden weltweit VR-Umsätze in Höhe von 9,3 Mrd. US Dollar bis 2018 erwartet.[8] Angesichts dieser Entwicklungen und der vielfältigen Anwendungsmöglichkeiten, rückt VR als neues Geschäftsfeld zunehmend auch in den Fokus der Film- und Fernsehproduktionswirtschaft. Zudem bildet sich innerhalb dieses Wirtschaftszweiges gegenwärtig eine neue VR / 360 Grad-Agenturen-Szene heraus, die sich vor allem auf die technische Herstellung von VR-Inhalten spezialisiert (z.B. eitelsonnenschein, spiceVR oder Trotzkind). Die klassischen TV-Produzenten stehen möglichen VR-Geschäftsmodellen und ihren Erlöspotenzialen jedoch noch kritisch gegenüber.

Wie lässt sich das Geschäftsfeld Virtual Reality für TV-Produzenten nutzen und wie verändert es die klassischen TV-Wertschöpfungsstrukturen und –prozesse? Zu diesen Fragestellungen habe ich ein Experteninterview mit Arne Ludwig, dem Mitbegründer und Vorstand des ‚Ersten deutschen Fachverbands für Virtual Reality’ (EDFVR) geführt, das in diesem Blogpost auszugweise veröffentlicht wird. Arne Ludwig ist zudem Geschäftsführer der neu gegründeten Headtrip GmbH und Produzent bei der eitelsonnenschein GmbH in Köln.

Anett Göritz: Herr Ludwig, warum glauben Sie an Virtual Reality? Was fasziniert Sie an diesem Medium?

Arne Ludwig: Ich mag die Interdisziplinarität. Es arbeiten gemischte Teams von der Ideenentwicklung über die Produktion bis zur Auswertung zusammen. Und die Auswertung kann sich über Multiplattformen erstrecken – das heißt also auch als Installation, als Raumerfahrung und nicht nur via VR-Brille. Faszinierend ist auch mit welcher Schnelligkeit produziert werden kann. Darüber hinaus ist natürlich die Immersion und Präsenz sowie die Emotionalität der Experiences – auch weil viele Sinne getriggert werden – der stärkste Mehrwert von VR. Man hat das Gefühl ‚dabeizusein’. Abgesehen vom «hypehaften» Eindruck der Branded Entertainment Experiences bin ich auch davon überzeugt, dass VR sich als ‚Ordnungssystem’ und ‚human helper’ durchsetzen wird. […]

Anett Göritz: Inwiefern kann man sich VR als «Ordnungssystem» vorstellen und was genau meinen Sie mit «human helper»?

Arne Ludwig: Ich denke zum Beispiel an archivische Strukturen, die man auch virtuell gut nutzen kann. Erinnern Sie sich an Tom Cruise in dem Science-Fiction-Film Minority Report von 2002? Tom Cruise konnte mit seinen Augen und Händen Akten einsehen und Informationen vergleichen. Nun, genau diese Vision wird nun mit Oculus Rift und HTC VIVE in Form von Spatial VR Realität. Die «human helper» sind Kombinationen aus VR-Räumen und Simulationen, die mit Hilfe von Cloud-Servern, Daten in VR sichtbar, zugänglich und somit nutzbar machen.

 «Klassische Redaktionsentscheidungen werden ersetzt durch schnelles Handeln

Anett Göritz: Sie sprachen gerade die Ideenentwicklung, Produktion und Auswertung an. Welche wesentlichen Unterschiede sehen Sie bei den genannten Wertschöpfungsaktivitäten hinsichtlich einer Virtual Reality Produktion im Vergleich zu einer klassischen TV-Produktion?

Arne Ludwig: Es werden einige «Middlemen» aus der Wertschöpfungskette rausfallen. Denn die Macher werden auch zu Broadcastern. Das ist ein Trend, der schon in Transmedia und auch in Webserien anfing und durch Twitter oder Periscope fortgesetzt wurde. Vielleicht werden die Produktionszeiten dadurch etwas verkürzt, weil die Teams von Anfang an interdisziplinärer zusammengesetzt sind. Natürlich wird auch ‚leaner’ und schneller produziert. Das heißt: klassische Redaktionsentscheidungen werden ersetzt durch schnelles Handeln. Der Bereich Storytelling wird komplett neu definiert. Es geht nicht darum klassische, traditionelle oder erprobte Formate für VR zu kopieren, sondern vielmehr darum, die neuen «non-Formats» – sei es durch non-lineare Menüführung oder das Random-Verfahren der Inhalte – als Storytelling zuzulassen. In klassischen Medien werden Abfolgen von linearen Bildern durch Schnitt sowie Ton- und Bildbearbeitung manipuliert. In VR gelingt es uns, die ganze Sphäre zu manipulieren.

Anett Göritz: Mit welchen technischen und filmischen Mitteln wird «die ganze Sphäre» manipuliert?

Arne Ludwig: Statt wie in Film und Fernsehen nur das Frame zu manipulieren und den Ablauf zu schneiden, geht es in Virtual Reality darum die ganze Sphäre, sprich die Kugel, zu manipulieren. Also Teile der Kugel z.B. mit anderen Materialien zu ersetzen, d.h. Greenscreen- und / oder VXF-Elemente zu insertieren, Video und 2D oder 3D generierte CGI-Inhalte zu mischen. Daher auch der Ausdruck: Mixed Media. Das gilt auch für Audio, welches wir «objekt-basiert» im Raum verorten können. Sound ist ein sehr wichtiger Bestandteil für das Erleben immersiver Experiences.

 «360-Grad-Produktionen [..] müssen eher wie Bühnenstücke gesehen werden, nur dass der Vorhang fehlt [..]«

Anett Göritz: Kommen wir zurück zur Produktion. Was sind aus Ihrer Sicht die wichtigsten Unterschiede im Vergleich zwischen einer klassischen TV- und einer VR-Produktion?

Arne Ludwig: 360-Grad-Produktionen als filmische Experiences müssen eher wie Bühnenstücke gesehen werden, nur dass der Vorhang fehlt und die Bühne eine Scheibe ist, auf der alles sichtbar wird. Der Zuschauer kann, je nach Aufnahmestandort, ein Teil dieser Bühne werden. Deswegen sind 360-Grad-Kamerasysteme, mit integrierten Mikrofonen wie z.B. die Nokia OZO, sehr spannende Werkzeuge. Denn dadurch brauche ich den klassischen Soundboom nicht mehr. Problematisch ist Licht, Rigging usw. und das man immer die Kamera selber raushalten und durch ein patch_ oder ein Foto ersetzen muss. Bei einer normalen Produktion verschwindet das Team hinter der Kamera. Bei einer 360-Grad-Produktion gibt es kein «Hinter-der-Kamera», da verschwindet das Team eher ganz.

 Anett Göritz: Welche Vor- und Nachteile ergeben sich Ihrer Meinung nach durch diese ‚Verschlankung des Teams’ – außer, dass dadurch schneller produziert werden kann?

Arne Ludwig: Nun, die «Verschlankung» findet ja nicht generell statt. Wenn ich Fiktion produzieren will, brauche ich nach wie vor gute Autoren und Regisseure, auch Kameraleute, die selber stitchen. Schauspieler müssen sehr gut sein, nicht nur von ihrer Mimik und Gestik her, sondern auch im Ganzen, denn man sieht sie ja auch ganz. Die Maske, das Kostüm, die Requisite müssen sehr gut arbeiten, damit der Zuschauer die Immersion nicht verliert. Zusätzlich braucht man viele Statisten (Extras), damit die Szenen realistisch aussehen. Die Vorbereitung wird durch eine gute, fast schon choreografisch abgestimmte, Drehplanung bestimmt. Auch die Postproduktion muss gut geplant sein, da das Stitchen und Komponieren der Sphäre viel Datenverarbeitung erfordert. «Verschlankung des Teams» trifft radikalerweise aber für den eigentlichen Dreh zu.

 

 

Arne Ludwig, Vorstand EDFVR / © Meeting on the Bridge, Istanbul

«VR ist nicht nur Content oder Storytelling oder Technologie, sondern ein komplett neues Medium.»

Anett Göritz: Wo und wie findet die Auswertung von VR-Inhalten derzeit statt?

Arne Ludwig: Mobil und über das Internet. Bei YouTube, bei Facebook, via Apps wie z.B. littlstar sowie Kolor 360. Außerdem im Oculus Store und im Samsung Store, bei SteamVR, bei Vive. Wir können custom-made-Lösungen anbieten, wie beispielsweise gebrandete HTML 5-Player oder Plattformen und ganze Mediatheken bauen. […]

Anett Göritz: Die Auswertung ist eng verknüpft mit den Rechten, die man als TV-Produzent an einer Produktion (bestenfalls) einbehält. Wie könnte Ihrer Meinung nach eine optimale Rechteverteilung mit neuen Auftraggebern für VR-Produktionen aussehen?

Arne Ludwig: Da denke ich ganz klar an faire Verteilungsschlüssel, wobei es bei reinen Dienstleistungen immer schwerer sein wird, Rechte zu behalten. Aber auch im klassischen Network muss verstanden werden, dass immersive Rechte lizenzrechtliche Belange und Bewertungen haben. VR ist ja nicht nur Content oder Storytelling oder Technologie, sondern ein komplett neues Medium. Teilweise ist es sogar wichtiger, dass Informationen übertragen werden statt lediglich audiovisuelle Medien und wie lassen sich Informationen bilanzieren? Da muss es API-Lösungen geben und natürlich Vereinbarungen, in welcher Form man das produzierte Material auswerten darf. Problematisch ist beispielsweise die Verwendung von Facebook, Dropbox oder anderen Anbietern, da dann der Content auf «lizenzfremden» Servern gespeichert wird.

Anett Göritz: Welche Potenziale bietet das Geschäftsfeld Virtual Reality den TV-Produzenten und mit welchen Herausforderungen sehen sie sich derzeit konfrontiert?

Arne Ludwig: Noch wird standhaft am erprobten Konzept der Broadcaster festgehalten, auch um ein jahrzehntelanges Geschäftsmonopol zu verteidigen. Aber mit der digitalen Disruption geht auch die «Self and Direct»-Distribution einher und die Potentiale durch Crowdfunding und -sourcing eigenen Content nicht nur herzustellen, sondern auch selbst zu vertreiben. Gleichzeitig ergeben sich Chancen neue und jüngere Zielgruppen zu erreichen, die klassische Film- und TV-Programme nicht mehr konsumieren oder sogar noch nie konsumiert haben. Andererseits ist die Herausforderung, technisch und qualitativ hochwertige Programme anzubieten im Umfeld von Virtual Reality natürlich nicht zu unterschätzen. Die Menschen sind momentan extrem angetan von der technischen und audiovisuellen Qualität der 360-Grad-Experiences, aber welche nachhaltigen Geschäftsmodelle werden sich durchsetzen, welche Märkte langfristig besetzt werden?

Anett Göritz: «Broadcaster» ist ein gutes Stichwort, wenn es um die traditionellen Auftraggeber für
TV-Produktionen geht. Welche neuen Auftraggeber gewinnen aus Ihrer Sicht für VR-Produktionen an Bedeutung?

Arne Ludwig: Es geht insbesondere um Produkt- und Markenkommunikation. Sport geht gut, vor allem Fußball, aber auch andere Sportarten. Musikevents und Konzerte, wenn die Rechte geklärt sind, Live-Cases-Anwendungen, um Menschen das Leben leichter zu machen, darunter fällt auch die Kunst und Wissenschaft. Letzteres finde ich den spannendsten Anwendungsfall.

Anett Göritz: Glauben Sie, dass das 360-Grad-TV das klassische 2DTV irgendwann ersetzen wird? Oder ist VR, wie vielfach vermutet, «nur ein Hype» wie 3DTV?

Arne Ludwig: Mit 3D vergleiche ich VR nur ungern. Das war ein technisches Phänomen ohne nachhaltige Inhalte. Ich denke aber, dass VR von 2DTV den Prozess des klassischen-linearen Verfalls verkürzen wird. Dass immer weniger, vor allem junge Menschen, TV konsumieren – zumindest auf dem linearen Broadcastweg – liegt nicht nur am Aufkommen von VR, sondern vor allen Dingen am mobilen Internet.

Anett Göritz: Welche neuen VR-Geschäftsmodelle könnten aus Ihrer Sicht für TV-Produzenten interessant sein?

Arne Ludwig: Soll ich die verraten (lacht)? Nun, Reelhouse hat beispielsweise einen VRoD Shop im Netz. Matterport bietet Hausführungen für Immobilien-Interessierte an. Via Online-Plattformen ist es möglich Sport oder Events beizuwohnen, ohne reisen zu müssen. Autofirmen bieten Car-Configuratoren an.

Anett Göritz: Zum Abschluss noch eine letzte Frage, die uns Konsumenten natürlich brennend interessiert: Wird es mittel- bis langfristig möglich sein, VR auch ohne ein Headset zu erleben?

Arne Ludwig: Daran arbeiten alle. Es ist schon möglich, ionisierte Luft als Projektionsfläche zu benutzen, aber noch sehr teuer. Fenster werden zu Bildschirmen, Domes sowie Curved Screens sind immersiv-nahe Projektionsmöglichkeiten. Apple hat Patente auf Raumprojektionen verfolgt, ebenso gibt es ja schon seit Jahrzehnten Head-On-Displays, ob im Flugsimulator oder anderen mobilen Einrichtungen. Wie lange das dauert? Ich denke, dass wir die nächsten Jahre noch mit Brillen verbringen werden, aber durch den Erfolg von Spatial VR sicherlich auch andere Systeme erfahren werden. Facebook hat gerade auf ihrem F8-Event eine normal aussehende Brille vorgestellt, die noch nicht, aber hoffentlich bald als VR-Brille funktioniert.

Herr Ludwig, herzlichen Dank für das Interview.

Vom 2.-6. Mai 2016 fand auf der diesjährigen re:publica 10 im Kühlhaus Berlin eine VR-Ausstellung #VR Here! zum Thema Virtual Reality (mit VR-Demos, -Installationen, -Experiences, -Talks und -Lounge) statt. In diesem Rahmen wurden über 30 VR-Arbeiten ausgestellt. Es ist das erste Mal, dass ein derart großes Spektrum an VR-Arbeiten in einem VR-Event dieser Größe in Deutschland vorgestellt wzrde. Der Verband EDFVR setzt große Hoffnungen in die horizontale Ausrichtung über viele regionale Mitglieder. Mehr Informationen unter: http://www.edfvr.org

Dieser Artikel erschien zuerst, im Rahmen des Doktoranden-Blogs,
am Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG).

Fußnoten:

[1] vgl. Gutierrez et. al. (2008), S. 4 ff.
[2] Burdea / Coiffet (2003), S. 3
[3] vgl. Kim (2007), S. 3
[4] vgl. Steurer (1996), S. 82
[5] ebd. (1996), S. 82
[6] ebd. (1996), S. 83
[7] vgl. BITKOM (2016)
[8] vgl. Statista.de (2016)
[9] vgl. DWDL.de (2016)

Quellen: