Getestet: EXIT VR Live Adventure in Berlin

Nachdem ich vor kurzem die “VR Nation” Virtual-Reality-Arena ausprobieren durfte, wurde ich auch eingeladen, den bereits seit Juni 2017 existierenden Berliner Platzhirsch “Exit VR” zu testen. Ich spare euch diesmal hier die Vorrede zu meinen Erwartungen und Vorerfahrungen mit Virtual Reality und komme direkt zu den Fakten.

Ort

“Exit VR” liegt in Mitte, direkt an der U-Bahn-Haltestelle Klosterstraße, und ist ein Teil der “Exit” Escape Rooms. Um zur eigentlichen VR-Location zu kommen, geht es (mit Begleitung) kreuz und quer durch das Gebäude, durch diverse Gänge, bis man endlich im korrekten Heizungskeller (so sieht es in etwa aus) angekommen ist.

Technik

“Exit VR” läuft mit der HTC Vive Brille und den dazugehörigen Handmodulen, die ein bisschen an Wii-Motes erinnern und die ich vom Kaleidoscope Showcase kannte. Eine Powerbank, die dafür sorgt, dass die Brille zwischendurch nicht den Geist aufgibt, trägt man in einem Turnbeutel auf dem Rücken. Die Daten werden auf stationären Maschinen berechnet und per W-LAN oder Bluetooth übertragen.

Leider war die Technik bei unseren Besuch ziemlich fehleranfällig. Es dauerte eine ganze Weile, bis alle vier Spieler*innen korrekt in der virtuellen Welt “angekommen” waren und bei allen auch alle Handmodule funktionierten. Selbst während des Spiels fielen bei manchen aus der Gruppe immer mal wieder Teile der Apparatur aus und mussten von unserer Spielleiterin ausgetauscht oder neu kalibriert werden. Das nervte ein bisschen.

Bild: Kathrin Passig

Schräg, aber auch irgendwie faszinierend – und technisch sehr clever – fand ich die Art, wie bei Exit VR mit dem nicht-virtuellen Raum umgegangen wird. Statt alle Spieler im gleichen Raum zu platzieren, wo sie von den gleichen Sensoren erfasst und berechnet werden müssen, teil sich die Gruppe in mehrere Räume auf, die dann im Spiel zu einem Raum zusammengelegt werden. Als Spieler*in kann man auf diese Weise auch nur mit einer anderen Person zusammenstoßen, durch die anderen kann man einfach durchlaufen. Ein bisschen fühlte ich mich an The Hobbit und die dort eingesetzten Master-Slave-Kamerasysteme erinnert, die Ian McKellen in den Wahnsinn getrieben haben. Zum Glück mussten wir ja nicht schauspielern und konnten über die Brillen ja sehen, was die Kamera sieht, sozusagen.

Spielerfahrung

Ich muss ehrlich sein: Meine Erfahrung mit Exit VR war sehr gemischt. Ich konnte einfach nicht aufhören, das Spiel mit VR Nation zu vergleichen, das für mich ja ein fast schon transformatives Erlebnis zu den Möglichkeiten von Virtual Reality war – vollständig in eine fremde Welt transportiert zu werden. Exit VR fühlte sich eher so an, wie ich es von VR-Systemen der Gegenwart erwartet hätte. Es gibt immer einen gewissen disconnect, der einen nie vergessen lässt, dass man nur ein Spiel spielt und Knöpfe auf Fernbedienungen drückt, um die eigenen Hände zu öffnen und zu schließen. Ein Teil meiner Probleme rührt sicher auch von meinem generellen Hadern mit Escape Rooms her, in denen ein lineares und, wie die Game-Studies-Leute sagen, “ludisches” Handeln im Zweifelsfall immer schwerer wiegt, als die reine Erfahrung. (Warum das auch Interactive Fiction immer wieder an Grenzen führt, habe ich neulich für “epd medien” aufgeschrieben und im “Lexpod” besprochen). 

Während wir also bei VR Nation theoretisch auch ständig Rätsel hätten lösen müssen, waren wir eher damit beschäftigt, einfach umherzustreifen und die Umgebung zu bestaunen. Hier war die Situation von Anfang an ganz anders. “Huxley – Save the Future”, die mehrfach preisgekrönte Experience, die wir spielen konnten, setzt einem gleich zu Anfang eine klare Aufgabe und ein Zeitlimit, so dass man sofort stärker in einen Videospiel- als in einen Erkundungs-Modus rutscht. Stark ist, dass man insgesamt 44 Minuten Spielzeit zur Verfügung hat, fast doppelt so lang wie bei der Konkurrenz.

Mein oben erwähntes Escape-Room-Problem äußerte sich vor allem in der merkwürdigen Lücke zwischen Story und Gameplay. Angeblich geht es bei “Huxley” darum, die von den Menschen zurückgelassene Erde vor der endgültigen Zerstörung zu retten. So wird es einem am Anfang der Mission erzählt, und so erklärt es auch der fliegende Roboter, der dem Spiel seinen Namen gibt, und den man mit dem ersten Rätsel befreit.

Dieser erzählerische Rahmen hat aber wenig bis gar nichts mit dem Rest des Spiels zu tun. Weder mit der Umgebung, in der man sich bewegt (Metallplattformen in einer Techno-Kathedrale), noch den Rätseln, die man lösen muss – allesamt klassische Zuordnungs- und Baurätsel, bei denen Lichtstrahlen umgelenkt, Farben gemischt, und Röhren verbunden werden müssen. Am Ende schrumpfen alle Spieler*innen und müssen sich kooperativ durch das Labyrinth eines Mikrochips navigieren. Alle Spiele waren herausfordernd, haben Spaß gemacht und den Problemlösungs-Teil meines Hirns hervorragend gekitzelt. Aber sie hatten für mich ähnlich viel mit Weltrettung zu tun, wie das Bonuslevel, in dem wir am Schluss in einer Tikibar mit Pfeilen auf Ballons schießen durften.

Ich würde “Exit VR” jedem empfehlen, der gerne spielt und Rätsel löst, und VR mal niedrigschwellig ausprobieren möchte. Mit 75 Euro für zwei, 105 Euro für vier Spieler*innen und Skalierbarkeit auf bis zu acht Personen für eine gute Stunde Spaß ist “Exit VR” auch bezahlbar und eignet sich sicher gut für Geburtstage, kleine Betriebsausflüge und Junggesell*innenabschiede. Außer der “Huxley”-Experience, die wir gespielt haben, gibt es noch drei weitere Optionen, eine davon ist “Huxley II”.

Hintergrund und Zukunft

Wie spannend und wildwestig die gesamte VR-Landschaft nach wie vor ist, zeigte sich in dem Hintergrundgespräch, dass wir vor dem Spiel noch mit Sven Haeberlein führen durften und das für mich fast das größere Highlight des Besuchs war. Sven ist einer der Gründer des VR-Studios Trotzkind, das “Exit VR” und die beiden “Huxley”-Teile komplett eigenständig in Deutschland entwickelt hat. Er zeigte sich im Gespräch im besten Sinn als echter Nerd für alles, was diese Art von interaktiver Freizeitgestaltung hervorgebracht hat – einerseits Escape Rooms mit Verbindungen zu Adventure Games, LARP und Interactive Theatre, andererseits die filmischen und Videospiel-Wurzeln von VR.

Während er erzählte, wurde klar, dass in diesem Bereich wirklich noch kaum etwas gesetzt ist, nach wie vor viel ausprobiert wird, und es vor allem Leute wie Sven braucht, um die unterschiedlichen Gestaltungselemente – am besten noch mit Geschäftssinn – zusammenzubringen. Vergleicht man VR Experiences mit der Geschichte des Kinos, bewegen wir uns bei VR nach meinem Gefühl etwa mit einer Differenz von hundert Jahren, also im Kino wären wir jetzt etwa Ende der 1910er Jahre. Mit anderen Worten: sowohl die Standards der Form und ihre größten Ausdrucksmöglichkeiten stehen uns noch bevor. Vielleicht kann ich das Gespräch mit Sven ja irgendwann einmal hier oder an anderer Stelle öffentlich fortsetzen. Für den Anfang ist hier ein Gespräch mit ihm von der re:publica 2018.

Üblicher Hinweis zum Schluss: Mir und meinen drei Begleiter*innen entstanden dank der Einladung keine Kosten. Vorgaben für diesen Artikel wurden mir nicht gemacht.

Teuer aber aufregend – Die VR Arena “VR Nation” in Berlin

Temple of Diamond Skull

Eine ähnliche, aber etwas freier gesprochene Version dieses Textes gibt es auch als Podcast.

Zwischen Anfang 2015 und Ende 2016 war Virtual Reality plötzlich wieder ziemlich präsent. Die Oculus Rift, deren Hersteller von Facebook für sehr viel Geld gekauft wurde, war kurz davor, frei erhältlich zu sein. Andere Hersteller wie HTC mit der “Vive”-Brille strömten auf den Markt. Brillengestelle wie Google Cardboard versprachen VR für jeden mit einem Smartphone.

Ich habe mich in dieser Zeit viel mit dem Potenzial von VR als Dispositiv für Filme beschäftigt, darüber unter anderem für “epd film” und “kino-zeit” geschrieben, und auch hier im Blog häufig über die neue Technik nachgedacht. Ich war auf dem Kaleidoscope Showcase. Auf der re:publica 2016 gab es massig Veranstaltungen zu VR.

Der Hype ist vorbei

Aber kurz danach war der Hype dann für mich auch vorbei. Im Filmbereich tauchte wenig Interessantes mehr auf meinem Radar auf. Kein Wunder, es zeichnete sich schon damals ab, dass wohl eher Videospiele als Kino die Mediengattung sein würden, die VR zum Durchbruch verhelfen würden. Und selbst das würde wahrscheinlich noch auf sich warten lassen.

Umso mehr war ich freudig überrascht, als mich letzte Woche eine PR-Agentur anschrieb und mich fragte, ob ich nicht Lust hätte, eine sogenannte “VR Arena” in Berlin zu testen und hinterher drüber zu schreiben. Von diesen Systemen, die das Brillen-Erlebnis von VR mit räumlicher Bewegung verbinden, hatte ich bisher nur Gutes gelesen – das bekannteste System heißt “The Void” – und natürlich hatte ich große Lust, außerdem drei interessierte Freunde, die mitkommen konnten, und einen unverplanten freien Abend.

Die Fakten

Die in Berlin eröffnete Arena heißt “VR Nation” und befindet sich in der Leipziger Straße, etwa 10 Gehminuten vom Potsdamer Platz. Sie basiert auf der Technik und den Programmierungen der Schweizer Firma TrueVRSystems, die in der Schweiz auch bereits einige Arenen betreibt. Angeboten werden zurzeit zwei etwa 20-30-minütige “Experiences” (das VR-Äquivalent zu “Spiel”). Die eine, Temple of Diamond Skull, lehnt sich thematisch an Spiele wie Tomb Raider und vom Spielprinzip an Puzzlespiele an. Die andere, Patient Zero, ist ein Zombie-Shooter.

Wir hatten uns für Diamond Skull entschieden. Nachdem wir Spielregeln und Haftungsauschlüsse unterschrieben hatten, ging es ans Einkleiden. Auf dem Rücken, wie in einem Rucksack, trägt man den Computer, der die Experience berechnet. Damit verbunden ist logischerweise die VR-Brille und ein Kopfhörer. Neu bei diesem System ist, dass alle Spieler*innen zudem an Händen und Füßen Sensoren tragen, die etwa die Größe einer Kröte haben. So kann der Rechner innerhalb der Arena, einem mit Sensoren abgetasteten Raum ähnlich einer Motion Capture Volume, auch die Arm- und Beinbewegungen erfassen und innerhalb der virtuellen Realität wiedergeben.

Teleportation

Durch Brillen und Kopfhörer unserer Sinne beraubt wurden wir im Gänsemarsch in die Arena geführt, die hinter einem Vorhang lag. Dann plötzlich schaltete sich das System an und wo eben noch Orientierungslosigkeit war, wurde plötzlich alles glasklar. Diesen Übergang fand ich insgesamt fast das Faszinierendste am ganzen Erlebnis. In einem Moment dümpelte ich in einem VR-Raum, wie ich ihn nun schon öfter erlebt hatte – einer virtuellen Sphäre (hier ein Blick vom All auf die Erde) in der ich mich zwar mit dem Kopf umgucken kann, aber mich sonst merkwürdig substanzlos fühlte. Im nächsten Moment war ich mit Haut und Haaren an einen anderen Ort teleportiert. Ich stand an den Außenmauern eines zerfallenen Tempels. Aus dem Dschungel wehte ein kühler Wind und ein Geruch nach Regen herüber. Und drei meiner Freunde waren bei mir – auch wenn sie alle in Metroid-Anzügen steckten.

Dieses Gefühl, sich tatsächlich wie an einem anderen Ort zu fühlen, obwohl ich ja wusste, dass ich nur in einem Laden in Berlin-Mitte stand, hörte bis zum Schluss nicht auf, mich zu begeistern. Da das Spiel sich in seinen Dimensionen ja auf die gut 100 Quadratmeter beschränken musste, die der Arena zur Verfügung stehen, fuhren wir Charaktere immer wieder mit Aufzügen nach oben oder unten in andere Level und jedes Mal hatte ich wirklich das Gefühl, mich vertikal zu bewegen, obwohl das objektiv nicht der Fall war. Überhaupt spielte die virtuelle Umgebung immer wieder sehr clever mit Raum – mit Weite und Höhe, die gar nicht existierte aber unter der Brille völlig real wirkte. Einige wenige Objekte, mit denen man tatsächlich interagieren konnte, etwa eine Fackel und ein Brett, machten das Endergebnis perfekt, auch wenn ich immer wieder aus Versehen in eine nur virtuell vorhandene Wand griff. Da war es auch völlig egal, dass wir die meisten Rätsel auf dem Weg eigentlich nicht selbst lösten – das reine Spielgefühl entschädigte mich vollends (was ich von meinem ersten Escape Room nicht behaupten konnte).

Wer soll das bezahlen?

Ein Manko hat “VR Nation”. Es ist teuer. 139 Euro kostet eine Experience für bis zu vier Personen, das macht 35 Euro pro Kopf für knapp 30 Minuten VR-Spaß, mehr als ein Euro pro Minute. Nichts, was man eben mal so nebenbei macht und auch noch mal deutlich über den Preisen von vergleichbaren Aktivitäten wie Laser Tag oder Escape Games.

Ohne zu wissen, was mich erwartet, hätte ich diese Summe mit Sicherheit nicht ausgegeben. Wem würde ich raten, sie zu investieren? Allen, die sich wirklich für die Zukunft von Games und VR interessieren. Es lohnt sich, zu erleben, welches Potenzial in dieser Technik steckt, bei der durchaus zu erwarten steht, dass in zehn Jahren das Equipment kleiner, die Grafik schärfer (derzeit würde ich sagen sie befindet sich etwa auf dem Level von 3D-Shootern von vor 15 Jahren) und die Abtastung genauer ist. Abgesehen davon, dass man wohl noch lange eine Brille tragen wird tragen müssen, ist das, was “VR Nation” erahnen lässt, schon deutlich näher am allseits beschworenen Holodeck, als alles, was ich bisher kannte.

Allerdings würde ich beim besagten Preisschild (es gibt auch ein Kombiangebot mit beiden Experiences für zusammen 239 Euro) genau überlegen, wen ich mitnehme. Wer nicht eh ein Faible für Computerspiele oder Digitales hat, für den ist das Erlebnis eventuell nicht so transformativ wie für mich.

Der leere Raum

Nachdem wir eine gute halbe Stunde Tempel erkundet und Zombies erschossen hatten, durften wir am Ende die Brillen abnehmen. Es wirkte absurd, dass wir uns wirklich nur in einem Raum von der Größe eines Klassenzimmers befanden, in dem in einer Ecke ein paar Ventilatoren und in der anderen eine Computerkonsole zu sehen war, der aber sonst komplett leer war.

Wieder war es der Übergang, der mich besonders nachhaltig beeindruckte, so wie Start und Landung ja auch das beste am Fliegen sind. Es wird noch eine Weile dauern, bis mein Kopf verarbeiten kann, wie virtuelle und reale Welten so ineinandergestülpt existieren. Dreidimensionale Anstriche eines Raums, die nur als Daten in einem Computer existieren, und erst durch unsere Erfahrung Wirklichkeit werden. Vielleicht ist der Hype doch noch nicht vorbei.

Offenlegung zum Schluss: Ich musste nichts bezahlen und wurde vorher gefragt, wo und wie ich von meinen Erfahrungen berichten würde. Sonst wurden mir keine Vorgaben gemacht.

Ein Bildschirm, der uns umgibt – Internet, Raum und Virtual Reality

Tron Legacy © Walt Disney Pictures

Die Münchner Stadtbibliothek hat diese Woche eine Foto-Aktion namens #MeinOrtimNetz gestartet. Es geht darum, Orte zu finden, an denen sich Menschen “besonders digital” fühlen. Dabei geht es sowohl um physische Orte (der heimische Lesesessel) als auch um virtuelle (die Online-Sammlung des Kunsthistorischen Museums Wien). Als ich die Ankündigung las, habe ich natürlich darüber nachgedacht, was ich wohl fotografieren würde. Etwas wirklich Gutes fiel mir nicht ein.

Stattdessen aber begannen meine Gedanken mal wieder zu wandern. Woher kommt unser Bedürfnis, dem virtuellen Raum eine äußere Form zu geben? Seit es das Internet gibt, versuchen Menschen räumliche Bilder und Metaphern zu finden, um das zu beschreiben, was wir dort tun. Wir “surfen” auf der “Datenautobahn”. Wir gehen “ins Internet”, wie wir ins Schwimmbad gehen.

Die lange Straße des Metaverse

In der Science Fiction herrschte lange die Vorstellung, dass eine Version des Internets, die wir räumlich erfahren können, dessen nächste (oder letzte) Stufe ist. Ein Film wie Tron hat über Jahrzehnte die Vorstellung davon geprägt, dass wir eines Tages ein bestimmtes Raum- und Distanzempfinden haben werden, wenn wir mit Programmen und anderen Usern in digitalen Umgebungen interagieren. Aus dem Cyberpunk der 80er und 90er stammt die Vision des Internets als Virtual Reality, etwa in Neal Stephensons Snow Crash (1992), in dem die Weiterentwicklung des Internets, das “Metaverse”, aus einer die virtuelle Welt umspannenden Straße besteht, an deren Rändern virtuelle Orte wie Gebäude platziert sind. Um von einem Ort zum anderen zu kommen, kann man nicht, wie heute, einfach klicken, sondern muss einen Weg zurücklegen.

Was passiert, wenn diese Vorstellung vom Anfang des vernetzten Zeitalters von der Realität eingeholt wird, lässt sich sehr schön am Cyberpunk-Rollenspiel Shadowrun zeigen. 1989 erschaffen als ein gerne belächeltes Mashup aus Cyberpunk im Stil von William Gibson und klassischen Fantasy-Konzepten der Dungeons&Dragons-Prägung (Elfen, Trolle, Zauberer), hat sich Shadowrun als erstaunlich unkaputtbar erwiesen. Es existiert immer noch. Die letzte Überholung der Regeln erschien 2013 – ein ziemlicher Zeitraum in Sachen Entwicklung des Internets also.

Die Matrix von Shadowrun

Shadowrun spielt 62 Jahre in der Zukunft und es wurde Ende der 80er konzipiert, also besitzt es dem Zeitgeist entsprechend seine eigene Version des räumlichen Internets, die “Matrix”, in die sich Charaktere mit Hilfe von “Cyberdecks” (Computer, die direkt mit dem Gehirn interagieren) “einstöpseln”, um Datendiebstahl zu begehen und mit feindlichen Programmen (“Intrusion Countermeasure Equipment”, ICE) zu kämpfen. Nur Spezialisten, sogenannte “Decker”, besaßen 1989 die Fähigkeit, durch die Datenbahnen zu reisen und den Kampf ihrer Kumpanen auf der Straße im virtuellen Raum zu unterstützen.

© FASA

Nichts fängt für mich diese Vorstellung so ein, wie das Cover der zweiten Ausgabe von Shadowrun von 1992, mit der ich das Spiel kennenlernte. Ein Typ mit Handfeuerwaffen und eine Magierin im Latexbikini sichern den Terminal, an dem ein Elf sich per Kabel mit der Matrix verbindet. Dieses Bild hat sich in meine Vorstellung der Cyberpunk-Zukunft eingebrannt wie kaum ein anderes.

In der typischen Unebenheit von Science-Fiction-Visionen war es 1989 also denkbar, dass Mitte der 2050er Interfaces zwischen Körper und Computer (“Cyberware”) zur Normalität gehören, aber nicht, dass jede und jeder ständig online ist. Daher ist es faszinierend zu beobachten, wie sich das Matrix-Spielkonzept über die verschiedenen Editionen des Spiels weiterentwickelt hat, um mit der realen Entwicklung des Internets Schritt zu halten.

Schwarze Ebene unter schwarzem Himmel

2005, mit der vierten Ausgabe, schrieben die Designer einen vollständigen Crash des globalen Datennetzes in die fiktionale Historie der Spielwelt, um das Zukunfts-Internet danach neu aufzubauen. Auf die neue Matrix des Jahres 2070 lässt sich drahtlos zugreifen, von allen Figuren, und sie ist auch als “Augmented Reality” über Brillen, Kontaktlinsen, künstliche Augen und “Kommlinks”, die Smartphones der Zukunft, erfahrbar. Decker sind inzwischen so etwas wie die Vinyl-Sammler der Spielwelt, es gibt sie noch und sie fühlen sich wie eine Elite, aber sie sind Raritäten geworden.

Doch um weiterhin Cyber-Abenteuer erleben zu können und diese spannend zu gestalten, existiert nach wie vor auch eine völlig immersive Virtual-Reality-Version der Matrix, inklusive virtuellen Abbildungen von realen Orten, skeuomorphischen Icons, die realen Internet-der-Dinge-Gegenständen nachempfunden sind, und der Vorstellung einer “schwarzen Ebene unter einem schwarzen Himmel”, die “vom Leuchten … der Icons in der Umgebung erleuchtet” wird, wie die fünfte Edition der Regeln ausführt. Durch diese Ebene fliegt oder läuft man mit seiner virtuellen Persona und interagiert in schwebenden “Hosts” mit anderen Personas und Icons.

Die auf reale Entwicklungen (und Prognosen) angepasste Version der fiktionalen Matrix beruft sich also immer noch primär auf Raumvorstellungen aus einer Zeit, als wir noch nicht immer und überall von Datenströmen umgeben waren und jederzeit per Knopfdruck darauf zugreifen konnten. Vielleicht liegen die Spielentwickler damit gar nicht so falsch. Sobald es nämlich darum geht, eine Online-Erfahrung mit anderen Userinnen zu teilen, die über das reine Austauschen von Informationen wie in Chats oder sozialen Netzwerken hinausgeht, scheint man irgendeine Art von gemeinsamem, dreidimensionalem Raum teilen zu müssen, etwa in MMORPGs.

Die Zukunft von Facebook Spaces

Dafür spricht auch Facebook Spaces, die App für VR-Treffen, die Facebook vor ein paar Wochen vorgestellt hat. Auf primitive Art entspricht die im Promo-Video gezeigte Benutzeroberfläche dann doch wieder den räumlichen Verhältnissen von Tron und Shadowrun. Menschen und Objekte werden durch Avatare repräsentiert und es gibt ein neutrales Grundsetup, das mit Inhalten gefüllt wird. Der Unterschied ist, dass sich die Avatare in ihrer virtuellen Konferenz quasi nicht bewegen, so wie sich auch ihre User nicht bewegen. Stattdessen verändern sie die Welt um sich herum, tauchen in Fotos und Videos ein und wechseln diese mit einem Klick. Im Grunde machen sie das gleiche, was sie vorher auch taten, wenn sie das Internet nutzen, nur dass der Bildschirm sie jetzt komplett umgibt.

Wir sollten davon ausgehen, dass das zumindest für die nähere Zukunft, die Räumlichkeit des Internets sein wird: Kein Raum, durch den wir uns bewegen, wie eine Figur auf einem Schachbrett oder eine Person einem Holodeck, sondern ein Raum, der sich um uns bewegt, wie bei einem Green Screen Effekt. Keine Achterbahn sondern ein Simulator Ride. Wenn wir in diesem Raum von einem Ort zum anderen wollen, kann er sich also auch verändern, ohne dass wir den Weg von A nach B in der virtuellen Welt zurücklegen müssen. Wer in Google Street View zwei verschiedene Plätze anschauen will, muss ja schließlich auch nicht auf den abfotografierten Straßen vom einen zum anderen laufen.

Raum ist also etwas, das dem Internet durchaus gut zu Gesicht steht. Aber Entfernung und Bewegung wird es auf abgesehene Zeit weiterhin nicht brauchen – außer um Pokémons zu jagen.

360 Grad Luther

Die Panoramen von Yadegar Asisi, denen ich erstmals 2010 in Dresden begegnet bin, finde ich ja eine sehr abgefahrene Verschmelzung alter und neuer Immersions-Techniken. Sie finden im analogen Raum statt, werden aber mit digitalen Mitteln erstellt, zusammenkomponiert aus tausenden Fotos, Texturen und CG-Strukturen. Insofern habe ich mich darum gerissen, die Chance zu bekommen, Asisi in Kreuzberg zu besuchen und mit ihm über seinen Prozess und seine Philosophie zu reden. Das Ergebnis musste ich vom Nerdfaktor natürlich etwas runterschrauben, aber ich bin trotzdem ganz zufrieden damit. Wenigstens mal ein Schnittpunkt zwischen meinem Brotjob und meinen Privatinteressen.

Ein Blitzschlag wie bei Martin Luther war es nicht, der Yadegar Asisi dazu bewog, sich mit der Reformation zu beschäftigen. Aber einen inspirativen „Impuls“ habe er vor rund zehn Jahren doch gespürt, als er auf die Tür der Schlosskirche in Wittenberg blickte. Vor seinem inneren Auge sei die Idee für ein „Gesellschaftsbild“ aus der Lutherstadt entstanden, das anhand des Lebens des Reformators und seiner Zeitgenossen zeigt, „wie die Gesellschaft zusammenspielt“. Zehn Jahre später sitzt der 61-Jährige in seinem Atelier in einem Kreuzberger Hinterhaus und denkt zurück an das, was alles passieren musste, damit das Panorama „Luther 1517“ im Oktober in Wittenberg feierliche Eröffnung feiern kann. Kontakte, Reisen, Gespräche über Finanzierung, Beratung, Ideen und schließlich sehr viel Arbeit. Dabei hielt der mit sanfter Stimme und leicht sächsischem Dialekt erzählende Künstler zu jeder Zeit selbst die Fäden in der Hand. „Ich verwirkliche nur noch Herzensprojekte“, sagt er. „Es ist ein großes Glück, dass ich inzwischen so selbstbestimmt arbeiten kann.“

Begehbare Kunst

Das war nicht immer so. Zwar gewann der 1955 als Sohn iranischer Immigranten in Wien geborene Asisi schon wenige Jahre nach seinem Architektur- und Malereistudium in Berlin und Dresden erste Preise, doch erst 1995 stieß er auf das Panorama – ein fast verlorenes Kunstund Unterhaltungsformat aus dem 19. Jahrhundert, das vom Kino schnell verdrängt wurde. Innerhalb weniger Jahre wurde er zum Meister des begehbaren 360-GradKunstwerks, das Besucherinnen und Besucher in eine fremde Welt oder Zeit eintauchen lässt. Auf erste Auftragsarbeiten folgten irgendwann eigene Ideen. Inzwischen betreibt die Asisi GmbH selbstständig zwei Panoramen in Dresden und Leipzig, weitere Bilder von historischen Städten und beeindruckenden Landschaften hängen derzeit in Berlin, Pforzheim und Rouen. Dabei variiert Asisi trotz einer gewissen Routine immer wieder seine Form. So habe er für „Luther 1517“ seinen gewohnten Prozess umgedreht, erzählt er: „Bei anderen Stadtpanoramen erschließt sich der Bildinhalt zuerst über die Architektur, dieses Mal wird die Geschichte zuerst durch die Menschen erzählt.“ Das bedeutet: Wenn Besucherinnen und Besucher ab Oktober das Panorama in Wittenberg betreten, sehen sie sich an den Wänden Figuren gegenüber, die mit ihnen auf Augenhöhe stehen. Sie müssen nicht erst auf eine Plattform in der Mitte des Raums steigen, um die richtige Perspektive einzunehmen.

Reformatorischer Prozess

Und noch etwas ist anders: Statt einen bestimmten Moment in der Zeit festzuhalten, zeigt Asisis Rundgemälde gewissermaßen einen reformatorischen Prozess. Luther kommt nicht nur einmal, sondern mehrfach im Bild vor, in symbolischen Szenen aus verschiedenen Zeitaltern seines Lebens: beim Diskutieren mit Mönchen vor den Toren der Schlosskirche, beim Streit mit Thomas Müntzer, beim Predigen in der Kirche, beim Feiern mit Katharina von Bora. „Diese Momente sollen einander die Hand geben, ohne sich aus den Angeln zu heben“, hofft der Künstler. Yadegar Asisi, das merkt man im Gespräch, ist jemand, der sehr stark von innen nach außen arbeitet. Bilder und Ideen entstehen in seinem Kopf in beinahe finaler Form, bevor er sie aufs Papier bringt. Die erste, zweieinhalb Jahre alte Bleistiftskizze des Panoramas enthält schon alle wesentlichen Elemente der 12,5 Gigabyte großen Photoshop-Datei, an der er zurzeit letzte Hand anlegt: im Zentrum des Bildes die imposante Wittenberger Schlosskirche, links davon die mittelalterliche Stadt mit einer Mühle als weiterem visuellen Ankerpunkt, rechts der Neubau der Stadtmauer und der Blick auf die Elbwiesen. Das Licht fällt durch die Fenster der Kirche auf den Schlossplatz, sodass das Bild im Rund einen Weg von der Dunkelheit ins Licht beschreibt – nicht ohne am Horizont auch die Kriege anzudeuten, die folgten.

Weiterlesen auf kirchentag.de

Das Panorama ist seit dem letzten Wochenende in Wittenberg für Besucher geöffnet. Es gibt auch ein Video der Eröffnung auf Facebook.

Scoping Things Out – in 360 Degrees

Ich bin vor kurzem endlich dazu gekommen, David Bordwells vor drei Jahren veröffentlichten Videovortrag zu Cinemascope zu gucken. So lang liegen Artikel und Videos bei mir manchmal im Pocket rum, aber sie verschimmeln nicht, im Gegenteil.

Denn es ist erstaunlich, wie aktuell das, was Bordwell in seinem Vortrag beschreibt, gerade wieder aktuell wird. Beim Wechsel vom Academy Ratio zum ultrabreiten Cinemascope, erklärt er im Video, wendeten verschiedene Regisseure ganz unterschiedliche Taktiken an. Manche begriffen Scope als “Mehr” Platz für’s Bild – quasi Erweiterungen vom Academy Ration rechts und links. Andere eher als “Weniger”, als ein Beschnitt des ursprünglichen 4:3-Frames oben und unten, der engeres Kadrieren ermöglichte. Viele spielten mit der zweidimensionalen Form des Rechtecks, um abstrakte Bildmotive zu komponieren und einige bemühten sich, im großen Bild interessante Tiefenaufbauten einzufangen.

Bei allem, was ich bisher im Bereich Virtual-Reality-Film bzw. 360-Grad-Film beobachtet habe, treffen ähnliche Merkmale fast exakt so zu. Wenn man die neu hinzukommenden Komponenten “fühlbarer Raum” und “Bildausschnittswahl durch Nutzer_in” einmal ausklammert, ist das VR-Bild auch nicht mehr als ein neues Leinwandformat, das sich theoretisch auch flach darstellen lässt (sogenanntes “equirectangular mapping”). Entsprechend habe ich bisher in den Filmen, die ich gesehen habe, fast alle oben beschriebenen Taktiken wieder entdeckt:

Manche Regisseur_innen begreifen ihre Leinwand einfach als “Mehr”. Sie arrangieren die zu filmenden Subjekte und Objekte einfach im ganzen Raum oder lassen Leerräume drumherum. Andere bergeifen es als “Weniger” und gehen einfach so nah ran, dass das ganze Blickfeld ausgefüllt ist. Manche spielen gezielt mit dem 360-Grad-Erlebnis und warpen und abstrahieren den Raum entgegen unserer Erwartungen. Und wieder andere arrangieren vor allem in die Tiefe und sorgen dadurch dafür, dass die zuschauende Person die Szene selbst regelmäßig neu im Kopf kadriert.

Natürlich sind die beiden Komponenten, die ich oben eben mal so ausgeklammert habe, ein wichtiger Teil des VR-Erlebnisses. In Sachen Filmemacherei aber eben auch nur ein Teil. Einiges anderes war bereits da. (Noch einmal die Empfehlung, Andrew Marantz’ Artikel zu lesen.)

Berlin, New York und Real Virtuality

“Wie stellst du dir Zeit vor?” – Eine Frage, die ich viel zu selten stelle. Für mich ist Zeit eine Art frei schwenk- und zoombares 3D-Modell, das quer durch den Raum läuft. Jedes Jahr ist ein Ring, die Ringe aneinandergereiht geben ein Band, das ungefähr bis 2000 vor unserer Zeitrechnung zurückreicht (danach wird es unscharf). Bei genauerer Betrachtung bestehen die Ringe aus Bögen, jeder Bogen ist eine Woche. Am Wochenende hat ein Bogen seinen tiefsten Punkt. Es ist schwer zu beschreiben, aber so funktioniert mein Verstand nunmal.

Als ich die Frage tatsächlich mal jemandem gestellt habe, sagte mir diese Person, sie stelle sich die Zeit eher vor wie einen Kalender; ihren Kalender. Ich fand das schräg. Da hat man die unendliche Gestaltungsmöglichkeit seines Verstandes zur Auswahl, und man entscheidet sich für Skeuomorphismus und modelt seine Vorstellung nach einem realen Objekt.

Mein innerer Stadtplan

Doch dann fiel mir auf, dass ich es bei meiner Vorstellung von Raum genauso mache. Wenn ich an einen neuen Ort komme, beginne ich, in meinem Kopf einen Stadtplan anzulegen. Mir gibt das Sicherheit und es hilft mir bei der Orientierung. Ich gehe oder fahre eine Straße hinunter und diese Straße – im Bezug zu anderen Straßen und Orten drumherum – wird dann in meinem Kopf geloggt und meinem inneren Stadtplan hinzugefügt. In Berlin war ich mir lange unsicher, wie genau sich Zoo, Potsdamer Platz und Alexanderplatz eigentlich genau zueinander verhalten, weil ich immer nur mit der U-Bahn von Ort zu Ort gefahren war und U-Bahnen töten jede räumliche Orientierung. Erst seit ich hier wohne, die Strecke auch mal per Bus zurückgelegt und mit Stadtplänen verglichen habe, besitze ich eine ungefähre Vorstellung.

Berlin sieht jetzt für mich ungefähr so aus. Ich kenne die Innenstadt einigermaßen, die Ecke unten links wo ich jetzt wohne und die Ecke unten rechts, wo ich mal längere Zeit verbracht habe. Ich habe quasi keine Ahnung was außerhalb des S-Bahn- und Autobahnrings passiert und das Zentrum von Kreuzberg ist ein Mysterium.

© Google Maps

Screenshot: Google Maps

Allerdings, möchte ich einwenden, ist ein Stadtplan natürlich auch wirklich nur eine Abstraktion dessen, was wir sehen, wenn wir eine Stadt tatsächlich aus der Luft betrachten. Der Skeuomorphismus in meinem Kopf geht also auf die Realität zurück, im Gegensatz zu einem Kalender, der weniger die Zeit selbst repräsentiert als das, was sie repräsentiert.

Die Situation in New York

Bei New York war die Situation ein bisschen anders. Ich kannte New York aus hunderten Filmen, Serien und Büchern, die mir immer wieder Eindrücke der Stadt gezeigt hatten. Hinzu kommt, dass New York so unfassbar einfach aufgebaut ist, dass es eigentlich ein Leichtes sein sollte, einen inneren Stadtplan zu zeichnen. Manhattan ist ein langer Zapfen, oberhalb davon ist die Bronx, oben rechts ist Queens, unten rechts ist Brooklyn. In der Mitte ist der Central Park. Die Straßen sind durchnummeriert und rechtwinklig! Einfacher geht es gar nicht.

Ich wusste trotzdem nicht, wie New York ist, bis ich 2011 dort war. Ich wohnte bei Bekannten in Queens, fuhr jeden morgen mit der Bahn in die Stadt und schritt große Teile Manhattans zu Fuß ab. Es war ein sehr merkwürdiges Gefühl, an all diesen Orten vorbeizukommen, die einem scheinbar so bekannt vorkamen: Brücken im Central Park, die Billboards am Times Square, Battery Park am Fuß der Halbinsel, wo die Fähren ablegen, das Museum of Natural History, 30 Rock.

A Couple of Blocks Away

Aber es war notwendig, einmal wirklich dort gewesen zu sein, um ein Gefühl für die räumlichen Dimensionen zu bekommen. Wie weit ist “just a couple of blocks away”, was man immer wieder in US-Medienerzeugnissen hört. Wie hoch sind die Gebäude entlang der Madison Avenue wirklich? Wie riesengroß ist der See im oberen Teil des Central Park. Wieviel kleiner wirkt Manhattan, wenn man plötzlich durch das East Village spaziert, obwohl es direkt neben den protzigen Bürotürmen des Financial District liegt. Und wie titanenhaft sind bitteschön diese Brücken über den East River?

Einmal dort gewesen jedoch klickte plötzlich alles zusammen wie ein gigantisches Puzzle. Nur eine gute Woche nach meinem New York-Besuch sah ich Nick and Norah’s Infinite Playlist im Fernsehen, ein netter kleiner Indiefilm, in dem die Titelcharaktere eine Art Road Trip durch New York erleben. Und nicht nur rief ich plötzlich ständig “Da war ich” (zur unendlichen Freude meiner Mitzuschauer, da bin ich mir sicher), sondern ich hatte plötzlich auch das Gefühl, mich viel besser in den Film hineindenken zu können. Ich konnte die zweidimensionalen Bilder auf dem Bildschirm übersetzen in dreidimensionale Bilder in meinem Kopf.

Real Virtuality

Filme konstruieren künstliche Räume, das ist eine der ältesten Erkenntnisse der Filmtheorie. Wer nacheinander einen Menschen zeigt, der von links nach rechts läuft, einen weiteren Menschen, der von rechts nach links läuft, ein Gebäude und dann zwei Arme, die einander die Hand geben, wird dadurch in 90 Prozent aller Menschen den räumlichen Eindruck erwecken, die beiden Menschen seien aufeinander zugegangen, um sich vor dem Gebäude die Hand zu schütteln – auch wenn die Aufnahmen an völlig unterschiedlichen Orten entstanden sind, das Gebäude ein Modell ist und die Hände anderen Menschen gehören als den zuvor gezeigten. Diese künstlichen Räume existieren allerdings nur innerhalb des Films, wir können sie nicht betreten, weil sie nicht existieren. Auch nicht, wenn wir alle oben genannten Drehorte nacheinander besuchen würden.

Unter anderem deswegen finde ich so spannend, was zurzeit im Bereich Virtual Reality passiert. Die dort erschaffenen Räume sind auch nicht real, sie sind digitale Simulationen. Aber sie besitzen die gleiche Räumlichkeit wie ein realer Ort. Ich kann mir die Brille aufsetzen und den Ort erfahren, so wie ich damals 2011 nach New York geflogen bin, um den Ort zu erfahren. Das bedeutet auch, dass wir vom gleichen Ort reden werden, wenn wir über unsere VR-Erlebnisse sprechen. Es wird nicht mehr so sein, wie wenn wir über Filme reden, wo sich jeder einen eigenen künstlichen Raum zusammenbaut. Wie wenn wir über Zeit sprechen, dass der eine einen Kalender sieht und die andere ein Band im endlosen Weltall. Es wird hoffentlich wie Theater, wo wir alle mittendrin stehen. Real Virtuality. Ich kann es kaum erwarten.

Passenderweise gibt es übrigens inzwischen ein VR-Produkt namens Real Virtuality, das mehreren VR-Nutzern erlaubt, gleichzeitig die gleiche Simulation zu erleben. Ich habe mein Blog also genau richtig benannt.

Wir sind drin! – Virtual Reality durch Oculus Rift & Co.

Katharina ist gerade frisch aus dem Ei geschlüpft. Als sie sich in ihrem Nest umsieht, erblickt sie eine urtümliche Lichtung, umringt von Bäumen, Felsen und großen Farnen. Eine Libelle kommt herangeflogen. Katharina folgt ihr mit dem Blick und zuckt zusammen, als das Insekt einmal direkt gegen ihren Kopf fliegt. Plötzlich ein Grollen in der Ferne. Ein riesiger Tyrannosaurus erscheint auf der Lichtung, nähert sich dem Nest und brüllt ihr ins Gesicht. Jemand ruft Katharina zu: »Du musst den Kopf drehen!« Sie blickt nach links und rechts, doch der Dino hört nicht auf zu brüllen. Dann spürt sie die Finger an ihrem Kopf, die ihr behutsam den richtigen Neigungswinkel weisen. Jetzt plötzlich neigt der Tyrannosaurus ebenfalls den Schädel. Die Dino-Mama hat ihr Kind erkannt und macht sich aus dem Staub. Film zu Ende. Katharina kann das Headset abnehmen und befindet sich wieder in Stuttgart.

Virtual Reality. Spätestens seit den frühen 1990er Jahren und dem Film Der Rasenmähermann sind die beiden Wörter und die Abkürzung VR im populären Bewusstsein sowohl mit der ultimativ-immersiven Computerwelt als auch mit einer gigantischen Enttäuschung verknüpft. Denn die digitale Simulation erreichte eben nie die Mühelosigkeit, die in zahlreichen Science-Fiction-Szenarien versprochen wurde, von David Cronenbergs eXistenZ bis zum Holodeck in “Star Trek: The Next Generation”. Stattdessen blieb lange alles frustrierend klobig – sowohl die unhandlichen Brillen, die man für VR-Erlebnisse aufziehen muss, als auch die Grafik der virtuellen Räume, die es zu entdecken gab.

Dass in diesem Jahr Fachkonferenzen wie die FMX in Stuttgart, auf der auch die Firma Crytek ihr Werk Return to Dinosaur Island ausstellt und Menschen die richtigen Kopfbewegungen weist, ganze Sektionen dem Thema Virtual Reality widmen, dass seit gut zwei Jahren wieder ernsthaft darüber diskutiert wird, ob wir kurz davor stehen, die nächste Stufe der Entertainment-Evolution zu erklimmen, ist zwei weiteren Worten zu verdanken, ohne die der Boom vermutlich nie noch einmal so losgebrochen wäre: Oculus Rift.

Weiterlesen auf epd-film.de