Was wäre, wenn das Verhalten eines jeden Menschen von Atomen gesteuert würde? Eine Verschwörung der Natur, durch die der freie Willen zur Illusion verkommt? Noch viel interessanter: Was wäre, wenn jemand diese Verschwörung aufdecken würde und sie zum eigenen Vorteil nutzen könnte? Diesen Fragen widmet sich Tobias Bieseke in seinem Kurzfilm „Nucleus“. Seit Anfang 2017 arbeitet der Filmstudent an dem Werk und der non-linearen Erzählung, die er nun gemeinsam mit Hendrik Carstensen durch die „Nucleus Code“-App weiter ausbauen möchte. Die Idee ist, dass BesucherInnen des Dortmunder U über ihr Smartphone verschiedene Szenen aus dem Film durch augmented reality in beliebiger Reihenfolge freischalten können.
„Ich bin der Meinung, dass Linearität in der Form nicht existiert. Es gibt zwar eine Gegenwart, aber alles, was in der Zukunft liegt, ist Fiktion, und alles, was in der Vergangenheit liegt, auch. Wir selektieren die Informationen und dichten teilweise etwas dazu. Deswegen behaupte ich, dass wenn man Filme linear schaut, man bei jedem Mal anders selektiert. Trotzdem braucht man einen Film nicht am Stück gucken, da man die Informationen selbst auswählt. Es gibt nur einmal einen Film als Gegenwart und zwar, wenn man ihn zum ersten Mal schaut. Danach weiß man – Spoiler Alarm –, Darth Vader ist der Vater von Luke. Daher finde ich es interessanter kleine Puzzlestücke zu machen, die der Zuschauer sich zusammen sammeln muss“, erzählt Tobias Bieseke. Für seinen Master hat der Filmemacher einen Kurzfilm gedreht, dessen Erzählstruktur non-linear ist. Die einzelnen Szenen, aus denen dieser sich zusammensetzt, sind – abgesehen vom Anfang und dem Ende – in beliebiger Reihenfolge zu schauen. Obwohl sich der große Zusammenhang erst im Kontext aller Szenen ergibt, funktioniert jede Szene auch für sich und wird so zu einem alleinstehenden Puzzlestück. Auf der Leinwand könnte diese Erzählweise durch eine Reihenfolge umgesetzten werden, die nicht zeitlich ist. Trotzdem stößt das Medium Film auf der Leinwand momentan noch an seine Grenzen, wenn es um dieses Narrativ geht. Tobias überlegte wie er die Non-Linearität besser transportieren kann und kam auf die „Nucleus Code“-App, durch die die/der BenutzerIn die einzelnen Szenen sammeln kann: „Wir haben erst über das Korsakow-System nachgedacht. In diesem Fall ordnet man Baumstrukturen an, sodass man nach einem Videoclip nur die daran angeknüpften Clips schauen kann. Dadurch wird ein interaktiver Verlauf erzeugt.“ Dieses System schafft zwar Interaktion, bewegt sich aber auf vorgegebenen Wegen. Es ist vergleichbar mit Kinderbüchern, in denen die LeserInnen entscheiden können, welchen Weg sie beispielsweise gehen und dann auf der einen oder anderen Seite weiterlesen. „Unser Programmierer Hendrik Carstensen hatte schließlich die Idee, die Szenen nicht an Zweige, sondern an Bilder zu koppeln. Daher haben wir uns auch gegen das Korsakow-System entschieden, weil wir nun eine Raumbindung haben. Man kann „Nucleus“ hier an diesem Ort gucken, nicht im Internet, nicht dezentralisiert. Die ZuschauerInnen müssen die Szenen im Dortmunder U einsammeln. Das funktioniert, indem man ein abstraktes Bild von einem Platz hier im Haus macht und der Benutzer dieses dann im Dortmunder U suchen muss. Über die Kamera des Handys in Verbindung mit der App aktiviert er dann eine von neun Kacheln, hinter denen sich je ein Video verbirgt.“ „Es wird interaktiver, durch die augmented reality (deutsch: erweiterte Realität, die computergestützte Erweiterung der Realitätswahrnehmung) und dadurch ist man näher dran“, ergänzt Hendrik Carstensen. Er hat nach seinem Informatikstudium nun ein Filmstudium begonnen und ist überrascht, wie sehr sich seine beiden Studienfächer verbinden lassen. Gemeinsam schaffen sie nicht nur eine Brücke zwischen der Welt der Videospiele und des Films, sondern auch eine zweite Realitätsebene. Zum einen gibt es die Geschichte des Films, zum anderen die non-lineare Erzählung, die durch die augmented reality App an reale Orte gebunden wird. „Es ist, als ob wir Geister installieren“, sagt Tobias.