Mixing Realities

By Marcus on 29. Mai 2017 — 5 mins read

Wie verbinden wir digitale und analoge Realitäten? Und wie bewegen wir uns in diesen neuen Hybridwelten?

Leigh Alexander hat vor einigen Tagen beim Mapping Festival über The Big Disconnet? gesprochen. Und ich hab mir das nach einem sehr langen Tag im Park unter Bäumen im Schatten mit Nudelsalat, ohne Smartphone dafür aber mit sehr vielen Kindern, auf dem Smartphone angeschaut und dachte – während ich beim Anschauen mehrfach sanft entschlief – zuerst, dass es dem einstündigen Talk an zugespitzten Thesen und einer straffen Argumentation mangelt.

Digital Detox und Traumhäuser bei Second Life

Aber beim noch mal drüber nachdenken, gefiel mir die Herausarbeitung und Gegenüberstellung der beiden Herangehensweisen an das durch die flächendeckende Verbreitung des Internets und die damit einhergehende Durchdringung der Welt entstandene „neue Neu“.


Auf der einen Seite die „Wir haben kein Wifi, redet miteinander“-Apologeten, auf der anderen Seite Menschen, die sich in virtuellen Welten wie Second Life Traumhäuser bauen, die zufälligerweise genau so aussehen, wie die kalifornischen Architekturträume einer vermögenden Klasse. Sehr schön, wie sie die Diskussion um virtuelle Stühle heraushebt.

Stühle für virtuelle Avatare, die fliegen können, die auf dem Meeresgrund hocken können, die – wenn sie nur wollten – auf virtuellen Wolken hopsen könnten und von mir aus auch am Ende des Regenbogens ein Tässchen Mokka trinken könnten. Die aber lieber in virtuellen Nachbildungen aus Architekturkatalogen auf Designer-Stühlen sitzen wollen. Stühle? Da wo wir hingehen brauchen wir keine Stühle.


Jenseits dieser Dichotomie leben wir natürlich längst in einem always on. Und wenn wir nach dem Lesen des Zeitungsartikels auf Papier im Cafe nicht Begriffe, Personen oder sonstiges googlen können, um Weiterzulesen, um die erlernte und geschätzte Kulturtechnik des vernetzen Wissens anzuwenden, um dem Hyperlink zu folgen, um vom Hölzchen auf das Stöckchen und weiter auf den nächsten Baum zu springen, dann empfinden wir das natürlich vollkommen zurecht als Beschränkung, Begrenzung, ja bisweilen gar als Bedrohung.

Kombination von Digital und Analog mittels Reality Editor 

Folgerichtig müssen wir jetzt – nach mobile, social und local und global usw. – über die weiteren Entwicklungen nachdenken: Der Kombination aus digitaler und analoger Welt bzw. Welten. Was sich in kleinen Entwicklungsschritten rund um den Begriff Augmented Reality ankündigt, wird in den kommenden Jahren vermutlich noch mal und noch mehr alles auf den Kopf stellen, an was wir uns seit Ende der 1990er Jahre gewöhnt haben.


Am MIT arbeitet man seit einiger Zeit am so genannten Reality Editor – „A Web-Based Tool For Controlling The Physical World. Use our Bi-Directional AR and Logic Crafting for editing reality“. Mit reality meint man hier die so genannte „real reality“. Das Ziel: Nichts geringeres als eine „seamless“ Verschränkung im Moment noch weitgehend getrennter Welten.

Sehr anschaulich sicher die Sequenz aus dem kurzen Video, in dem jemand mit dem Smartphone und einer simplen Wischgeste einen analogen Münzparkautomaten aus der Entfernung bedient. Das Beispiel ist so schön anschaulich, weil hier ein konkretes Problem gelöst wird. Und nur mit der konkreten Problemlösung wird man Produkte erstellen, die Menschen nutzen werden. Auch wenn sie vielleicht noch gar nicht wissen, welche Probleme bzw. Problemlösungen für sie in Frage kommen werden. Achtung, Achtung – du hattest heute schon einen Hamburger.

Die sehende und verstehende Kamera füttert eine Datenbank


Nachdem Kameras in Smartphones einen Spitzenjob gemacht haben, die Welt da draußen möglichst wirklichkeitsgetreu in das Gerät und damit in die digitale Welt zu holen, folgt jetzt die nächste Stufe.

Denn Abbildung allein ist nett, aber Erkennen, Sinngebung, Kombination und Anreicherung sind auch nicht schlecht: Google macht die Smartphone-Kamera klüger. Mit dem Lens-Programm verleiht Google Smartphone-Kameras die Fähigkeit, Bildinhalte zu erkennen und weiterzuverarbeiten (*). Tango kann die Welt bereits abchecken, Datenpunkte setzen und einfache 3D-Modelle erstellen.

Und da man am besten gleich groß denkt, kann man all diese erkannten Inhalte natürlich auch in eine mächtige Datenbank reinschreiben: A Snapchat patent application would map the world in an augmented reality database (*).

Wer das größenwahnsinnig findet, der sei kurz an das Projekt „Wir fahren mit Autos einmal durch jede Straße des Planeten und machen dabei 360 Grad Fotos“ (Google Street View) erinnert. Und an Teil zwei „Wo wir gerade dabei sind, wir machen aus den platten 2D-Ansichten einfach 3D-Ansichten und die Sonne schieben wir bei Bedarf einfach zur Seite“ (Google Earth VR).

Die Welt im Browser


Wenn wir die echte Welt da draußen nun bspws. in unseren digitalen Browser holen, dann kann man das mittelfristig natürlich mit dem so genannten „Magic Window“ eines Smartphones tun: Chrome is coming to augmented reality and Google Daydream (*).

Und wir steuern das alles mit der Kraft unserer Gedanken

Richtig spannend wird es aber erst, wenn wir kleine, angenehm tragbare Brillenlösungen bekommen. Das dauert noch ein Weilchen, aber bis es soweit ist, sollten wir darüber nachdenken, was wir damit alles anstellen können oder anstellen wollen: This Is How VR and AR Kill Smartphones. Medieninhalte konsumieren, shoppen oder entspannter im Auto navigieren. Moment, das macht das Auto dann ja allein, nun dann eben im Auto Medieninhalte konsumieren und shoppen.


Um nicht mit Händen und Armen wie wild in der Gegend herumzuhampeln (Leap Motion), können wir natürlich weiter über CUI, also Conversational User Interfaces, nachdenken oder über Eye Tracking. Spannender finde ich aber Versuche AR und Neuroscience zusammenzudenken. Zwar gibt es Ende Juli einen VR Brain Jam in New York, aber VR und nicht AR.

Wäre es nicht auch ganz cool den Münzparkautomaten vergangener Jahrhunderte einfach nur anzuschauen und zu denken, dass man hier eine Stunde lang parken will? Klingt irre. Aber in der Kombination verschieder Soft- und Hardwarelösungen ist das natürlich möglich. Auch wenn ich derzeit keine Ahnung habe wie weit man hier gehen kann.

Fragen wir einfach Elon Musk: Neuralink and the Brain’s Magical Future. Crazy. Mein kleiner Prototyp Malewitsch My Mind zeigt eine erste ganz kleine Anwendung und die Kombination von Brain Interface und real world. Die Vorstellung: zukünftig durch historische Museumsbauten schlendern, um auf ganz anderen Ebenen mit der ausgestellten Kunst zu interagieren.

„Imagination is more important than knowledge. For knowledge is limited, whereas imagination embraces the entire world, stimulating progress, giving birth to evolution.“ -Albert Einstein, 1929.