Ich habe die Zukunft durch Microsofts Hololens gesehen

  • 2019

Sinelab

Das erste Mal, als ich 3D-Grafiken sah, war auf dem Computer meines Vaters, als ich ein Junge war. Dad war Programmierer für die Telefongesellschaft, bevor sie Programmierer "Codierer" nannten und bevor er Codierer war, war er cool. Er hat keine Apps gemacht; Er schrieb Routinen für ein Brutal eines Mainframes, das irgendwo im Innern von Pacific Bell lebte. Er blieb die ganze Nacht der Telearbeit bis zu einem Vorteil für jeden Job. Manchmal gingen mein jüngerer Bruder und ich zu ihm, um zu sehen, was er vorhatte, und wenn wir Glück hatten, hatte er uns auf den Schoß gelegt und ein Spiel gestartet, Wolfenstein 3D, ein Ego-Shooter. Sie waren ein GI, der versuchte, einer NS-Burg zu entkommen. Ich habe nie gedacht, dass die Grafik echt aussieht, aber sie waren zweifellos effektiv. Wir drei saßen im abgedunkelten Büro. Die Soldaten liefen durch die Korridore, waren besorgt und hatten Angst vor der Möglichkeit, dass die nächste Kurve dazu führen könnte, dass die Gestapo auf der Lauer lag. In den angespanntesten Momenten lehnte Dad seinen Körper, meinen Bruder und mich damit physisch, um sich um Ecken herumzuschauen.

Hat die rudimentäre Maschine, an der wir spielten, die Bewegungen meines Vaters erkannt und darauf reagiert? Sind wir Teil des Spiels geworden, in etwas Realerem als in unseren Vorstellungen? Papa war gut, aber nicht so gut. Außerdem war es das dunkle Zeitalter - Mitte der 90er Jahre - was wollen Sie?

Der Protagonist dieser Geschichte ist eine Maschine. Ein tragbarer, holographischer Computer, der Sie verlässt virtuell übertrifft deine erweitert, und gibt dir nur die Wirklichkeit. Sie könnten es eine Zweitsichtmaschine nennen, die Ihnen die kognitiven Kräfte der Maschine vermittelt, mit der Sie geboren wurden, aber von der Tyrannei der Physik befreit sind. Es ist eine Reihe von magischen Linsen, durch die Menschen mit beispielloser Klarheit ihre Beziehung zur Welt sehen.

Die Anwendungen für diese Maschine sind unbegrenzt, von der Planung kniffliger Operationen bis zum Design anderer komplizierter Maschinen mit Ihrem Partner, der sich in Tierra del Fuego befindet, aber zur gleichen Zeit direkt mit Ihnen zusammen ist, bis Sie nur die Zeit Ihres Lebens haben. Mit dieser Maschine hätten die Nazis nicht gewusst, was sie getroffen hatte.

Welcher Gott hat dieses Universum geschaffen?

Im Jahr 2007 hatte Alex Kipman - heute technischer Mitarbeiter bei Microsoft und damals Leiter des Windows-Teams - die Veröffentlichung von Windows Vista gerade beaufsichtigt. Es debütierte zu etwas weniger als Beifall, um so weniger, dass es acht Jahre später den Zuschlag für ein Silicon Valley Witz über die schlimmsten High-Tech-Produkte der letzten Zeit. Kipman war von sich selbst enttäuscht: Sechs Jahre nach seiner Karriere bei Microsoft - der einzige Ort, an dem er seit seinem Bachelor-Abschluss gearbeitet hatte - erkannte er, dass er keinen eigenen Standpunkt hatte. Er hatte einfach den Diktaten anderer Leute gefolgt. Der Branche Also nahm er ein Sabbatical in seine Heimat Brasilien, um einen Zweck zu finden.

Er baute den Atlantikwald, die weite tropische Hülle der brasilianischen Ostküste, zu einer Farm außerhalb des Gitters auf. Er ging mit einem Notizbuch an einem Ort voller Leben und ohne Technologie, und er hörte nicht auf, bis sein Verstand eine Maschine erfunden hatte, eine Maschine, für deren Herstellung eine unerkennbare Anzahl von Jahren erforderlich war. Es war eine Maschine mit einem animierenden Impuls: die Welt zu verstehen.

Es war eine Maschine mit einem animierenden Impuls: die Welt zu verstehen.

Unbewusst mit unberechenbarer Geschwindigkeit ist das menschliche Gehirn immer der Meinung: den Sinnen zu befehlen, Informationen aufzunehmen, den Kontext zu gewinnen und daraus abzuleiten, was in der Welt um sie herum geschieht. Als Alex Kipman den Atlantikwald verließ, konnte er die Maschine, von der er geträumt hatte, noch nicht bauen. Aber er hatte eine Idee, einen Leitsatz. Es war eine Art, die Welt als Maschine zu organisieren, wenn sie die Welt wie ein menschliches Gehirn verstehen wollte. Die Dinge in der Welt auf einer Achse und die Art und Weise, mit ihnen auf der anderen zu interagieren. Als Kipman aus Brasilien zurückkehrte, begann er zu bauen.

Er begann mit der einfachsten Maschine, die er sich vorstellen konnte. Die Namenskonventionen von Microsoft schreiben vor, dass Entwicklungsprojekte nach Städten benannt werden sollten. Daher nannte er es Projekt Natal, nach einer Stadt in Brasilien, deren Name "Geburt" bedeutet. Eine Tiefensensor-Kamera, die auf einem Fernseher saß. Sie war eine Maschine, die die Bewegungen des menschlichen Körpers sehen und darauf reagieren konnte. 2010 wurde es als Kinect, ein Xbox-Peripheriegerät, das es Spielern ermöglichte, Spiele mit den Bewegungen ihres Körpers zu steuern, der Öffentlichkeit zugänglich gemacht und verkaufte sich schneller als alle Unterhaltungselektronikartikel in der Geschichte.

So ging Kipman zu einer Maschine über, die nicht nur einen Menschen und seine Umgebung sehen konnte, sondern auch dazu führen konnte, dass er Dinge sah.

Kipman nannte sein neues Projekt Baraboo, diesmal benannt nach einer eigenartigen Stadt in Wisconsin, dem ehemaligen Hauptquartier des Ringling Brothers Circus, einer Stadt, die laut Kipman der einzige Clown-Friedhof in den Vereinigten Staaten ist. Er hatte eine seltsame Idee mit Microsoft gemacht: gemischte Realität, ein Headset, das dreidimensionale Hologramme des Trägers zeigte, die im Raum genau wiedergegeben wurden. Könnte auch das verdammte Ding nach dem Ort benennen, den ich ende, wenn es versagt, Kipman überlegte.

Hololens ist vor allem das Geschenk des Sehens. Es kann wie keine Maschine davor sehen.

Im März dieses Jahres, nach Jahren der Entwicklung mit Partnern wie Volvo und dem Jet Propulsion Laboratory der NASA, wurde Project Baraboo verfügbar, um Entwickler auszuwählen, die bereit sind, 3.000 USD für ein Entwickler-Kit zu zahlen. Ab August kann jeder es kaufen. Kipman war dem Clownsfriedhof ausgewichen. Die Maschine hieß HoloLens.

Es gibt viele Möglichkeiten, um zu beschreiben, was HoloLens ist: ein Mixed-Reality-Gerät, ein holographischer Computer und eine teure Eskapismus-Technologie. Was es aber vor allem ist, ist die Gabe des Sehens. Es kann wie keine Maschine davor sehen.

HoloLens schwebt über dem Kopf einer Person wie ein Halo mit Rauchring. Ein gepolsterter innerer grauer Reif ruht auf der Schädelkrone und wird im Rücken eng zusammengehalten. Die Brille - eigentlich ein klares Glasschild mit einem zweiten Satz trapezförmiger Linsen darunter - schwebt um den Innenring auf einer Kippachse. Sie sind so eingestellt, dass sie vor den Augen schweben. Und der Großteil der Maschine befindet sich über den Linsen, in einem Halbmond aus Kunststoff und Silikon, der an der Stirn anliegt: ein Bündel von Sensoren.

Diese Sensoren - eine Vielzahl von Kameras und Bewegungsmeldern - senden alle ihre Daten (Terabytes pro Sekunde) an ein Kontrollzentrum, das als holographische Verarbeitungseinheit bezeichnet wird. Das Ergebnis ist ein Koordinatensystem, das HoloLens mitteilt, wie der Raum aussieht, wo sich der Träger befindet und was sich in seinem Sichtfeld befindet. Dann lernt HoloLens mit Hilfe eines Kalibrierungsprogramms die besonderen Macken der Augen des Trägers. Und weil HoloLens die Umgebung der Person und den Ort, in den sie blickt, versteht, wenn ihre zwei winzigen Projektoren Hologramme in seine Netzhaut strahlen, sind diese Hologramme - abgesehen von ihrer seltsamen, schimmernden Essenz - wirklich in der Szene. Keine Hologramme mehr echt. Sie können halb hinter einer Couch versteckt sein, auf einer Küchentheke sitzen oder durch eine Wand krachen.

Das Gerät wird mit einem "Cursor" gesteuert, der dem Blick des Trägers folgt und mit Handgesten (oder Sprachbefehlen) aktiviert wird. Es gibt im Wesentlichen nur drei. Das Allgegenwärtigste, der Luftzug, wird gemacht, indem der Zeigefinger gerade in die Luft gehalten wird, dann nach unten und wieder nach oben gezogen wird, als würde er von einer Nadel gestochen. Es ist das Äquivalent eines Mausklicks oder Tippen auf ein Smartphone. Das Scrollen wird mit einem "Air Tap and Hold" erreicht: Halten Sie den Zeigefinger am unteren Rand des Taps und schrubben Sie dann mit der Hand nach oben oder unten (auch zum Zoomen und Ändern der Größe). Der virtuelle hintere Knopf ist schließlich die Blüte: Austeilen, Handfläche nach oben, Finger zusammen, Sie heben Ihre Hand und öffnen die Finger wie eine Blume zur Sonne.

Eine Person, die HoloLens verwendet, zu beobachten, ist etwas zu betrachten, das wie eine religiöse Erfahrung aussieht. Ein seltsames Spiel von Licht kommt über seine Augen, Grüns rollen wie die Aurora Borealis über die Linsen. Er gestikuliert, als ob er sich in Gebärdensprache unterhält, aber mit niemandem und nur drei Wörter benutzt. Er sieht Dinge, die andere nicht sehen können.

Eine Person, die HoloLens verwendet, zu beobachten, ist etwas zu betrachten, das wie eine religiöse Erfahrung aussieht.

Da Microsoft HoloLens langsam in die Welt eingeführt hat, wurden überall im Land Demonstrationsräume eingerichtet. Dies sind winzige Zimmer, die alle unterschiedlich eingerichtet und gut ausgestattet sind. Man sieht aus wie das Wohnzimmer einer Stadtwohnung. Eine andere wie die Verkaufsfläche eines Volvo-Händlers. Eine Höhle mit einem Kronleuchter und einem kaputten Dimmerschalter; ein Designstudio. In jedem Raum, irgendwo - auf einem Tisch, auf einem Schreibtisch - befindet sich eine HoloLens. Im Wohnzimmer hängen holographische Verzierungen an den Wänden und sind wie Kindersachen auf dem Boden verstreut. Die Verkaufsfläche verfügt über eine holographische Demo S90, die durch den Raum zoomt und das Chassis so aussieht, wie das eigentliche Ding seine Kapuze zum Vorschein bringt. Diese Erlebnisse sind technisch beeindruckend, aber letztlich unkompliziert, auch entworfen und elegant, um sie zu beeindrucken. Der überzeugendere Weg, um zu sehen, was HoloLens tun kann, ist zu sehen, was die Leute während des Tragens tun.

Aviad Almagor leitet das Mixed-Reality-Programm von Trimble, einem Unternehmen, das unter anderem mit Kunden zusammenarbeitet, um digitale Gebäudemodelle zu erstellen. Almagor hat intensiv an der Entwicklung von Möglichkeiten für die Verwendung von HoloLens für die Zusammenarbeit gearbeitet. Dabei werden häufig mehrere HoloLens-Träger an verschiedenen Ecken des Planeten um ein einziges 3D-Modell gebündelt. Die HoloLens jeder Person zeigt ihm dasselbe Modell sowie Avatare seiner Mitarbeiter. Jeder kann sich frei im Modell bewegen, wenn er darüber spricht.

"Wenn Sie ein virtuelles Modell herausbringen", sagt Almagor, "neigen die Leute dazu, es auf einen Tisch zu legen. Es gibt keinen Grund - das Modell kann in der Luft schweben. Aber aus irgendeinem Grund brauchen wir eine feste Oberfläche, um das Modell zu platzieren Und die Leute werden immer um sie herumlaufen. Sie werden es nicht kreuzen. Das gleiche gilt für Avatare - die Menschen werden einem Avatar nicht zu nahe kommen. Sie halten eine gewisse Distanz, wie im wirklichen Leben. "

Dies ist eine wichtige Lektion, da Menschen Computer nicht wie Realität behandeln. Sie behandeln Computer wie Maschinen.

Das Jet Propulsion Laboratory verwendete HoloLens, um eine Anwendung namens OnSight zu entwickeln, die vorhandene Fotos von Mars 'Gale Crater verwendet, um eine vollständig eintauchende Marsumgebung zu schaffen. Erdgebundene Geologen erforschen, als wären sie auf dem Feld, gingen um den Mars herum und untersuchten ihn mit derselben Einrichtung, die sie auf ihrem Heimatplaneten in ihrer eigenen Schwerkraft haben.

Bei der Entwicklung von OnSight hatte JPL die Realität jedoch nicht vollständig berücksichtigt. Es war so konzipiert, als wäre es eine andere grafisch intensive Anwendung, die eine für das Spieledesign übliche Philosophie verwendet: Wenn es ein Objekt wie einen Hügel gibt, das die Sicht eines Benutzers blockiert, warum sollte dann Rechenleistung verbraucht werden, was dahinter steht? Benutzer können es sowieso nicht sehen. Aber als JPL es Testern gab, sah einer der ersten Marsianer, dass Geologen den Rover Curiosity vor einem kleinen Hügel gefunden hatten, und als Erstes stießen die meisten auf die Spitze - und was Sie sahen dahinter niedrig und hässlich.

"Wir haben sie gefragt, warum sie das getan haben", sagt Parker Abercrombie, Softwareentwickler bei JPL. "Und sie sagten: Nun, wenn ich draußen wäre, würde ich als erstes auf den höchsten Punkt gehen und die Lage des Landes erreichen."

Im Jahr 2014, kurz nachdem er bei JPL angefangen hatte und OnSight selbst ausprobieren wollte, ging Abercrombie in der kalifornischen High Desert. Nicht weit außerhalb von Los Angeles, in der größeren Provinz des Mojave, ist die Landschaft der hohen Wüste ein Monochrom aus tiefem Gestrüpp, Schmutz und Felsen. Umringt von der hohen, trockenen Landschaft - den San Bernardino Mountains, den San Jacintos, den Granite und den Providence-Bergen in der Ferne -, nahm Abercrombie die fernen Kammlinien mit einem Anflug von Vertrautheit in sich auf. Das fühlt sich so an wie der Gale Crater, er dachte. Egal, dass er noch nie dort gewesen war: Wegen OnSight und einem grauen Headset draußen in der kalifornischen Wüste war Abercrombie nicht erkennen Mars, wie Sie einen Ort erkennen, den Sie nur in Bildern gesehen haben. Er war Erinnern es.

"Seit wir Maschinen - noch vor Computern - erfunden haben, beugen wir uns vor, um sprechen zu können, zu kommunizieren und ihnen Anweisungen zu geben", sagt Dav Rauch. "Wir haben die Sprachen der von uns erstellten Maschinen gelernt. Wir sind um ihren Finger gewickelt."

Rauch ist kreativer Resident und Senior Design Lead bei IDEO, dem globalen Designbüro. Er begann mit Filmen und entwarf Schnittstellen für futuristische Technologie. Wenn Sie Wissenschaftler gesehen haben, die an ihren Computern stehen Benutzerbild oder Tony Stark schaut durch das Display seines Anzugs Ironman, Du hast seine Arbeit gesehen. Sein Punkt ist, dass das Tippen auf einer Tastatur so weit von der natürlichen menschlichen Kommunikation entfernt ist, wie Sie nur können - aber wir mussten sie entwickeln, um Computer effektiv zu nutzen. Die Komplexität unserer Interaktionen mit Computern wuchs während des größten Teils ihrer Geschichte - Lochkarten, Tastatur und Monitor, Tastatur, Monitor und Maus - lösten sich jedoch jetzt in Gesten, Stimme und Blick auf. Die letzten drei sind natürlich die Art und Weise, wie wir miteinander kommunizieren.

"Ich denke, der Punkt, an dem wir endlich ankommen - angefangen mit Gesten, und wir werden es mit virtuellen Umgebungen und Augmented-Reality-Umgebungen vollständiger sehen -, ist das, wo Benutzeroberflächen verschwinden", sagt Rauch.

Kipman glaubt seinerseits, dass die Zukunft leicht zu sehen ist. "Wenn Sie eine Technologie entwickeln, die die Schnittstelle von der Technologie entfernt", behauptet Kipman, "wird sich die Art weiterentwickeln."

"Wenn Sie eine Technologie erstellen, die die Schnittstelle von der Technologie entfernt, werden sich die Arten weiterentwickeln."

Die Anfänge der Augmented Reality legen nahe, dass dies wahr ist. Im Jahr 1992 bemerkte ein Doktorand der Stanford University, Louis Rosenberg, sein Entwicklungspotenzial, als er an einem von der US Air Force finanzierten Projekt arbeitete, das Chirurgen bei chirurgischen Operationen mit Roboterarmen unterstützen soll. Rosenberg hatte die Idee für so genannte virtuelle Vorrichtungen, digitale Hilfsmittel, die Chirurgen helfen könnten, genauere Einschnitte vorzunehmen. Wenn eine Nadel an einem exakten Ort in einen Patienten injiziert werden muss, könnte das System von Rosenberg aus Sicht- und Schwingungsrückkopplungen einen virtuellen Kegel machen, der die Nadelspitze an die richtige Stelle schieben würde. Oder nehmen Sie an, ein Chirurg musste einen Schnitt machen, der bei einem Zentimeter Tiefe lebensrettend wäre, aber bei einem Millimeter tiefer eine Arterie kürzen. Es wäre hilfreich, einen Tiefenanschlag zu bauen, wie Sie es für eine Tischkreissäge tun würden. Außer dass es schwierig ist, einen Tiefenanschlag für einen Schnitt in einem menschlichen Körper zu bauen. Aber was wäre, wenn der Tiefenstopp virtuell wäre?

"Sie könnten zu einer Stufe des Suspendierens des Unglaubens gelangen, bei der Sie nicht wussten, was die wirklichen Informationen waren und was die virtuellen Informationen waren", sagt Rosenberg. "Wenn die Leute im virtuellen Fixtures-System arbeiteten, würden sie sich, wenn es einen virtuellen Kegel gab, auf den sie sich fühlen konnten, auf diesen Kegel verlassen, als ob er real wäre Ihre Wahrnehmung dieser beiden Räume, eine Verschmelzung von realer und virtueller Information und die Grenzen zwischen diesen beiden waren für sie wirklich unwichtig. "

Als Rosenberg Standard-Leistungstests mit virtuellen Geräten durchführte, stellte er fest, dass seine Leistung um 70 Prozent gesteigert wurde. Er hatte ihnen Supermächte gegeben, indem sie einfach ihre Tendenz nutzten, das Virtuelle als das Reale zu behandeln.

Das Problem war nur, dass für virtuelle Geräte sehr viel Hardware erforderlich war. Rosenberg hatte ein raumgreifendes Rig aus Robotersteuerungen, Brillen und Monitoren gebaut.

HoloLens passt auf einen menschlichen Kopf.

Auf dem Mars erkannte das OnSight-Team, dass es besser war, als die Landschaft hinter den Hügeln einfach zu rendern, sodass die Menschen sie mit Verlassenheit überfahren konnten.Sie geben den Geologen die Fähigkeit zu fliegen. Welchen besseren Weg finden Sie, um das Land zu erreichen? Und da Geologen ständig Schwierigkeiten hatten, sich zu orientieren, haben sie bereits eine weitere neue Funktion hinzugefügt. In OnSights virtueller Neufassung von Mars wird jedes Mal, wenn ein Geologe in den halloweenfarbenen Himmel blickt, die Zahlen eines Azimutrings angezeigt, der in Richtung Norden schwebt.

"Mann, nein, ich bin absolut nicht glücklich damit", sagt der Mann, der den HoloLens erfunden hat.

HoloLens ist die betörendste Maschine, die bisher auf dem neuesten Stand der sensorischen Verarbeitung, der Bildtechnologie und der bloßen Kühnheit des Sehens hergestellt wurde. Aber es ist groß Es ist schwer und ermüdet den Hals in kurzer Zeit. Die Batterien sterben zu schnell und das Sichtfeld ist begrenzt, und den Hologrammen fehlt die Schärfe der schärfsten 3D-Grafik, ganz zu schweigen von der realen Welt.

"Es ist der einzige vollständig ungebundene holographische Computer, und es ist ein Juwel und eine Leistung des Computers, aber er ist unvollständig", sagt Kipman.

Was HoloLens ist, ist ein Vorbote, ein Wendepunkt.

"Es ist das Äquivalent, eine Decke über die reale Welt zu werfen, was unsere räumliche Karte ist. Sie erzeugt ein Geflecht aus der realen Welt, das den Unterschied zwischen einem Menschen, einer Couch, dem Boden, der Decke und so etwas nicht kennt ", Sagt Kipman. "Was episch ist, weil es in Echtzeit mit Framerate gemacht wird und sich niemand in der Nähe dieser Art von Technologie befindet. Aber es ist der Beginn einer Reise."

Wenn Kipman an Brasilien zurückdenkt, sieht er, dass HoloLens nur wenige Schritte auf dem Weg zum Endziel ist.

"In Kinect gibt es die Maschinen in der Umwelt", sagt Kipman. "Es ist unter Ihrem Fernseher angeschlossen und festgebunden. Sie tragen nichts. Und doch versteht es den Menschen. In HoloLens ist die Maschine auf den Menschen eingestellt, und der Mensch ist ambulant und läuft herum. Wir haben überhaupt nicht darüber gesprochen Was passiert, wenn Sie die Maschinerie auf Objekte legen? Das gleiche Mixed-Reality-Verständnis, wenn Sie auf ein Objekt angewendet werden, bringt Ihnen Roboter und selbstfahrende Autos. Wenn Sie sich im Laufe der Zeit vorstellen, dass diese Maschinerie überall vorhanden ist und allgegenwärtig wird, dann Bis zu einem gewissen Grad brauchen Sie die Maschine nur in einer Umgebung, in der sich die Maschine nicht befindet. "

Kipman schlägt Hologramme vor, die aus dem Haus, dem Büro oder dem Bus stammen. Wer braucht einen holographischen Computer, wenn sich überall holographische Computer befinden? In einer nicht weit entfernten Zukunft wird die Menschheit ein Rennen von Übermenschen sein, Knochenmaschinen, die auf allen Seiten von digitalen Maschinen aktiviert werden, die uns verstehen.

Und es wird dort nicht aufhören.

Jason Alan Snyder, ein Futurist, dessen Patente Aspekte von Google Glass - gewissermaßen ein Vorläufer von HoloLens - prägten, ist einer von vielen Entwicklern, die an Erfahrungen mit HoloLens arbeiten. Er arbeitet für eine Marketingagentur und konzentriert sich auf das, was er digitales Sampling nennt, die Fähigkeit, Produkte und Erfahrungen virtuell zu testen, bevor er sie kauft. Aber er sieht dahinter. Er glaubt, dass Technologie an einem Ort ist, an dem wir die Sprache überwinden können. Er beschrieb ein Experiment, bei dem sich Probanden aus verschiedenen Kulturen durch Begrüßung in ihrer eigenen Sprache begrüßten. Sie trugen EEG-Helme, um ihre Gehirnströme abzulesen, und als ein Computer einen Gedanken entdeckte, der im Gehirn einer Person einen Gedanken formte - etwa eine Begrüßung -, löste er ein Phosphen aus, ein von einem Gehirn erzeugtes optisches Artefakt, das wie ein helles Licht aussieht, das in der peripheren Sicht gesehen wird -in einem anderen.

"Durch den Gedanken an diese Begrüßung würde eine Person auf der anderen Seite der Welt diese Begrüßung sehen", sagt Snyder. "Wenn wir das in eines dieser AR-Geräte (Augmented Reality) wie HoloLens einordnen könnten, wäre das enorm."

Die Kommunikation zwischen Geist und Seele klingt nach Science Fiction. Aber dann auch Hologramme.

Im Keller des Gebäudes 92 von Microsoft in Redmond, Washington, in einem Büro, das als Büro des Jet Propulsion Laboratory der NASA gekleidet war, konnte ich OnSight selbst ausprobieren. Als ich diesen Raum betrat, legte ich eine HoloLens auf und ein Microsoft-Guide ließ die Landschaft des Mars, des roten Planeten, auf Knopfdruck in bemerkenswerter 3D-Optik erscheinen. Ich ging auf und ab. Mars. Sah auf meine Füße. Mars. Ich schwenkte im Kreis und scannte die gesamte Landschaft. Als ich mich umdrehte und über meine linke Schulter blickte, überragte mich eine riesige Gestalt, und ich sprang erschrocken zurück. Es war der Kuriositätsrover.

Der Guide rief mich zu dem Schreibtisch im Büro an. Der Monitor zeigte die tatsächlich von Curiosity aufgenommenen Bilder, die zur Landschaft zusammengefügt wurden. Ich konnte auf einen Felsen in einem Bild klicken und eine Fahne würde im Boden des Raumes angebracht sein, wo ich hinaufgehen und in drei Dimensionen genauer hinschauen könnte.

Eine der Flaggen, die ich gepflanzt habe, befand sich auf einem Felsen, der sich in 2D über die Landschaft zu wölben schien. Es bettelte darum, erkundet zu werden. "Gute Wahl", sagte mir mein Führer. "Das ist ein ziemlich interessanter Rock. Wir haben viele Bilder davon", sagte sie.

"Sieh dir das an."

Ich ging zum Felsen hinüber. Es wölbte sich tatsächlich über der Landschaft. Ich konnte es fast neben meinem Bein fühlen. Sein Überhang warf einen Schatten auf die Felsen darunter. "Wir wissen sogar, wie die Unterseite aussieht", sagte mein Führer und winkte subtil.

Ich dachte an diese späten Nächte auf Papas Schoß, die sich bemühten, um Ecken zu blicken. Mit diesem Gedanken ging ich im roten Marsstaub auf meine Hände und Knie, um die Unterseite eines Felsens näher zu betrachten, der sechzig Millionen Kilometer entfernt war.


* Dieser Artikel erschien ursprünglich in der Oktoberausgabe von .

Forget VR! MIXED REALITY Gaming is the Future & I HAVE IT! Video.

Nächster Artikel