Lieben Sie es oder hassen Sie es, das Apple Vision Pro ist ein Game-Changer

Blog

HeimHeim / Blog / Lieben Sie es oder hassen Sie es, das Apple Vision Pro ist ein Game-Changer

Aug 23, 2023

Lieben Sie es oder hassen Sie es, das Apple Vision Pro ist ein Game-Changer

7. Juni 2023 von Kevin C. Tofel Hinterlasse einen Kommentar Ich bin mir sicher, dass du inzwischen schon gesehen hast oder

7. Juni 2023 von Kevin C. Tofel Hinterlasse einen Kommentar

Ich bin mir sicher, dass Sie inzwischen Apple Vision Pro gesehen oder davon gehört haben, das 3.499 US-Dollar teure Spatial-Computing-Headset des Unternehmens. Wenn Sie es noch nicht getan haben, wird Sie dieses neunminütige Video schnell auf den neuesten Stand bringen:

Die Reaktionen derjenigen, die es genutzt haben, und derjenigen, die es nicht genutzt haben, sind sehr polarisierend. Erstere sind von der Technologie und Erfahrung durchweg überwältigt. Letztere erkennen den Sinn dieses Produkts meist nicht oder prognostizieren bereits einen Flop. Nachdem ich mein Gehirn den Nachrichten gewidmet und mir einige der Entwicklervideos der Apple WWDC 2023 angesehen habe, neige ich eher dazu, dass Vision Pro genauso bahnbrechend sein wird wie das ursprüngliche iPhone.

Als ich mir die Live-Einführung von Vision Pro ansah, kam mir tatsächlich das gleiche Gefühl in den Sinn, das ich im Januar 2007 hatte. Ich war in Las Vegas auf der Consumer Electronics Show. Und während dieser Veranstaltung stellte Steve Jobs das erste iPhone vor. Zehntausende Menschen auf der mehr als 2 Millionen Quadratmeter großen CES hörten praktisch auf, was sie taten. Und sie sahen zu, wie Jobs Apples neueste Kreation vorstellte.

Es war, als würde auf der CES die gesamte Luft auf einmal aus den vielen großen Räumen gesaugt. Fairerweise muss man sagen, dass das erste iPhone wirklich nicht beeindruckend war. Es hatte eine langsame mobile 2G-Breitbandverbindung, keinen App Store und eine schlechte 2-Megapixel-Kamera. Dank der kapazitiven Multi-Touch-Display-Technologie und der Softwareplattform, die Apple kontinuierlich weiterentwickelt hat, hat es das Telefonparadigma jedoch für immer verändert.

Das Apple Vision Pro sehe ich ähnlich. Ja, es ist extrem teuer, aber der Preis wird mit den Folgemodellen sinken. Es gibt auch eine neue Softwareplattform für die Art und Weise, wie wir mit Computererlebnissen interagieren. Und in gewisser Weise ist es dem ersten iPhone voraus, da Apples riesige iOS- und iPadOS-App-Bibliothek vom ersten Tag an mit von der Partie ist.

Anstatt die grundlegenden Fakten und einige der vielen Funktionen des Headsets noch einmal aufzuwärmen, wollen wir uns etwas tiefer mit dem Thema befassen, was Vision Pro zu einem Game-Changer macht. Auch wenn die meisten Menschen es erst in einigen Jahren erleben werden.

An Sensoren mangelt es beim Vision Pro nicht. Laut Apple gibt es 12 Kameras, sechs Mikrofone und fünf zusätzliche Sensoren.

Dazu gehört ein LiDAR-Sensor an der Außenseite zum Scannen von Objekten und Umgebungen. Im Inneren befinden sich Infrarotsensoren, die ständig auf Ihre Augen schauen. Diese werden verwendet, um Sie als Benutzer anhand Ihres Netzhautmusters zu authentifizieren. Und was meiner Meinung nach noch wichtiger ist: Diese verfolgen auch Ihre Augen, um zu sehen, wohin Sie schauen.

Warum ist das wichtig? Weil Sie im neuen Personal-Computing-Paradigma von Apple weder eine Maus noch ein Trackpad oder einen Touchscreen haben, die Sie verwenden können. Der Cursor für die Interaktion ist immer dort, wo Sie hinschauen. Tatsächlich sagt Apple mit den Sensoren und seinem neuen R1-Chip voraus, wohin Sie schauen werden. (Es gibt auch einen M2-Chip für Verarbeitung, Grafik und Konnektivität). Das sagt Sterling Crispin, ein Entwickler, der bei Apple am Vision Pro-Projekt gearbeitet hat:

Eines der coolsten Ergebnisse war die Vorhersage, dass ein Benutzer auf etwas klicken würde, bevor er es tatsächlich tat. Das war eine Menge Arbeit und etwas, worauf ich stolz bin. Ihr Schüler reagiert, bevor Sie klicken, teilweise weil Sie erwarten, dass nach dem Klicken etwas passiert. Sie können also Biofeedback mit dem Gehirn eines Benutzers erzeugen, indem Sie dessen Augenverhalten überwachen und die Benutzeroberfläche in Echtzeit neu gestalten, um mehr von dieser vorausschauenden Pupillenreaktion zu erzeugen.

Denken Sie eine Sekunde darüber nach. In diesem neuen Computerparadigma müssen Sie kein physisches Objekt mehr berühren, um einen Computer oder die darauf befindlichen Apps effektiv zu nutzen. Sie werden einfach schauen, was Sie tun möchten. Mithilfe der nach unten und zur Seite gerichteten Kameras erkennt Vision Pro dann eine von nur wenigen intuitiven Standardgesten für die Interaktion.

Wenn das kein bahnbrechendes Computerparadigma ist, dann weder die erste Maus noch das erste iPhone.

Durch den Wegfall der physischen Interaktion benötigen Sie zum Navigieren keinen batteriebetriebenen Handheld-Controller. Ich schaue dich an, Oculus! Und natürlich haben Sie per Definition die Einschränkungen eines Displays mit fester Größe beseitigt, da das Headset in einer Entfernung von bis zu 100 Fuß eine bessere Auflösung als 4K simulieren kann.

Natürlich wird ein neues Personal-Computing-Paradigma nicht nur neue Erfahrungen, sondern auch neue Herausforderungen mit sich bringen. Abgesehen von der Gen-One-Preisgestaltung sehe ich die größte Herausforderung beim Apple Vision Pro darin, welche sozialen Auswirkungen es auf die Menschen haben wird. Um es klarzustellen: Im Gegensatz zum iPhone ist dies nicht das, was ich als „Mobile-First“-Gerät bezeichnen würde. Anders ausgedrückt: Ich würde nicht allzu oft mit einem Vision Pro im Rucksack oder im Gesicht das Haus verlassen. Im letzteren Fall eigentlich nie.

Telefone begleiten uns heutzutage meist überall hin. Ein Headset ist eigentlich für den stationären Gebrauch gedacht, etwa zu Hause, vielleicht im Büro oder an einem Ort, an dem Sie viel Ausfallzeit haben. Hoffen Sie besser, dass dieser Standort auch über eine Steckdose in der Nähe verfügt, da der tragbare Akku den Vision Pro bis zu zwei Stunden lang betreibt. Es gibt keinen internen Akku: Apple hat gezeigt, dass es ständig mit Kabel verbunden ist. Der Verzicht auf eine interne Batterie trägt zur Gewichtsreduzierung bei. Dies deutet weiter darauf hin, dass es sich nicht um ein Mobile-First-Produkt handelt. Denken Sie übrigens daran, wenn Sie Hot Takes lesen, denn meiner Meinung nach handelt es sich dabei um eine wichtige Information, die einige übersehen.

Der Anwendungsfall von Vision Pro besteht also hauptsächlich dann, wenn Sie an einem Ort sitzen oder stehen, wahrscheinlich über einen längeren Zeitraum. Wenn Sie zu Hause eines tragen und Ihre Familie versucht, mit Ihnen zu interagieren, wie wird sie sich dann fühlen? Wenn Sie durch einen Flughafen gehen und jemanden sehen, der Vision Pro verwendet, während er auf ein Flugzeug wartet, sieht es dann nicht so aus, als wäre er in „The Matrix“ verwickelt?

Apple gibt sich alle Mühe, Nein zu sagen, Sie werden die Menschen um Sie herum immer noch sozial wahrnehmen und sie können problemlos mit Ihnen interagieren. Aus diesem Grund verfügt Vision Pro über ein externes Display auf der Vorderseite. Dies zeigt eine virtuelle Darstellung Ihrer Augen. Es handelt sich nicht um einen Live-Video-Feed Ihrer Zuschauer; Es handelt sich um eine 3D-Projektion, die auf dem basiert, was die Sensoren sehen, was Ihre Augen tun. Und es ist eigentlich ganz nett. Aber viele Menschen werden immer noch die große Schutzbrille auf Ihrem Gesicht sehen und wünschen, sie hätten Ihr Gesicht tatsächlich gesehen. Und das wird die soziale Interaktion reduzieren.

Ebenso kann niemand anderes mit Ihnen an Ihren Vision Pro-Aktivitäten teilnehmen. Es sei denn, sie verfügen über ein Headset oder ein Gerät, das iOS oder macOS unterstützt. Auf der WWDC 2023 verbringt Apple viel Zeit damit, zu erklären, wie Entwickler die besten SharePlay-Erlebnisse für dieses neue Computerparadigma schaffen sollten.

Wenn Sie damit nicht vertraut sind, bietet SharePlay eine Möglichkeit für Menschen an verschiedenen Standorten, ein Computererlebnis zu teilen. Es könnte eine Watch-Party für „The Mandolorian“ sein oder es könnte etwas mehr Spaß machen, wie zum Beispiel das gemeinsame Rechnen mit Zahlen in einer Tabellenkalkulation. Da alles auf der FaceTime-Technologie von Apple basiert, müssen sich Nicht-FaceTime-Benutzer nicht bewerben. Im obigen Bild ist das gemeinsame Erlebnis der Greenscreen. Basierend auf dem Kontext der App oder Aktivität empfiehlt Apple drei Möglichkeiten, die App unter Berücksichtigung gemeinsam genutzter Benutzer zu erstellen.

Offensichtlich ist dies für Entwickler neu und wird auch für Benutzer gelten. Entwickler mussten sich beim Erstellen ihrer Apps nur um ein flaches Display in ausgewählten Größen kümmern. Jetzt müssen sie berücksichtigen, wie sich Menschen bei einem virtuellen Erlebnis mit den Apps „versammeln“ könnten.

Ehrlich gesagt denke ich jedoch, dass die meisten Vision Pro-Besitzer das Gerät am Ende viel häufiger alleine nutzen werden als mit anderen über SharePlay. Das ist eindeutig ein Nachteil dieses Computerparadigmas, da wir bei der Nutzung von Apps und dem Internet immer isolierter werden. Seltsamerweise sollte das Internet uns in gewisser Weise einander näher bringen, zumindest theoretisch.

Hier scheint es keinen Mittelweg zu geben. Die Leute denken entweder, dass dieses Headset entweder ein großer Erfolg wird oder größer ausfällt als der erste Apple HomePod. Wenn Sie nur dieses Gerät der ersten Generation beurteilen, dann vermissen Sie meiner Meinung nach das Gesamtbild. Ich behaupte nicht, dass sich Vision Pro bei seiner Veröffentlichung im nächsten Jahr millionenfach verkaufen wird. Ich denke jedoch, dass Apple es weiter verbessern und verfeinern wird, um die Kosten Jahr für Jahr auf einen günstigeren Preis zu senken, bis eine Zahl erreicht wird, die zu seiner typischen Gewinnspanne von 35 bis 45 Prozent passt.

Obwohl ich generell von dem Produkt begeistert bin, freue ich mich mehr über die grundlegende Veränderung, die es für Personal Computing mit sich bringen kann.

Aus Smart-Home-Perspektive kann ich mir vorstellen, über Vision Pro eine intelligente Lampe zu betrachten und neben der Glühbirne Menüoptionen anzuzeigen. Vergessen Sie die Verwendung von Sprache zur Steuerung dieses Geräts, obwohl Vision Pro für die Eingabe auf Sprache angewiesen ist. Sie müssen nicht das alte physische Telefon herausziehen, um mit ein paar Klicks eine App zu öffnen und nur die Farbe der Glühbirne zu ändern. Stattdessen konnte ich virtuell Weißtemperaturoptionen und eine RGB-Farbpalette vor meinem Gesicht schweben sehen. Es genügt ein Blick und eine Fingerbewegung, um genau die Glühbirnenfarbe und den gewünschten Farbton zu erhalten.

Natürlich kann ich in Zukunft „mit der Stimme tippen“, genau wie ich es mit Siri kann (und das auch sehr oft tue). Apple hat eine virtuelle Tastatur vorgestellt, aber ohne haptisches oder sonstiges Feedback, ich bin kein Fan. Ich verwende also einfach eine herkömmliche Tastatur und profitiere dank Apples neuer Spatial-Computing-Plattform sogar von der virtuellen automatischen Vervollständigung.

Trotz meiner Begeisterung für das nächste große Ding im Bereich Personal Computing werde ich mir nicht mein eigenes Apple Vision Pro kaufen. Es ist für mein Budget einfach unerschwinglich, und ich bin mir sicher, dass es für viele andere auch so ist. Stattdessen warte ich bis zu einem Modell der zweiten oder dritten Generation mit einem Zielpreis von 1.999 US-Dollar. Nun, das ist mein Ziel; Ich habe keine Ahnung, wie Apple zukünftige Versionen bepreisen wird. Und hey, es besteht immer die Möglichkeit, dass diese „Pro“-Edition für den Rest von uns als günstigeres, leicht abgespecktes Modell erscheint! Hier ist Hoffnung.

Möchten Sie die neuesten IoT-Nachrichten und -Analysen erhalten? Erhalten Sie jeden Freitag meinen Newsletter in Ihrem Posteingang.

Abgelegt unter: Analyse, Hervorgehoben Markiert mit: Apple, AR, Augmented Reality, iOS, iPadOS, IR-Sensoren, LIDAR, Meta, Oculus, Sensoren, Smart Home, Spatial Computing, Virtual Reality, VisionOS

Geben Sie Ihre E-Mail-Adresse ein, um Benachrichtigungen über neue Beiträge per E-Mail zu erhalten.

E-Mail-Adresse

Abonnieren