»Spatial Computing ist mehr als ein Marketingbegriff!«
Die Vision Pro ist prädestiniert für Spiele und Entertainment – aber lässt sich damit auch arbeiten? Wir haben uns mit Werner Jainek von der Stuttgarter Entwicklungsschmiede Cultured Code unterhalten, die ihren Aufgabenmanager Things für die Vision Pro umgesetzt haben.
Mac Life: Werner, wie kommt ein Unternehmen aus Stuttgart an eine Vision Pro aus Cupertino? Werner Jainek: Nachdem Apple Entwicklerinnen und Entwickler zu seinen „Vision Pro Developer Labs“eingeladen hatte, haben wir uns für einen Platz beworben. Wir sind dann im vergangenen Sommer nach München gereist, um an der Veranstaltung teilzunehmen. Hier durften wir die Vision Pro selbst ausprobieren.
Ihr konntet aber noch kein Gerät mitnehmen? Nein, uns war zunächst wichtig, unseren Prototypen von Things auf der Vision Pro auszuprobieren, den wir vorher im „Vision Pro Simulator“in Apples Entwicklungsumgebung Xcode entworfen haben. Insgesamt waren wir dafür zweimal in München.
Wie liefen die Termine ab?
Nach einer Einweisung konnten wir uns quasi den gesamten Tag mit der Vision Pro befassen. Wir haben natürlich unsere App installiert und konnten erste Erfahrungen sammeln – um etwa einzuschätzen, wie groß einzelne Bedienelemente auf der Oberfläche sein müssen, damit sie gut funktionieren. Wir haben also bereits vor Ort optimiert und entwickelt.
Mit welcher Erwartung bist du nach München gefahren?
Ich hatte große Erwartungen, aber auch viele Fragen. Ich interessiere mich schon lange für die Themen der virtuellen und erweiterten Realität und besitze eine Meta Quest sowie ein Index-vrheadset von Valve. Somit hatte ich bereits eine grobe Vorstellung davon, wie sich so ein Gerät verhält.
Apple machte schon früh klar, dass die Vision Pro nicht nur zum Spielen oder für Unterhaltung gedacht ist, sondern um produktiv damit zu arbeiten. Das hat natürlich unsere Aufmerksamkeit erregt. Und unsere Erwartungen haben sich absolut erfüllt
Was gefällt dir besonders?
Das Konzept der Wahrnehmung der Außenwelt beim Tragen der Brille. Wie erwähnt, besitze ich bereits die Quest-2-brille von Meta, aber die Vision Pro ist in dieser Hinsicht wie aus einer anderen Welt und lässt sich überhaupt nicht vergleichen. Die Displayqualität ist phänomenal und gestochen scharf, während die Pixel bei der Quest klar erkennbar sind.
Dies wird allein schon bei den virtuellen Umgebungen deutlich: Eine versetzt den Betrachtenden etwa in die Berge an einen großen See. Es nieselt leicht, und die Wassertropfen schlagen kleine Wellen. Alles ist bis ins Detail erkennbar.
Auch die Bedienung von Elementen der Nutzungsoberfläche mithilfe der Verfolgung der Augenbewegung funktioniert erstaunlich gut.
Die Einordnung der Vision Pro fällt vielen bisher nicht leicht – zum Beispiel mir. Haben wir es hier tatsächlich mit einem Aufbruch in eine neue Art der Interaktion mit Computern zu tun – oder doch nur mit einer weiteren AR-/VR-/MR-BRILLE? Apple meint es auf jeden Fall ernst – „Spatial Computing“ist also weit mehr als ein Marketingbegriff. Vielmehr steckt dieser Ansatz von Grund auf im Design dieses Produkts. Das spiegelt sich nicht zuletzt im Preis der Vision Pro wider: Denn um das Ziel eines „Spatial Computers“zu erreichen, braucht es extrem hochwertige Komponen
ten – und die kosten derzeit eben noch viel Geld. Apple akzeptiert dies.
Ich kann aus meiner eigenen Erfahrung sagen, dass sich die Vision Pro komplett anders anfühlt als andere 3-D-brillen. Die sind für Spiele durchaus nutzbar, aber bereits zum Anschauen von Filmen ist deren Auflösung viel zu schlecht. Etwa zur Darstellung von Text sind sie daher einfach nicht geeignet.
Die Qualität der Vision Pro muss daher so hoch sein, wie sie ist. Wir sind inzwischen die Retina-displays unserer iphones und Macs gewohnt; wenn nun die Vision Pro schlechter wäre, würden wir sie für produktive Aufgaben nicht nutzen.
Füll doch diesen Kunstbegriff des „Spatial Computing“bitte mit etwas Leben für uns.
Das Potenzial für Spatial Computing ist enorm. Bisher bist du bei der Arbeit mit Programmen auf die Größe deines Displays begrenzt. Die Vision Pro sprengt dieses Konzept: Du kannst also deine
Apps um dich herum platzieren. Der Webbrowser ist dann direkt vor dir, dein E-mail-programm links und deine Chats sind rechts von dir. Sich mit den Anwendungen zu umgeben, ist ein sehr interessantes und neues Erlebnis.
Das ist aber nur der Anfang. Es liegt jetzt an Apple und den Entwicklern, diese Plattform weiter voranzutreiben. Für Things können wir uns zum Beispiel das Anheften von To-dos in der Umgebung vorstellen: etwa mit Aufgaben, die ich vor dem Verlassen des Büros noch erledigen möchte. Oder des Einkaufszettels, der virtuell am Kühlschrank „klebt“. Dies funktioniert bisher nicht; aber ich schätze, es ist nur eine Frage der Zeit, bis Apple solche Funktionen nachreicht.
Entertainment-content scheint für die Vision Pro eine natürliche Wahl zu sein – Produktivitätsanwendungen zunächst weniger. War für euch trotzdem von Anfang an klar, dass ihr Things umsetzen wolltet?
»Wir sind zentral im Apple-ökosystem verankert – und fahren mit dieser Strategie sehr gut.«
Wir haben uns recht schnell dazu entschlossen. Apple setzt einen sehr starken Fokus auf die Produktivität. Schon auf der Produkt-webseite rückt Apple dies in den Vordergrund: Da sind Menschen zu sehen, die ihre E-mails und Notizen mit der Vision Pro bearbeiten. Doch auch Produktivitäts-apps hat Apple optimiert: etwa Freeform zum kreativen Brainstorming oder Keynote als Präsentationssoftware. Microsoft bringt praktisch seine gesamte Office-suite auf die Vision Pro. Produktivität ist somit eine der Hauptsäulen dieses Produkts.
Und nochmals: Apple hat nicht an der Hardware gespart, um ebendies zu ermöglichen. Da war für uns schnell klar, dass wir dabei sein wollen.
Warum habt ihr Things so früh portiert? Immerhin hättet ihr ja auch ein paar Jahre warten können, bis tatsächlich genug Menschen eine Vision Pro besitzen, sodass ein Markt entsteht.
Things ist ein Premiumprodukt. Wir sind zentral im Apple-ökosystem verankert – und fahren mit dieser Strategie sehr gut. Wir waren mit unserer Software von Tag eins an auf dem iphone, dem ipad und der Apple Watch dabei. Auch neue Funktionen der Betriebssysteme unterstützen wir immer sofort: Widgets auf dem iphone etwa oder den Stage Manager auf dem ipad. Diese schnelle Anpassung ist also eine Konstante bei uns – unsere Kundinnen und Kunden können dies erwarten, wenn sie sich für unser Produkt entscheiden.
Und in der Tat haben sich schon einige unserer Kunden eine Vision Pro zugelegt: Bereits in der ersten Woche nach der Veröffentlichung haben wir Things für visionos häufiger verkauft, als wir es erwartet haben. Wohlgemerkt: Es handelt sich um eine eigenständige App für 30 Usdollar – du bekommt sie also nicht kostenfrei dazu, wenn du Things bereits auf dem iphone, ipad oder Mac gekauft hast.
Welchen konkreten Mehrwert bietet die Visionpro-app von Things gegenüber den „traditionellen“Versionen für Mac, iphone und ipad?
Apple ermöglicht zwar generell die Nutzung von ipad-apps auf der Vision Pro. Wir haben aber schnell festgestellt, dass das nicht unser Weg für Things sein kann. So lassen sich die Fenster der ipad-version in der Größe nicht anpassen – es besteht nur die Möglichkeit des Zoomens. Die Darstellung von längeren To-do-listen in Things wäre also nicht möglich gewesen. Ich denke daher, ipad-apps werden nicht zu den beliebtesten Programmen auf der Vision Pro zählen.
Uns war es wichtig, dass sich Things für die Vision Pro denkbar gut in die Umgebung des Nutzers einpflegt. Die Seitenleiste ist etwa aus „Glas“, sodass der Hintergrund nach wie vor verschwommen sichtbar ist. Damit das Eye-tracking, also die
Bedienung der Software mit der Bewegung der Augen, gut funktioniert, müssen die Elemente eine bestimmte Größe aufweisen. So lässt sich die Suchfunktion von Things auswählen, indem die Benutzerin oder der Benutzer etwas länger auf das Suchfeld schaut: Dann startet automatisch die Diktierfunktion.
Auf all diese Dinge haben wir bei der Entwicklung viel Wert gelegt. Und sie lassen sich nur mit einer eigenständigen App für visionos umsetzen.
Wie ging die Betaphase vonstatten – immerhin dürfte es schwierig gewesen sein, Testpersonen mit einer Vision Pro zu finden …
Wir haben daher intensiv intern und in den Labs getestet. Und mittlerweile gibt es ja auch einige Beta-tester mit Geräten, die uns Rückmeldungen geben.
Wie siehst du die Zukunft der Vision Pro? Gibt es in ein paar Jahren eine Vision Pro in der Größe einer Ray-ban-sonnenbrille?
Eine solche zu Ende gedachte und entwickelte Augmented-reality-brille wäre auf jeden Fall sehr cool – die derzeitige Vision Pro bietet ja eher Virtual Reality mit Passthrough. Ich kann mir aber auch vorstellen, dass die Vision Pro in der Form, wie sie derzeit umgesetzt ist, durchaus Bestand hat – besonders, wenn sie kleiner und leichter zu gestalten ist. So ist es denkbar, dass viele Komponenten, die heute noch Bestandteil der Brille sind, in ein externes Paket wandern.
Es ist aber schwer zu sagen, wie sich die Vision Pro entwickelt und welche Anwendungen dafür entstehen. Es ist ein wenig wie bei der Präsentation des iphone: Niemand hat damals etwa Dienste wie Instagram erwarten können. Wir werden es aber alle gemeinsam erleben.
Wie geht ihr das Thema AI bei Things an? Darüber machen wir uns natürlich schon seit Längerem Gedanken. Allerdings ist uns die Privatsphäre unserer Nutzerinnen und Nutzer sehr wichtig, weshalb wir uns bei externen Lösungen – wie etwa denen von Openai (unter anderem CHATGPT, Red.) – bisher zurückgehalten haben. Die Frage lautet schließlich: Wollen wir wirklich die Daten unserer Kundinnen und Kunden übertragen?
Deshalb halten wir es für sehr interessant, dass Apple seine Betriebssysteme gerüchteweise in Richtung Künstlicher Intelligenz erweitern will. Ich erwarte, dass diese Lösungen lokal auf den jeweiligen Geräten laufen und daher keine Probleme mit der Datensicherheit entstehen.
Wobei die Vision Pro sich zum Albtraum für Datenschützende entwickeln könnte – ein Gerät, das quasi ständig Videodaten erstellt.
Daher ist es wichtig, dass wir dem Gerätehersteller vertrauen können. Das ist beim iphone nicht anders: Apple könnte seine Nutzerinnen und Nutzer theoretisch komplett tracken. Apple lebt aber vom Verkauf von Hardware – und nicht von der Auswertung und dem Verkauf von Daten.
Dasselbe gilt für die Vision Pro: Als App-entwickler kommen wir an die erhobenen Daten überhaupt nicht heran. Wo die Nutzerin oder die Nutzer beim Tragen der Brille hinschauen, ist uns etwa nicht bekannt – erst die Auswahl eines Elements, also eines Knopfes oder einer Schaltfläche, überträgt das visionos.
Apple passt also von Anfang an den richtigen Stellen auf. Persönlich habe ich daher ein großes Vertrauen, dass Apple die Daten, die die Vision Pro lokal erzeugt, nicht missbraucht.
»Unsere Erwartungen an die Vision Pro haben sich absolut erfüllt.«