Apple setzt auf direkte Manipulation
Apple Vision Pro: So funktionieren Tastatur und die sechs Handgesten
Apple ist in der WWDC Video-Session #10073 („Design for spatial input“) genauer auf die Eingabeoptionen eingegangen, die Nutzern der Virtual-Reality-Brille Apple Vision Pro zur Verfügung stehen werden.
Apple setzt auf direkte Manipulation
Unter anderem werden diese eine vollwertige Bildschirm-Tastatur mit beiden Händen nutzen können und sollen sich auch in anderen Bereichen des neuen Betriebssystems auf den so genannten „direct touch“ verlassen können, also auf die direkte Manipulation von Bildschirminhalten mit den Fingern.
Auf Webseiten etwa soll sich mit einer herkömmlichen Wischgeste nach oben oder unten scrollen lassen, Links, Tasten und Regler können intuitiv berührt, aktiviert und bewegt werden.
Um Tastatureingaben so natürlich wir möglich wirken zu lassen, nutzt Apple nicht nur akustisches Feedback, sondern animiert die Tasten auch mit einem leichten Glanz, sobald die eigenen Finger über den entsprechenden Tasten schweben.
Dreidimensionale Effekte sorgen dann dafür, dass Anwender den Tastendruck zumindest optisch nachvollziehen können. Apple verspricht, dass Nutzer eine Responsivität wie von einer regulären Hardware-Tastatur erwarten sollen.
Sechs Handgesten verfügbar
Was die Manipulation von Objekten im Sichtfeld der Mixed-Reality-Brille angeht, bietet Apple den Nutzern der Apple Vision Pro sechs unterschiedliche Handgesten an: Den Tap, den Doppel-Tap, Greifen und Halten, Greifen und Ziehen, Zoomen und Rotieren.
Die Gesten selbst lassen sich dabei überall im Sichtfeld der Apple Vision Pro ausführen, auch mit ganz entspannten Händen, die etwa im Schoß abgelegt wurde. Sobald die Kameras der Apple Vision Pro die Hände erfassen, was außer hinter dem Rücken nahezu überall der Fall ist, werden Eingabegesten wie Scrollbefehle auch entsprechend ausgewertet, ohne das die virtuelle Webseite dafür im Raum „berührt“ werden muss.