Image Image Image Image Image Image Image Image Image Image

Google erklärt die Google Glass Nutzungserfahrung & Entwicklung

Google’s Timothy Jordan erklärt die Entwicklung von Google Glass “Experiences” oder App-Erfahrungen in einer Übersicht der sogenannten Mirror API. Letztere ist eine Schnittstelle, die Entwicklern einen schnellen und einfachen Weg zum Einbinden ihrer Inhalte in Glass Endgeräte bringen soll. Nun veröffentlichte Google den vollständigen Talk von Jordan für Entwickler auf der SXSW (South by South-West) Konferenz.

Essenziell handelt es sich bei den Glass “Erfahrungen” um Einbindungen in eine Web-App (Überraschung! Wer hätte das das von Google erwartet?), Google Glass ist im Endeffekt ein Browser, den ihr auf dem Kopf tragen könnt. Mit einem kleinen Hardware-Hack holt Timothy seine Glass-Eindrücke über einen Mac auf die Leinwand für das Publikum und zeigt uns diverse Grundkonstrukte der UI. Alle Abläufe werden in Form von Karten in äußerst reduzierter Form dargestellt und können in einer Zeitleiste durchgescrollt werden, in der sämtliche Ereignisse (auch die eigenen Aktionen, wie z.B. das Schießen eines Fotos) der nahen Vergangenheit im Speicher landen.

Das kartenbasierte Benutzerinterface

Benachrichtigungen oder “Karten” können sowohl über eine Kopfgeste, die in etwa einem prolligen Gruß mit kurzem Aufwärtsnicken entspricht, als auch über eine Swipe-Bewegung an der Seite der Brille abgehakt werden. Komplexere Konstellationen, etwa mehrere Modi einer Wetter-App, werden über Auf- und Abbwegungen durchgeschalten. Dort sind die Karten sozusagen in Untergruppen eingeteilt, die mehr Information und Interaktion erlauben – innerhalb eines Bundles mit einer eigenen ID. Entwickler können einzelne Karten auch updaten, Karten löschen lassen oder auflisten.

how 620x247 Google erklärt die Google Glass Nutzungserfahrung & Entwicklung

Die technologische Grundlage ist eine Web-App

Der Part über die API beginnt in etwa ab 16 Minuten im Video und wird mit einem supereinfachen Diagramm dargestellt. Der Anbieter baut einen Webdienst, der per HTTP(REST) von Google abgerufen und in einer Synchronisation inhaltlich an die Glass-User weitergereicht wird. Die Cloud API transportiert die Daten via JSON. Alle involvierten Standards sind frei und im Netz erlernbar. Das Rendering, also die Darstellungsprozesse, die Synchronisation und viele hardwarerelevante Details werden von Google übernommen. Der Anbieter konzentriert sich vor allem auf die Inhalte.

Karten können auch eigene Optionen haben, die vom System vordefiniert sind. Beispielsweise die Antworten-Funktion oder die Vorlesen-Funktion. Ferner können Entwickler eigene Aktionen mit eigenen Icons festlegen, die über eine Karte ausgelöst werden können. Erstere Systemoptionen lassen sich relativ einfach einfügen. Karteninhalte oder Eingaben lassen sich auf unterschiedliche Arten und Weisen teilen, Fotos und Videos können also auf beliebigen Diensten landen und sind nicht an Google-Dienste gebunden. Die externen Dienste müssen jedoch über die simplen Voraussetzungen die Google stellt eingebunden werden und erfahren dadurch vermutlich auch gewisse Limitationen. Was wir und vor allem Entwickler noch mit Google Glass anstellen könnten, wird die Zeit zeigen.

photo 620x247 Google erklärt die Google Glass Nutzungserfahrung & Entwicklung

Google Glass für Entwickler: Wichtige Designkonzepte

Jordan nennt 4 wichtige Tips, die sich als erste Best Practices beim Entwickeln für Glass herausgestellt haben. Vieles davon ist sehr intuitiv, aber ich bin mir sicher, dass einige deutsche Agenturen/Verlage wieder den “kosteneffektiven” Weg gehen und beispielsweise ihre Inhalte unüberlegt auf die Plattform portieren könnten. Ähnlich wie bei iOS und Android Apps wird es mehrere Jahre dauern, bis von diesen Entitäten überhaupt halbwegs brauchbare, systemgerechte Inhalte geliefert werden.

Etwas besorgt bin ich auch um die Probleme des Formats, das sich schwer an Notifications, sprich Benachrichtungen anlehnt. Was diese Konsumform in Kombination mit gewissen meinungsbildenden *hust* Publikationen wohl bedeuten würde? Angst, Hass, Frühdemenz und Möpse im Dauerstream? Immerhin gibt es ja noch eine Unsubscribe-Funktion und hoffentlich auch passende individuelle Limits von Google’s Seite oder in Form von Einstellungen.

Der erste Tipp von Jordan und dem Glass Team: Entwickle deine Glass-Erfahrung für Glass. Schlagzeilen statt kompletter Artikel sind beispielsweise eine wichtige Form, die mit der Reduktion des Webs durch Glass besser funktioniert. Klingt absolut idiotensicher, oder?

Zweitens soll die Glass-Erfahrung nie in den Weg kommen, sondern sich im Hintergrund halten. Der User sollte nicht zur Interaktion gezwungen sein, sonst geht die gesamte Designprämisse von Glass flöten. Informationen sollen da sein, wenn sie benötigt werden, ansonsten nicht ständig präsent sein. Die Präsenz der Anbieter soll sich logischerweise im Hintergrund halten.

Die dritte Idee: Keep it timely. Die Information soll immer zeitnah sein, in der absoluten Gegenwart hilfreich sein und keine vergangenen Themen behandeln.

Die letzte Idee behandelt Überraschungen: Der User trägt Glass als Erweiterung seiner selbst und möchte nicht ständig irgendwelche Updates über Neuerungen innerhalb eines Unternehmens oder neue Produktfeatures bekommen. Stattdessen geht es um in diesem speziellen Moment relevante Interaktion.

Technologie, die ansonsten “im Weg” stehen könnte, soll laut Google mit Glass ein wenig aus dem Rampenlicht geholt werden. Die Grundidee bringt das gesamte Internet als semi-permanenten Kopfschmuck zwar näher an den User heran, holt den User aber angeblich aus der ständigen, aufmerksamkeitsbedürftigen Smartphonewelt heraus.

modular 620x247 Google erklärt die Google Glass Nutzungserfahrung & Entwicklung

light 620x247 Google erklärt die Google Glass Nutzungserfahrung & Entwicklung

Information im Hintergrund, statt in der Hosentasche

Interaktionen mit dem Web, zum Beispiel das Teilen von momentären Bildaufnahmen oder die kurze (vielleicht auch passive) Recherche aktuell relevanter Informationen, sollen keine so große Unterbrechung im Alltagsgeschehen hervorrufen. Anstatt den User für die Technologie arbeiten zu lassen, soll das Artefakt für den Benutzer arbeiten und sein Leben unterstützen und/oder verbessern. Informationen sollen weniger intrusiv, freier von Ballast sein und die Flut reduzieren, statt sie zu steigern.

Google ist schon immer für die (versuchte) Katalogisierung, Filtration und Priorisierung von Informationen bekannt gewesen. Die absolute Gegenwart in Form von hilfreichen Netzinformationen mit vollständiger Relevanz anzureichern, scheint die letzte große Symbiose vor der endgültigen Fusion des Menschen mit dem World Wide Web zu sein, wenn man es mal aus der Perspektive des technologischen Determinismus der Netz-Nerds sieht.


Übrigens: Wenn Du keine Neuigkeiten, Produkt-Tests oder Artikel von uns verpassen willst, dann folge uns am besten auf Facebook oder Twitter.