Als ich auf der Game Developers Conference Europe mit Jeremy Kletzkine von PrimeSense sprach, stand eine Umsetzung der Anwendungsgebiete der Tiefenkameras auf iOS noch aus. Es hinge alles von Apple ab, viel könne man hierzu nicht sagen, sei aber optimistisch. Auf Android lief zu dieser Zeit bereits eine Demo mit der kleinsten Version der Sensorik, die auch im Kinect tätig ist. Was kann man überhaupt mit dem ganzen PrimeSense-Krempel anstellen und wieso ist das interessant für Apple?
Eines vorab: Auch wenn einige News-Outlets Gegenteiliges berichteten: Der Deal ist noch nicht beschlossen. Apple liebäugelt mit der Übernahme von PrimeSense, ist angeblich in fortgeschrittenen Verhandlungen mit hoher Wahrscheinlichkeit eines Abschlusses, hat aber noch keine Unterschrift unter den geschätzten Betrag von etwa 345 Millionen US-Dollar gesetzt. Nach wie vor ist PrimeSense der führende Anbieter in 3D Sensing Technologie.
Meine Empfehlungen für dich
Die 4-Stunden-Woche - Mehr Zeit, mehr Geld, mehr Leben | Der Welt-Besteller für eine geniale Work-Life-Balance, ortsunabhängiges Arbeiten und ein fantastisches Leben.
Bestes iPhone Leder-Case - Eleganter kannst du dein iPhone nicht gegen Schmutz und Kratzer schützen. Das 2in1 Leder-Case von Solo Pelle ist abnehmbar, kommt mit Kartenfächern daher und sieht einfach nur mega aus.
Mein liebster Arbeitsstuhl - Ohne den Swopper Air hätte ich sicherlich mehr Rückenschmerzen. Er fördert trotz Sitzposition eine bewegliche Wirbelsäule und hält mich beim Arbeiten aktiv. Das ist ein riesiger Vorteil zum stink normalen Bürostuhl.
PrimeSense ist der Hauptsponsor vom OpenNI-Projekt, einer Multiplattformlösung für 3D-Sensing, also der Erkennung von räumlichen Eigenschaften und Bewegungen im Zusammenspiel mit einer Tiefenkamera und - im Falle des Capri Prototypen - einer herkömmlichen Tablet-Kamera wie im Nexus 10. Letztere dient beispielsweise für Augmented Reality oder Fotografie, da die Tiefenkamera nur monochrome und für 3D-Sensing zweckmäßige Bilder liefert. Ohne Hardware wäre OpenNI nur ein tolles Open Source Projekt, die Hardware kommt also beispielsweise von PrimeSense und anderen Herstellern.
Damit ein Gadget wie das Microsoft Kinect oder der Capri Sensor funktioniert, braucht es also speziell präparierte Bildinformationen zur Berechnung der Tiefe. In Summe liefern dann Soft- und Hardware den nötigen Input um beispielsweise Spiele zugänglich für Gestensteuerung oder Augmented Reality zu machen. Die Tiefenerkennung ist eher als 2,5D als 3D zu beschreiben, wenn man es genau nimmt. Denn um die Ecke schauen kann der Sensor nicht, er nimmt nur die zweidimensionalen Koordinaten zuzüglich der errechneten Tiefenwerte auf. Bei bewegten Aufnahmen könnte man aber beispielsweise ein grobes 3D-Modell von einem Gesicht inklusive Textur generieren.
Anschauliche Beispiele für die unterschiedlichen Anwendungszwecke könnt ihr im Video-Interview mit Jeremy sehen (englisch):
Apple wird mit hoher Wahrscheinlichkeit ein Interesse an der Technologie für den mobilen Einsatz oder sogar für die reiferen Desktop- und Notebook-Lösungen gefunden haben. Da Augmented Reality (also die Erweiterung der echten Welt mit Echtzeit-3D-Grafik oder anderweitigen Zusatzdarstellungen) noch eine sehr wackelige angelegenheit ist, glaube ich weniger an dieses Use Case. Vielmehr könnte die bereits recht gut funktionierende Gestensteuerung - seit Kinect 1.0 hat sich viel getan - ihren Weg in Konsumentenprodukte finden.
Aber auch die zusätzliche Ladung Tiefeninformation kann beispielsweise aus Fotos nochmals ganz andere Kunstwerke herauslocken: Im Bereich des 3D-Renderings ist die Verwendung von Tiefeninformationen zum Maskieren (sprich: begrenzen) von Effekten wie Weichzeichnern oder diversen Filtern recht üblich.
Selbst so banale Dinge wie verlässliche Distanzmessung per Smartphone-Kamera wären eine interessante Dreingabe, die sich neben Touch ID zu den Zusatzfeatures gesellen könnte, die bei der Konkurrenz nicht in dieser Form existieren. Gaming ist zwar die Wurzel der Kinect und OpenNI-Ideen, die Anwendungen sind aber schier unbegrenzt.
Dabei besteht natürlich die Frage: Wenn man eine Tiefenkamera in ein iPad oder iPhone integrieren würde - welche Seite wäre wichtiger? Auf den Nutzer gerichtete Tiefenkameras helfen beispielsweise beim Tracking des Gesichts und beim Erfassen von Gesten in der Luft. Rückseitig angebrachte Tiefenkameras (wie der Capri Prototyp auf dem Nexus 10) erfassen die meiste Zeit über die Umgebung, wären also für Fotografie und Augmented Reality oder 3D-Scanning interessant. Wenn irgendjemand diese Technologie mit einem hohen Grad an Politur einbringen könnte, dann wohl Apple.
Als letzte Vermutung müsste man wohl erwähnen, dass Apple auch massenhaft Konzepte und Ideen für immer schlummern lässt. Vielleicht wurde PrimeSense auch mit dem Motiv übernommen, die Android-Anwendungen rechtzeitig aus dem Verkehr zu ziehen? Wofür würdet ihr eine solche "3D-Kamera" (oder eher 2.5D-Kamera) im iPad nutzen?
Noch kein Fan? Folge WEBLOGIT auf Facebook oder Twitter, um nichts zu verpassen! ↵