Image Image Image Image

iPhone 6s „Live Photos“: Wie viel Speicher brauchen sie?

iPhone 6s „Live Photos“: Wie viel Speicher brauchen sie?

Mit der Ankündigung, dass sich beim Basismodell des iPhone 6s wieder nur alberne 16 GB an internem Speicher einfinden würden, stellen sich natürlich weitere Fragen an die Nutzung. Beispielsweise beim neuen und standardmäßig aktiven Feature für die "Live Photos", die aus jedem geschossenen Bild ein kleines Video in ultrahoher Auflösung stricken.

Wie konnte Apple ernsthaft eine 12 MP Kamera verbauen, die jedes Bild als Videoclip aufzeichnet - und dennoch bei den mickrigen Speichergrößen für Einsteiger bleiben? Bei 16 GB iPhones sind bekanntlich nur zwischen 12 und 13 GB nutzbar.

Ein "Live Photo" entspricht in etwa zwei 12 MP Fotos

Nun ja, die Auswirkung ist in der Praxis zum Glück erheblich geringer, als man vermuten würde. Ein sogenanntes "Live Photo" braucht nämlich im Schnitt nur etwa den Platz von zwei regulären Bildern, die mit der rauschärmeren und höher aufgelösten Kamera des iPhone 6s geschossen wurden.

Wie funktionieren diese "Live Photos"?

Grund dafür ist die Art und Weise, wie das iPhone (auch aktueller Generationen) Bilder schießt, so unsere Kollegen bei TechCrunch. Anders als bei einer gängigen Spiegelreflexkamera befinden sich im Puffer der iPhone-Kamera bereits Fotos, bevor ihr überhaupt den Auslöser drückt. Sobald der Nutzer meint ein Bild geschossen zu haben, selektiert das iPhone einfach das aktuellste Bild aus diesem Puffer. Deswegen ist die Auslösung subjektiv so schnell und tritt mit sofortiger Wirkung ein, weil die Bilder sowieso schon vorhanden waren.

Beim iPhone 6s wurde dieses Zeitfenster einfach ein wenig in beide Richtungen ausgeweitet, etwa anderthalb Sekunden vor und nach dem Drücken des Auslösers landen nun in der gespeicherten Datei. Die Enddatei ist kleiner, weil iOS aus den mehreren Bildern ein kleines Video rendert, das eine Art von temporal-Kompression erfährt. Das Hauptbild bleibt bestehen, während die Zusatzinfo als solche behandelt wird. Überflüssige weil doppelte oder sehr ähnliche Bild-Informationen werden dabei rausgeschmissen, was aufgrund der hohen Ähnlichkeit des Inhalts in einer Größenreduktion resultiert.

Man könnte auch sagen, dass das Hauptbild der Keyframe ist, während die Bilder davor und danach als Delta Frames benutzt werden. Auf der Apple-Website finden sich übrigens ganz normale H.264 MP4 Videos in der Sektion für die Live Photos, so wie dieses hier.

Wenn man diese Erklärung hört, klingt das zusammen mit den Infos aus der Keynote von Phil Schiller nach einer Technik, die eigentlich auch mit den älteren Modellen machbar wäre. Aber dann hätten wir natürlich weniger Anreiz auf das Upgrade, nicht wahr?


Übrigens: Wenn Du keine Neuigkeiten, Produkt-Tests oder Artikel von uns verpassen willst, dann folge uns am besten auf Facebook oder Twitter.



Hier kannst Du Deine Meinung loswerden:



← Menü öffnen weblogit.net | Home