Das kann iOS 11
iPhone und iPad werden schlauer
Dass Spiele einen eigenen Hauptpunkt erhalten und bald sogar neue In-App-Käufe als eigener Punkt in der "Heute"-Ansicht auftauchen, ist sicherlich wirtschaftlichen Gegebenheiten zu verdanken. Denn Free-to-Play-Spiele mit In-App-Käufen sind inzwischen ein Milliardengeschäft.
Den bei der WWDC anwesenden Entwicklern verspricht Apple besseren Service in Form von schnelleren Freigaben von Updates und sogar schubweisen Auslieferungen von Releases, sodass nicht alle Nutzer zur gleichen Zeit ein Update erhalten, sondern erst nach und nach.
Augmented Reality mit dem iPhone und iPad
Jedes iPhone ab dem iPhone 5S und jedes iPad ab dem iPad Air soll in Zukunft Augmented Reality unterstützen. Damit wäre iOS auf einen Schlag die mit Abstand größte Plattform für augmentierte Anwendungen, so Apple. In der Demo zeigt das Unternehmen, wie Tischoberflächen lebendig werden und interaktive Welten entstehen, die sich manipulieren und aus verschiedenen Blickwinkeln betrachten lassen, die Technologie ist seit kurzem patentiert.
Apple ist nicht das erste Unternehmen, das AR und SmartphonesSmartphones zusammenbringt. Und doch überrascht dieser Vorstoß. Denn iPhone und iPad haben keine AR-spezifische Hardware. Alleine mit der Kamera, Lage- und Bewegungssensoren und den zugehörigen Koprozessoren sollen die Geräte virtuelle Objekte im echten Raum darstellen und deren Position präzise tracken können. Die Demos bei Apples Keynote sehen vielversprechend aus. Alles zu Smartphones auf CIO.de
Echtes Augmented Reality ohne 3D-Sensoren?
Doch bleiben hierbei einige Fragen offen. Denn die AR-Demos zeigen jeweils Objekte und Welten, die auf eine plane Oberfläche projiziert werden. Einen Tisch beispielsweise. iPhone und iPad zeigen hier, wie diese Oberflächen virtuell augmentiert werden. Das Tracking der Bewegungen des Gerätes funktioniert hierbei offensichtlich gut. Was Apple jedoch nicht zeigt: können die Geräte auch komplexere Augmentierungen berechnen? Denn iPhone und iPad fehlen Sensoren, die Tiefe oder Entfernungen zu einem Objekt im Raum erfassen können. Diese Tiefeninformationen sind wichtig, um einen Raum tatsächlich in 3D scannen und berechnen zu können. Anwendungen wie die 3D-Vermessung von Räumen oder das Erkennen von Strukturen wird mit der reinen Softwarelösung schwierig.