Apple hat in den letzten Jahren an Augmented Reality gearbeitet. In diesem Jahr hat Apple auf der WWDC18 seine neueste Version des AR-Frameworks veröffentlicht: ARKit 2. Das diesjährige Release ist voll mit neuen Funktionen. In diesem Artikel Wir werden sehen, was in ARKit 2 neu ist.
Bevor wir in die Änderungen eintauchen, nehmen wir uns einen Moment Zeit, um zu überprüfen, was ARKit eigentlich ist. ARKit ist ein Framework, mit dem Entwickler immersive Augmented Reality-Apps für iOS-Geräte erstellen können. Mit diesem Framework benötigen Entwickler keine teure Hardware mehr für realistische AR, sondern nur die eingebaute Kamera ihres iOS-Geräts.
Da ARKit nur die integrierte Kamera und die Sensoren Ihres iOS-Geräts verwendet, ist eine hochentwickelte Software erforderlich, um virtuelle Objekte in der Szene lebendig erscheinen zu lassen. Es verwendet die Erkennung horizontaler Ebenen, Feature-Punkte und Lichtschätzung, um virtuellen Objekten realistische Eigenschaften zu verleihen.
ARKit wurde von Apple entwickelt, daher läuft es natürlich auf ihren Geräten - genauer gesagt auf iOS-Geräten. Diese mobilen Geräte enthalten bestimmte Sensoren, die ARKit bei der Platzierung von Objekten in der realen Welt voll ausnutzt. Ein eingebauter Beschleunigungsmesser und eine Kamera befinden sich auf iOS-Geräten. ARKit verwendet eine Kombination dieser beiden Komponenten für Augmented Reality.
Der Sitzungsstatus auf einer Weltkarte umfasst das Bewusstsein von ARKit für den physischen Raum, in den der Benutzer das Gerät bewegt (in dem ARKit die Position und Ausrichtung des Geräts bestimmt) sowie über alle der Sitzung hinzugefügten ARAnchor-Objekte (die erkannte reale World-Features oder virtuelle Inhalte, die von Ihrer App platziert werden). -Apple Dokumentation
Laut der Definition von Apple umfasst eine Weltkarte Anker, Objekte und andere Funktionen, mit denen ARKit den Raum um den Benutzer herum kennt. In der aktuellen Version von ARKit werden diese Karten zu Beginn der Sitzung erstellt und am Ende entfernt.
ARKit 2 bietet die Möglichkeit, diese Weltkarten zu behalten, wodurch die Möglichkeit geschaffen wird, diese Erfahrungen mit anderen zu teilen oder sie zur späteren Verwendung in derselben Anwendung zu speichern.
Anhaltende Weltkarten bedeuten, dass Sie den Fortschritt der Benutzer beibehalten können und dem Benutzer ermöglichen, schnell wieder dort zu beginnen, wo er aufgehört hat. Dies eröffnet Möglichkeiten wie Blockbuilding-Spiele, bei denen der Benutzer das Spiel in einer Reihe von Schritten oder Stufen durchführt und nicht nur in einer Sitzung.
Mit der Möglichkeit, Weltkarten zu speichern und gemeinsam zu nutzen, können zwei Geräte dieselbe Weltkarte verfolgen, wodurch Multi-User-Gaming und andere Augmented Reality-Erlebnisse gemeinsam genutzt werden können. Sie können zum Beispiel ein virtuelles Tower-Smash-Spiel mit mehreren Geräten spielen.
Umgebungstexturen sind Cube-Map-Texturen, die die Ansicht in alle Richtungen von einem bestimmten Punkt in einer Szene aus darstellen. Beim 3D-Asset-Rendering bilden Umgebungstexturen die Grundlage für bildbasierte Beleuchtungsalgorithmen, bei denen Oberflächen das Licht aus ihrer Umgebung realistisch reflektieren können. ARKit kann während einer AR-Sitzung mit Kamerabildern Umgebungstexturen erzeugen, sodass SceneKit oder eine benutzerdefinierte Rendering-Engine realistische bildbasierte Beleuchtung für virtuelle Objekte in Ihrer AR-Umgebung bieten können. -Apple Dokumentation
Bei der Verwendung von Augmented Reality ist es wichtig, dass Objekte in die Umgebung eingefügt werden. In der ersten Version von ARKit wurde versucht, das virtuelle Objekt mit Funktionen wie Umgebungslichterkennung "in die Szene" einzupassen.
Mit ARKit 2 können Objekte die umgebenden Texturen widerspiegeln. Wenn zum Beispiel ein glänzender virtueller Ball neben einem Obstteller platziert wird, können Sie die Reflexion dieser Frucht auf dem Ball sehen. Die Beleuchtung virtueller Objekte wird nicht mehr inszeniert, sondern ist bildbasiert.
Eine Möglichkeit, überzeugende AR-Erfahrungen zu erstellen, besteht darin, Funktionen der Benutzerumgebung zu erkennen und sie zu verwenden, um das Auftreten von virtuellem Inhalt auszulösen. Beispielsweise kann eine Museums-App interaktive 3D-Visualisierungen hinzufügen, wenn der Benutzer sein Gerät auf eine angezeigte Skulptur oder ein Artefakt richtet.-Apple-Dokumentation
Dreidimensionale Objekte sind das Herzstück von ARKit, nicht wahr? Die neueste Version dieses Frameworks bringt etwas mit sich, was zuvor nicht möglich war: die Fähigkeit, diese Objekte zu scannen und zu erkennen.
Mit ARKit 2 können Museen oder ähnliche Organisationen ihre Exponate "scannen" und Informationstafeln über der Statue anzeigen lassen. Dadurch können Sie wertvollen Speicherplatz sparen, indem Sie physische Infotafeln überflüssig machen und Informationen schnell aktualisieren.
Actionfigur-Enthusiasten können ihre Sammlung scannen, um Informationen einzugeben oder ihre Actionfiguren zum Leben erwecken. Auf der WWDC18 haben wir die LEGO App gesehen, die LEGO Sets zum Leben erweckt und Multiplayer-Erlebnisse ermöglicht.
Eine Gesichtsverfolgungskonfiguration erkennt das Gesicht des Benutzers im Hinblick auf die Frontkamera des Geräts. Wenn Sie diese Konfiguration ausführen, erkennt eine AR-Sitzung das Gesicht des Benutzers (sofern auf dem nach vorne gerichteten Kamerabild sichtbar) und fügt der Ankerliste ein ARFaceAnchor-Objekt hinzu, das das Gesicht darstellt. Jeder Gesichtsanker liefert Informationen zur Position und Ausrichtung des Gesichts, zu seiner Topologie und zu Funktionen, die Gesichtsausdrücke beschreiben.-Apple-Dokumentation
Mit der Einführung des iPhone X haben wir Face ID und Animoji zum ersten Mal auf iOS-Plattformen gesehen. Während der WWDC18 hat Apple dies erweitert und eine einfachere Version der Gesichtserkennung nur mit der Kamera hinzugefügt (Face ID verwendet einen IR-Punkt) Projektor auch).
In ARKit 2 können die Position des Gesichts im Raum, die Form und der Gesichtsausdruck bestimmt werden. Diese Informationen können verwendet werden, um "Smart-Filter" oder andere Apps zu erstellen, die das Gesicht nutzen.
Apple führt das neue offene Dateiformat usdz ein, das für die Freigabe von Apps wie Messages, Safari, Mail, Files und News optimiert ist und leistungsstarke Grafik- und Animationsfunktionen enthält. Mit usdz ermöglicht Quick Look for AR den Benutzern außerdem das Platzieren von 3D-Objekten in der realen Welt, um zu sehen, wie etwas in einem Raum funktionieren würde.-Apple-Dokumentation
In Zusammenarbeit mit Pixar hat Apple in ARKit 2 ein brandneues Dateiformat für 3D-Objekte eingeführt. Dadurch können diese virtuellen Objekte in einem einzigen offenen, kompakten Format mit anderen geteilt und sogar in Webseiten eingebettet werden.
In Websites, Textnachrichten oder E-Mails können USDZ-Dateien gemeinsam genutzt und sofort in die reale Welt eingefügt werden, um 3D-Objekte mit dem "Quick-Look" -Button in iOS 12 anzuzeigen und abzutasten.
Diese USDZ-Dateien können mit beliebter Software wie der Creative Cloud von Adobe, Autodesk und Sketchfab problemlos erstellt werden. Diese Unternehmen haben während des WWDC18 die Verwendung ihrer Software mit diesem neuen Dateiformat eingeführt.
Wie Sie sehen, hat Apple einige Verbesserungen am ARKit-Framework vorgenommen, sowohl unter der Haube als auch unter den Endbenutzerfunktionen, die Entwickler und Benutzer gleichermaßen genießen können.
Bleiben Sie auf dem Laufenden zu Envato Tuts +, um mehr über diese Themen zu erfahren. Überprüfen Sie in der Zwischenzeit die Dokumentationslinks für die in diesen Artikeln genannten Funktionen und probieren Sie sie selbst aus!