2017年8月2日水曜日

ARkitのクラス

iOS11から搭載されるARkitのクラスの情報の概要。
まあよくわからんのだけれども…。

拡張現実感(Augmented reality:AR)は、デバイスのカメラからのライブビューに2Dまたは3D要素を追加して、それらの要素を現実の世界に生息するように見せるユーザーエクスペリエンスを記述します。
ARKitは、デバイスのモーショントラッキング、カメラシーンキャプチャ、高度なシーン処理、および便利さの表示を組み合わせて、ARエクスペリエンスを構築する作業を簡素化します。

重要

ARKitには、A9以降のプロセッサを搭載したiOSデバイスが必要です。
あなたのアプリをARKitをサポートするデバイスでのみ利用できるようにするには、アプリのInfo.plistのUIRequiredDeviceCapabilitiesセクションにあるarkitキーを使用します。
拡張現実感がアプリの副機能である場合は、isSupported プロパティを使い、現在のデバイスが使用するセッション構成をサポートしているかどうかを判断します。

最初のステップ

ARSession class

拡張現実体験に必要なデバイスカメラとモーション処理を管理する共有オブジェクト。

構成(Configurations)

class ARSessionConfiguration

デバイスの向きのみを追跡する基本構成。
——デバイスの傾き(回転)に関してのみで、位置に関しての情報(デバイスを左に動かしたとかそういうこと)は扱わない。

class ARWorldTrackingSessionConfiguration

デバイスの向きと位置を追跡し、デバイスカメラが認識する実際の表面を検出する構成。
——デバイスの傾き(回転)と位置に関しての情報(デバイスを左に動かしたとかそういうこと)の双方を扱う。

標準ビュー(Standard Views)

Building a Basic AR Experience

ARセッションを設定し、SceneKitまたはSpriteKitを使用してARコンテンツを表示します。

class ARSCNView

3D SceneKitコンテンツを使用して、カメラビューを拡大するARエクスペリエンスを表示するためのビュー。

class ARSKView

2D SpriteKitコンテンツを使用して、カメラビューを拡大するARエクスペリエンスを表示するビュー。

カスタムビュー(Custom View)

Displaying an AR Experience with Metal

カメラ画像のレンダリングと位置追跡情報を使用して、オーバーレイコンテンツを表示することにより、カスタムARビューを構築します。

実世界の物体と位置(Real-World Objects and Positions)

class ARAnchor

ARシーンにオブジェクトを配置するために使用できる、実際の位置と方向。

class ARPlaneAnchor

ARセッションで検出された、実際の平面の位置と向きに関する情報。

class ARHitTestResult

ARセッションのデバイスカメラビュー内のポイントを調べることで見つかった、実際のサーフェスに関する情報。

カメラとシーンの詳細(Camera and Scene Details)

class ARFrame

ARセッションの一部としてキャプチャされた、ビデオ画像および位置追跡情報。

class ARCamera

ARセッションにおけるキャプチャされた、ビデオフレームのカメラ位置および撮像特性に関する情報。

class ARLightEstimate

ARセッション内のキャプチャされた、ビデオフレームに関連する推定シーン照明情報。

0 件のコメント:

コメントを投稿