アップルが発表したところによると、開発者は近日発売予定の複合現実感ヘッドセット「Vision Pro」用のアプリを作成するために必要なソフトウェア開発キットをダウンロードできるようになった。SDKの公開に加え、アップルは世界中の特定のラボに物理的なデバイスを提供するプログラムや、開発者がアプリをテストするためのより多くの取り組みも発表した。
空間コンピュータと呼ばれるビジョン・プロは、生産性、デザイン、ゲームなど、さまざまなタスクを遂行するためにコンピューティング・システムと相互作用する新しいパラダイムを定義することを目指している。
本日より、Appleのグローバルな開発者コミュニティは、Vision Proの無限のキャンバスを最大限に活用し、デジタルコンテンツを物理的な世界とシームレスに融合させることで、驚異的な新しい体験を可能にする、まったく新しいクラスの空間コンピューティングアプリケーションを作成できるようになります。
SDKは最新のXcode 15 beta 2に含まれており、開発者アカウントを持っている開発者なら誰でもダウンロードできる。このSDKは、物理的なデバイスにアクセスすることなくvisionOSでアプリを実行できるシミュレータを提供する。シミュレータは、周囲の空間に没入したアプリのモノスコピック・ビューを提供する。モノスコピックビューでは、両眼にまったく同じ画像が表示される。一方、ステレオスコピックビューでは、現実世界のオブジェクトと同じように、それぞれの眼がそれぞれの視点から画像を見ることになる。
シミュレーターはまた、ビジョン・プロで使用できる明確なジェスチャーを模倣する方法もサポートしている。例えば、ボタンをタップするには、そのボタンを見て焦点を合わせ、手を当ててタップする。シミュレーター上では、マウスをシングルクリックするとタップが行われ、マウスを使ってドラッグするとドラッグジェスチャーがシミュレートされる。シフトを押しながらドラッグするとビューアに向かってドラッグするジェスチャーがシミュレートされ、Optionキーを使うと両手を必要とするジェスチャーをシミュレートできる。さらに、シミュレーターのウィンドウにある一連のコントロールにより、視点を変えたり、見る角度を変えたりして、空間を移動できる。
visionOS SDKには、SwiftUI、ARKit、Reality Kitなど、iOSやmacOSのプログラミングですでに使用されている多くの有名なフレームワークのサポートが含まれている。さらにアップルは、プログラマーだけでなく、クリエイティブなアーティストのためのツールであるReality Composer Proという新しいツールも利用できるようにしている。これは、Reality composer proの構成要素であるReality composer proの構成要素であるシーン、編集、プレビューに使用できる。各シーンは、仮想オブジェクトや3Dモデルなどのエンティティの階層構造になっており、プログラミングの知識がなくても再配置が可能だ。
開発者が物理的なデバイスでアプリをテストしやすくするため、アップルはさらにいくつかの取り組みを発表した。まず第一に、アップルは開発者がアプリを持ち込める対面式のラボを開設する。現時点では、6カ所のみが予定されている。 クパチーノ、ロンドン、ミュンヘン、上海、シンガポール、東京だ。これは、開発者キットプログラムへのアクセスが制限されるため、物理的なデバイスに何らかの形でアクセスできる開発者の数を増やすことを目的としている。さらにアップルは、App Reviewを通過する際にリモート互換性評価を提供し、物理的なデバイス上でアプリがどのように見えるかのレポートを提供する。