AppleはiOS 14の最初の公開バージョンをリリースした。App Clipやウィジェット、Swift UIの改善、ARKitなど、新機能が目白押しだ。一方で、iOSとXcode GMバージョンを受け取った開発者には、わずか24時間の猶予しかなかったことから、一部で不満の声が上がっている。
iOS 14では多数の既存フレームワークが改良された他、アプリとの対話方法を変えるとAppleが言う、App ClipとWidgetKitという2つの新たなフレームワークが含まれている。
App Clipは、さまざまな場面で使用可能なアプリ軽量バージョンで、SafariやMapsといったアプリの他、QRコードやNFCタグの利用も可能である。App Clipは最新のアプリケーションエクスペリエンスを提供すると同時に、インストールやローンチが高速で、ほとんどオペレーティングシステムのエクステンションのように見える。さらにApp Clipは、ホームスクリーンには表示されず、一定時間動作しなければ自動的に削除される。ユーザはいつでも、App Clipからアプリのフルバージョンをインストールすることが可能で、そうすれば、以降はApp Clipは使用されなくなる。
WidgetKitは、それをサポートするアプリとOSとをより強固に統合するものだ。WidgetKitを使用するアプリは、コンテンツをiOSのホームスクリーンやmacOS Notification Centerに直接表示することが可能になる。Widgetは常時更新の機能を持ち、ユーザをアプリ内の適切な場所にリダイレクトした上で、コンテンツに対するインタラクションを継続することができる。3つのサイズが用意されており、表示位置は完全にカスタマイズ可能だ。Widgetを実装するには、アプリにWidgetエクステンションを追加した上で、コンテンツの表示にSwift UIを使用する必要がある。
iOS 14では、SwiftのApple cross-platform interface toolkitにも多くの改良が加えられている。SwiftUIは宣言型ユーザインターフェースの開発が可能だが、最新バージョンにはプログレスバーやテキストエディタ、さらには新しいグリッドレイアウトとアウトラインレイアウトなど、組み込みビューが追加されている。Xcode 12を使えばSwift UIを使用してアプリUI全体を開発することが可能だが、この新しいテクノロジを全面的に採用するのは時期尚早だ、とPeter Steinberger氏は述べている。
ここ数年のiOSリリースの恒例として、iOS 14でも仮想現実機能やマシンラーニングに関する機能が改善されている。ARKit 4には、ARモデルを特定の物理的ロケーションに固定するLocation Anchorと、より正確な距離と計測を行うDepth APIが新たに追加された。最新のCore MLイテレーションでは、CloudKitを使ってデプロイしたモデルのアップデートが容易になるとともに、暗号化がサポートされている。さらに、PyTorchモデルを直接Core MLにコンバートすることが可能になった。最後に、Vision Frameworkには、画像やビデオの手や体のポーズの推定、輪郭検出、フレーム間の動作パターンを定義するオプティカルフローなど、スポーツ分析アプリのための機能がいくつか導入されている。
Appleは今週初めにiOS 14の公式リリースを発表し、24時間前に通知した。この発表は開発者を驚かせ、リリースに間に合わせるため、アプリを急いで提出するように強いることになった。Appleは数か月前にiOS 14の最初のベータ版を提供しており、開発者がアプリをアップデートする時間が十分にあったことは事実だが、アプリを提出してレビューを待つ実際のプロセスの実施に加えて、OSとXcodeの最新版をともにダウンロードするということが、多くの開発者にフラストレーションを感じさせたのも事実だ。