先日、Apple ParkのSteve Jobs Theatreにて、ワールドワイドマーケティング担当シニアバイスプレジデントのPhilip Schiller氏が、新しく発表されたiPhone Xの顔認識システムの技術について、A11チップに組み込まれた専用ニューラルエンジンを含めて説明した。
上のように、顔認識システムは、赤外線(IR)カメラ、投光イルミネータ、フロントカメラ、ドットプロジェクタから成る、新しい "TrueDepth" カメラシステムにより実現されている。あなたがiPhone Xを注視すると、iPhone Xは投光イルミネータで顔を検出する。赤外線カメラはIR画像を撮影し、ドットプロジェクタは「3万以上の目に見えないドットを照射する。IR画像とドットパターンを使い、それらをニューラルネットワークに入れて、あなたの顔の数学モデルを作り出す。すると、その数学モデルが以前設定して格納してあるモデルとマッチするかチェックして、携帯電話のロックを解除する」。
Schiller氏は、ニューラルネットワークは、SamsungのGalaxy S8を騙した写真のような簡単な「なりすまし」を避けるように訓練されており、「こうしたFace IDを破る試みから守るために、ハリウッドのプロのマスクメーカーやメイクアップアーティストのところへ行って作業したこともある」と述べた。そして、無作為に選ばれた他人がFace IDを使ってiPhoneのロックを解除できてしまう確率は、100万分の1(Touch IDの場合は5万分の1)だと続けた。データはデバイス上のAppleのセキュア領域へ、ローカルに保存される。処理もデバイス上でローカルに行われ、ロックを解除するにはユーザーの注視が必要になる。
携帯電話自体でニューラルネットワークを処理するために、Appleは初めてニューラルエンジンをA11チップに組み込んだ。ニューラルエンジンは実際には、「特定の機械学習アルゴリズム」の処理に特化したプロセッシングコアのペアだ。これらのアルゴリズムが、Face ID、Animoji、ARアプリなど、iPhoneの様々な先進的機能を動かしている。Schiller氏によると、これらのコアは毎秒6000億の演算処理を実行できるという。
デバイス上での処理を強調するのは、Appleの機械学習に対するアプローチをよく表している。2016年に、彼らが差分プライバシーの取り組みについて語ったとき、また、今年のWWDCで、iOS 11に追加されたCoreMLライブラリを紹介したときにも目にした。携帯電話自体にAI処理専用のハードウェアを持たせることにより、Appleはデバイス外に送るデータを減らし、ユーザーのプライバシーを保護する。また、このことは、データ接続し続ける必要なしに、携帯電話がタスクを処理できることを意味している。
こうした動きはより一般的な業界でも見られ、AI処理専用のハードウェアへと向かっている。Googleはすでにデータセンター向けプロセッサの第2世代を設計しており、デバイス上での機械学習タスクをプッシュするAppleのあとを追いかけている会社もある。中国のハイテク企業であるHuaweiは、Kirin 970 システムオンチップに同様の "Neural Processing Unit" を搭載しており、通常のCPUと比べて20倍高速に画像認識などのタスクを処理できるという。Googleも、モバイルに最適化したTensorflowの新バージョン、Tensorflow Liteを発表している。
Rate this Article
- Editor Review
- Chief Editor Action