Googleはスタンドアロンモードで動作することを目的とした新しいML Kit SDKを導入した。以前のML Kit SDKのようなFirebaseとの緊密な統合を必要としない。また、画像のラベル付けとオブジェクトの検出と追跡のために、デフォルトモデルをカスタムモデルに置き換えるための限定的なサポートも提供する。
デバイス上での機械学習にML Kitを集約させると、アプリでネットワーク遅延が発生せず、オフラインで動作するようになる。さらに、新しいML Kit SDKはすべてのデータをローカルに保持する。これは、プライバシーを保護したアプリケーションを構築するための重要な要件である。
ML Kit SDKは、ビジョンと自然言語処理をカバーする元の機能セットを保持している。ビジョン関連の機能には、バーコードスキャン、顔検出、画像ラベリング、オブジェクトの検出と追跡、テキスト認識などがある。自然言語関連の機能には、テキスト文字列からの言語識別、オンデバイス翻訳、スマートリプライなどがある。
Googleは現在、新しいアプリには新しいML Kit SDKを使用し、既存のアプリには古いクラウドベースのバージョンから移行することを推奨している。カスタムモデルのデプロイやAutoML Vision Edgeのような、古いバージョンで提供されているより高度な機能が必要な場合は、Firebase Machine Learningを使用できる。
ただし、前述のように、GoogleはML Kit SDKを拡張して、デフォルトモデルをカスタムTensorFlow Liteモデルに置き換えることをサポートできるように、最初のステップを進めている。最初は、この機能をサポートしているのは画像のラベリングとオブジェクトの検出と追跡だけだが、Googleはさらに多くのAPIを含める予定である。
新しいML Kit SDKはGoogle Playサービスを通じて利用できるようになる。つまり、アプリバイナリと一緒にパッケージ化する必要がないため、サイズが小さくなる。
最後のメモとして、ML Kit SDKには、テキストエンティティを検出して実行可能にするエンティティ抽出を提供する2つの新しいAPIが含まれる。また、33の骨格ポイントをサポートし、手足の追跡を可能にするポーズ検出が含まれる。新しいAPIは、Google早期アクセスプログラムを通じて関心のある開発者が利用できる。