Googleは、携帯電話向けに事前トレーニングしたコンピュータビジョンモデルをTensorflow Githubリポジトリにリリースした。
パラメータ数、1画像を処理するための計算、精度が異なる複数のモデルが用意されている。最小のモデルは1400万の「MAC(積和演算)」を含み、最大のモデルは5億6900万のMACを含む。画像のクラスを予測するのに必要な計算が増えれば増えるほど、携帯電話の消費電力は増加する。開発者は自分のアプリケーションに合わせて、精度と消費電力をトレードオフすることができる。Googleのブログには、モデルの性能とフットプリントが掲載されている。
オンライン処理サービス(Cloud APIなど)に画像をアップロードするよりも、スマートフォン本体で画像を処理する方が高速だ。また、スマートフォンからデータを出す必要がなく、ユーザーのプライバシーも保証される。モデルはオープンソース化されており、開発者はモデルを直接ダウンロードするか、ニーズに合わせて変更することができる。
リリースされたモデルは予測のための計算量は少ないが、多くのモデルの精度は他のニューラルネットワークの性能に匹敵する。なぜMobileNetsは効率が良いのかについて、今年初めに科学論文に掲載された。
・/p>p
モデルの精度はLSVRCデータセット: 大規模画像認識データセットによるものだ。MobileNetは1つの画像に対して5つのラベルを予測する。Top-1 Accuracyは、最初に予測したラベルが実際の画像のラベルである割合を示している。Top-5 Accuracyは、ネットワークが予測した上位5つに画像のラベルが含まれている割合を示している。
モデルを使いたい開発者は、Tensorflow Mobileのページにアクセスしよう。Tensorflow-Slim画像分類ライブラリに関する詳細はGithubにある。
Rate this Article
- Editor Review
- Chief Editor Action