Google I/OでのSundar Pichai氏の発表を受けて、GoogleのDistinguished Hardware EngineerであるNorm Jouppi氏が、TensorFlow Processing Unit (TPU) について説明した。
それによると、このASICの最適化には、特にTensorFlow (TF) を使った機械学習のための計算精度の削減が含まれており、演算ごとに必要とされるトランジスタ数が少なくて済むという。現時点でパラメータやメトリックスのパフォーマンステストは提供されていないが、最適化のおかげでチップが1秒間に処理できる演算数が増えたとGoogleは述べている。
このプロジェクトは数年前にスタートして、7年分のテクノロジーを先取りしたと述べているが、分析のためのデータはコミュニティに提供されていない。Jouppi氏は、チップのプロトタイプをテストしてからデータセンターにデプロイするまでに要したのは、たった22日であり、Googleが研究成果をいかに速く実用化するのかを示す実例だと述べている。
TensorFlowに最適化されたチップが、NvidiaのTesla P100のような一般に手に入るハードウェア、さらには機械学習サービスを提供するNervanaのようなPaaSプロバイダとどのように競合するのか、いくつか疑問がある。今回のTPUの発表は、4月のNvidiaのTesla P100リリースと関係があるのかどうか、今のところ不明だ。
Googleに対する最近の記事では、独自チップの設計と製造、そしてIntelなど業界リーダーに対する潜在的影響について取り上げられていた。Googleが望んでいるのは、機械学習で業界をリードして、そのイノベーションを顧客に提供することだ、とJouppi氏は述べているが、現時点で具体的な計画は明らかにされていない。
TPUと比較される代替チップとしては、NvidiaのP100およびTX1、そしてIBMの TrueNorthが挙げられるが、具体的な言及はなされていない。これについては数名の読者が元の投稿で指摘している。RankBrain、Street View、そして2月にLee Sedol氏を破って大きく報道されたAlphaGoのTFベースの囲碁スタックで使われるカスタムハードウェアといった社内ユースケース以外でTPUを利用できるのか、Googleは計画を明らかにしていない。
Rate this Article
- Editor Review
- Chief Editor Action