InfoQ ホームページ TensorFlow に関するすべてのコンテンツ
-
TensorFlow DTensor:分散ディープネットワークトレーニング向けの統合API
最近リリースされたTensorFlow v2.9では、モデル、データ、スペースパラレル(別名、空間タイル)ディープネットワークトレーニングのための新しいAPIが追加された。DTensorの目的は、シャーディング命令をモデルコードから分離することである。そのためにDTensorは、デバイス間でモデルとバッチパラメータを分割するための高レベルのユーティリティを提供する。
-
トレーニング済モデル上で高速クエリ検索インデクスをサポートするTensorFlow Similarity
Francois Chollet氏とそのチームは先頃、TensorFlow SimilarityというTensorFlow用Pythonライブラリをリリースした。類似性学習(similarity learning)とは、画像内の似通った衣類から顔写真を使用した人物識別に至るまで、類似アイテムの検出を行うプロセスである。ディープラーニングモデルでは、イメージ間の類似性学習の正確性と効率を向上させるために、対照学習(contrastive learning)と呼ばれる手法が使用される。
-
Google Techに関するプロジェクトのキュレーションコレクションであるGoogleのDev Libraryとは
Googleは、Googleテクノロジーに関連するオープンソースプロジェクトから厳選したコレクションを作成することを目的とした新しい構想を発表した。GoogleのDev Libraryには、コードリポジトリだけでなく、さまざまなインターネットソースから収集された記事、ツール、チュートリアルも含まれる。
-
GoogleがTensorFlow LiteをAndroidに統合、さらにAutomatic Acceleratorを追加
Googleは、Android ML Platformという名称で、新たなモバイルMLスタックを発表した。TensorFlow Liteを中核におくことにより、デバイス上でマシンラーニングを使用する際に生じる、さまざまな問題の解決を目指す。
-
TensorFlow 3D:自動運転車の3D知覚のためのディープラーニング
Googleは、TensorFlow 3Dをリリースした。これは、TensorFlow機械学習フレームワークに3Dディープラーニング機能を加えるライブラリである。新しいライブラリは、研究者が3Dシーン理解モデルを開発およびデプロイできるようにするツールとリソースを提供する。
-
TensorFlow 2.4がリリース、CUDA 11のサポートとAPIアップデート
TensorFlowプロジェクトは、同ディープラーニングフレームワークのバージョン2.4.0リリースを発表した。CUDA 11とNVIDIAのAmpere GPUアーキテクチャのサポートに加えて、分散トレーニングのための新たなストラテジとプロファイリングツールを備えている。その他のAPIのアップデートには、Kerasでの混合精度演算(mixed-precision)とNumPyフロントエンドが含まれる。
-
AppleのML ComputeフレームワークがTensorFlowトレーニングを加速
最近のmac OS Big Surリリースの一部として、AppleはML Computeフレームワークを組み込んでいる。ML Computeは、IntelとM1ベースのMacの両方で、CPU上とGPU上において、トレーニングを改善するために最適化された数学ライブラリを提供する。それによって、TensorFlowディープラーニングライブラリを使用してトレーニング時間を最大7倍改善する。
-
UberのオープンソースAI抽象化レイヤ、Neuropod
UberオープンソースのNeuropodは、機械学習フレームワークの抽象化レイヤであり、研究者は統合の労力を削減しながら、選択したフレームワークでモデルを構築できるため、同じプロダクションシステムで異なるフレームワークに実装されたモデルを交換できる。Neuropodは現在、TensorFlow、PyTorch、Keras、TorchScriptなどのいくつかのフレームワークをサポートしている。
-
GoogleがObject Detection APIでのTensorFlow2のサポートを発表
Googleは、TensorFlow Object Detection(OD)APIにおいてTensorFlow 2(TF2)のサポートを発表した。このリリースには、イーガーモード互換のバイナリ、2つの新しいネットワークアーキテクチャ、およびサポートされているすべてのモデルに対する事前トレーニング済みの重みが含まれている。
-
GoogleがTensorFlowモデル最適化のためのQuantization Aware Trainingをリリース
Googleは、TensorFlow Model Optimization Toolkit用のQuantization Aware Training(QAT)APIのリリースを発表した。QATは、ニューラルネットワークトレーニングプロセス中に低精度のハードウェアをシミュレートし、全体的なネットワーク損失メトリックに量子化誤差を追加する。これにより、トレーニングプロセスがトレーニング後の量子化の影響を最小限に抑えられる。
-
TensorFlow 2.3ではパイプラインのボトルネックを削減し、前処理を改善
TensorFlowプロジェクトは、バージョン2.3.0のリリースを発表した。これは、入力パイプラインのボトルネックの低減、前処理用のKerasレイヤー、メモリプロファイリングのための新しいメカニズムを備えている。
-
GoogleがTensorFlow開発者認定を導入
Googleは、ディープラーニングフレームワークであるTensorFlowの認定プログラムを開始した。認定試験はPyCharm IDEプラグインを使用して管理され、合格した受験者はGoogleのワールドワイドの認定ディレクトリにリスト化される。
-
TensorFlow Quantumが量子コンピュータと機械学習をひとつにする
TensorFlow Quantum(TFQ)は、Google量子コンピューティングフレームワークCirqとTensorFlowを組み合わせて、量子機械学習(ML)モデルの作成を可能にする。
-
GoogleがCloud AIプラットフォームパイプラインのベータ版を発表
Google Cloud Platform(GCP)は最近、オープンソーステクノロジーであるTensorFlow Extended(TFX)とKubeflow Pipelines(KFP)を活用する機械学習(ML)ワークフローを自動化および管理するための新製品であるCloud AI Platform Pipelinesのベータ版を発表した。
-
Googleが新しい高性能TensorFlowランタイムをオープンソース化
GoogleはTensorFlowランタイム(TFRT)をオープンソース化した。TFRTは、TensorFlowディープラーニングフレームワークの新しい抽象化レイヤーであり、モデルがさまざまなハードウェアプラットフォーム間でより良い推論がきるようにする。以前のランタイムと比較して、TFRTは平均推論時間を28%改善する。