InfoQ ホームページ Neural-Networks に関するすべてのコンテンツ
-
Facebook、プログラム言語間のコード変換を行うTransCode AIを発表
Facebook AI Researchは、教師なし(unsupervised)ディープラーニングを使用して、プログラミング言語のコードを別のプログラミング言語に変換するシステムであるTransCoderを発表した。TransCoderは280万以上のオープンソースプロジェクトを使用してトレーニングされており、ルールベースの手法を用いた既存のコード変換システムを能力的に凌駕する。
-
最新のNLPシステムを欺くMIT CSAILのTextFoolerフレームワーク
MIT Computer Science & Artiftial Intelligence Lab(CSAIL)の研究者チームが先頃、最先端のNLPモデル(BERTなど)を騙して誤った推論をさせることの可能な、TextFoolerというフレームワークをリリースした。
-
Googleが効率的ディープラーニングモデルのReformerをオープンソース化
Google AI研究者チームは先頃、Transformerディープラーニングモデルの効率改善バージョンであるReformerをオープンソースとして公開した。アテンション(attention)の計算にハッシュ技術を使用し、Reversible Residual Layer(可逆的残差レイヤ)を採用することにより、Reformerは、100万ワードのテキストシーケンスを16GBのメモリと単一のGPUアクセラレータのみで処理することが可能である。
-
IoTのためのディープラーニングモデルサイズを減らす技術を研究員たちが開発
Arm LimitedとPrinceton Universityの研究員たちが、わずか2KBのRAMで、IoT(internet-of-things)ハードウェアシステムのためのディープラーニングコンピュータビジョンモデルを生成する技術を開発した。ベイズ最適化とネットワークプルーニングを使って、このチームは最新の精度を保ちながら、画像認識モデルのサイズを減らすことができる。
-
Apple、エッジにフォーカスしたAIスタートアップXnor.aiを買収
Appleは、エッジデバイス上で実行するAIモデルを構築するスタートアップXnor.aiをおよそ2億ドルで買収した。
-
ディープラーニングフレームワークのSINGAがApacheトップレベルプロジェクトに昇格
Apache Software Foundation(ASF)は先頃、分散ディープラーニングフレームワークのSINGAが、プロジェクトの成熟性と安定性の向上によってトップレベルプロジェクト(TLP)に到達したと発表した。SSINGAは銀行や医療など、いくつかの分野の企業で既に採用されている。
-
Googleが概念ベクトルを使用した画像検索を研究
Googleは先頃、医��画像の検索を目的とした、Similar Medical Images Like Yours(SMILY)と呼ばれるツールの開発に関する研究論文を発表した。この研究では、画像検索に埋め込み(embeddings)を使用することで、概念のインタラクティブな洗練(refinement)を通じた、ユーザによる検索への関与が可能になる。
-
GoogleがTensorFlow Lite向けにトレーニング後の整数量子化をリリース
Googleは、モデルのサイズと推論の待機時間を削減するTensorFlow Liteディープラーニングフレームワーク向けの新しいツールを発表した。このツールは、トレーニング済みモデルの重みを浮動小数点表現から8ビット符号付き整数に変換する。これにより、モデルのメモリ要件が低減され、浮動小数点アクセラレーターを必要とせず、そして、モデルの品質を犠牲にすることなく、モデルをハードウェアで実行できる。
-
Googleが深度認識のトレーニングにマネキンチャレンジのビデオを使用
Google AI Researchは、2次元画像から奥行きを知覚する研究を解説した論文を発表した 。マネキンチャレンジのYouTubeビデオから作成したトレーニング用データセットを使って、研究者たちは、移動するカメラで撮影した動く人々のビデオから深度情報を再構築することのできる、ニューラルネットワークをトレーニングした。
-
Xipeng Shen博士によるディープラーニングのトレーニング時間を短縮する新技術
ノースカロライナ州立大学の研究者らが先日の35th IEEE International Conference on Data Engineering (ICDE 2019)で、ディープニューラルネットワークのトレーニング時間を最大69%短縮可能な新手法について論���を発表した。
-
PyTorch 1.1がリリース -パフォーマンスを改善し、新たなAPIとツールを提供
Facebook AI ResearchがPyTorch 1.1のリリースを発表した。このオープンソースのディープラーニングフレームワークの最新版では、分散トレーニング、新API、TensorBoardのネイティブサポートを含む新たな視覚化ツール、などによってパフォーマンスが向上している。
-
TensorFlow.jsマシンラーニングライブラリを使って、Chrome Dinosaur Gameのプレー方法をコンピュータに教える
単純だが面白く、マシンラーニングの教育目的に適したアプリケーションが、先日、FritzのHeartBeat Mediumで公開された。ブラウザ内でGoogleのTensorFlow.jsマシンラーニングライブラリを活用して、Chrome Dinosaur Gameのプレー方法をコンピュータに教える、というものだ。
-
OpenAIはより長いシーケンスのディープラーニングのためのSparse Transformersを発表
OpenAIは、テキスト、音声、画像などの一連のデータを学習するためのディープニューラルネットワークアーキテクチャであるSparse Transformerを開発した。ネットワークは、より短いトレーニング時間で、いくつかのディープラーニングタスクにおいて最先端のパフォーマンスを達成できる。
-
大規模ディープラーニングモデルの迅速なトレーニングのためにGoogleがオープンソースとして提供するGPipeライブラリ
Google AIは、大規模なディープラーニングモデルのトレーニングを迅速化するためのTensorFlowライブラリであるGPipeをオープンソース化している。
-
Facebook,仮想現実でよりリアルなイメージを実現するDeepFocusをオープンソース公開
先日のブログ記事でFacebookは、近くのオブジェクトへのフォーカスを改善するためにAIを使用したフレームワークのDeepFocusを、オープンソースとして公開すると発表した。このテクノロジによって,まさに映画を見ているように、近接するオブジェクトをフォーカス内に、遠方のオブジェクトをフォーカス外にすることが可能になる。DeepFocusは、エンドツーエンドの畳み込みニューラルネットワークを活用して、正確な網膜ぼけ(retinal blur)をほぼリアルタイムに生成する。