InfoQ ホームページ Deep+Learning に関するすべてのコンテンツ
-
Ai4 2023 パネルディスカッション:ビジネスと社会における生成AI
先日開催されたAi4カンファレンスでは、"Generative AI in Business and Society (「ビジネスと社会における生成AI」)"と題したパネルディスカッションが行われた。重要なポイントは、生成AIは業務効率化と製品のパーソナライゼーションに多くの機会を提供すること、企業はプライバシーへの懸念とパーソナライゼーションのバランスを取る必要があること、そして生成AIが組織全体でどのように使用されているかを理解する必要があることである。
-
OpenAI、不正な超知能AIに対応する専門チーム「Superalignment」の結成を発表
OpenAIは、不正な超知的AIの出現を防ぐことを目的とした専門チーム「Superalignment」の結成を発表した。OpenAIは、AIシステムを人間の価値観に合わせる必要性を主張し、潜在的な危害を防ぐための事前対策の重要性を述べた。
-
Metaが手がけるオープンソースなComputer Vision基盤モデルDINOv2
Meta AI ResearchはComputer Vision(CV)タスクの基盤モデルであるDINOv2をオープンソース化した。DINOv2は142Mの画像からなるキュレーションデータセットで事前学習されており、画像分類(Image Classification)、ビデオアクション認識(Video Action Recognition)、セマンティックセグメンテーション(Semantic Segmentation)、深度推定(Depth Estimation)などのタスクのバックボーンとして使用できる。
-
Twitterがレコメンデーションアルゴリズムをオープンソース化
Twitterは最近、ユーザーのTwitterタイムラインにツイートをレコメンドするシステムのいくつかのコンポーネントをオープンソース化した。このリリースには、アルゴリズムを実行するいくつかのサービスやジョブのコード、ツイートを埋め込んでランキングする機械学習モデルをトレーニングするコードが含まれている。
-
Stability AIが70億パラメータのオープンソースな言語モデル「StableLM」を公開
Stability AIは、大規模言語モデル(LLM)スイートであるStableLMのための訓練済み重みづけモデルを2セット公開した。これらのモデルは、1.5兆個のテキストトークンで学習済で、CC BY-SA-4.0の下で商用利用が許可されている。
-
Google、より効率的なAI学習アルゴリズムを発見するためにAutoMLを使用
Googleの研究者は、自動機械学習(AutoML)進化アルゴリズムによって発見された、ニューラルネットワークを訓練するための最適化アルゴリズムEvoLved sIgn mOmeNtum(Lion)をオープンソース化した。Lionで学習したモデルは他のオプティマイザで学習したモデルよりも、いくつかのベンチマークで高い精度を達成でき、しかも収束に要する計算サイクルは少なくて済む。
-
PyTorch 2.0コンパイラによるモデル学習速度の向上
PyTorch Foundationは100%後方互換のアップデートであるPyTorch version 2.0をリリースした。今回のリリースの目玉、ディープラーニングモデルのコンパイル機能ではトレーニングのスピードアップを実現しており、163個のオープンソースAIプロジェクトにおけるベンチマークではトレーニング中のモデルの動作が平均43%高速化されたことが示された。
-
カーネギーメロン大学の研究者、WiFi経由で人を検知するAIモデルを開発
カーネギーメロン大学(CMU)のヒューマンセンシング研究所の研究者は、WiFi送信機からの信号のみを用いて、部屋にいる複数の人間のポーズを検出するAIモデルのDensePose from WiFiに関する論文を発表した。実世界のデータを用いた実験では、このアルゴリズムは50%のIOU閾値で平均87.2という精度を達成したのである。
-
Wayveの自動運転車向けEnd-to-Endディープラーニングモデル
ディープラーニングAI技術に注力するWayveは、CARLAのシミュレーションデータを基に世界モデルと車両の運転方針を学習し、HDマップのない車への自律性を実現する最先端のエンドツーエンドモデルを発表した。
-
Googleの新たなImagen AIが、テキストから画���を生成するベンチマークでDALL-Eの性能を上回る
GoogleのBrain Teamの研究者がImagenを発表した。これはテキストによる説明が与えられたシーンから、写真のような現実感のある画像を生成できるテキスト-to-イメージAIモデルである。Imagenは、COCOベンチマークでDALL-E 2の性能を上回り、多くの同様のモデルと異なり、テキストデータでのみ事前トレーニングされている。
-
Metaが1750億パラメータAI言語モデルのOPTをオープンソース化
Meta AI Researchは、1750億パラメーターAI言語モデルのOpen Pre-trained Transformer(OPT-175B)をリリースした。このモデルは1800億のトークンを含むデータセットでトレーニングされている。GPT-3と同等のパフォーマンスを示す一方で、必要なカーボンフットプリントはGPT-3トレーニングの7分の1のみである。
-
Allen Institute for AI、AIモデル検査ツール”LM-Debugger”をオープンソースとして公開
Allen Institute for AI(AI2)は、言語モデル(LM)の予測出力を解釈し制御する、対話型ツールのLM-Debuggerをオープンソースとして公開した。LM-DebufferはすべてのHuggingFace GPT-2モデルを対象に、モデルのニューラルネットワークの隠れ層(hidden layer)の更新をダイナミックに修正することにより、ユーザのテキスト生成プロセスへの介入を可能にする。
-
グラフニューラルネットワークのベンチマークを高速化する新ツール GraphWorld
Google AIは先頃、グラフニューラルネットワーク(Graph Neural Networks、GNNs)分野のパフォーマンスベンチマークを加速するツールとして、GraphWorldをリリースした。異なるノード次数分布やジニ係数のように、さまざまな構造特性でグラフを生成するための、コンフィギュレーション可能なフレームワークである。
-
TensorFlow DTensor:分散ディープネットワークトレーニング向けの統合API
最近リリースされたTensorFlow v2.9では、モデル、データ、スペースパラレル(別名、空間タイル)ディープネットワークトレーニングのための新しいAPIが追加された。DTensorの目的は、シャーディング命令をモデルコードから分離することである。そのためにDTensorは、デバイス間でモデルとバッチパラメータを分割するための高レベルのユーティリティを提供する。
-
Amazonが51言語のAIトレーニングデータセット”MASSIVE”を公開
Amazon Alexa AIのNatural Language Understandingグループは "Multilingual Amazon SLURP (SLU resource package) for Slot Filling, Intent Classification, and Virtual-Assistant Evaluation"(MASSIVE)をリリースした。自然言語理解(NLU)AIモデルのトレーニングを目的として、51言語から100万件のアノテーション付きサンプルを収めたデータセットだ。データを使用するためのコードやツールも含まれている。