InfoQ ホームページ AIと機械学習、データエンジニアリング に関するすべてのコンテンツ
-
Microsoft Foundry Agent Service、長期メモリのプレビュー版で状態管理をシンプル化
Microsoftは年次カンファレンスIgniteにてFoundry Agent Serviceのメモリ機能、Agent serviceにネイティブ統合されたフルマネージド長期メモリストア、のパブリックプレビュー版を発表した。
-
PyTorch FoundationがRayを歓迎し、簡素化された分散AIのためのMonarchを発表
2025年のPyTorchカンファレンスにおいて、PyTorch FoundationはオープンでスケーラブルなAIインフラの推進を目指したいくつかの取り組みを発表した。財団は、分散コンピューティングフレームワークであるRayをホストプロジェクトとして歓迎し、複数のマシンにわたる分散AIワークロードを簡素化する新しいフレームワーク「PyTorch Monarch」を紹介した。また、イベントではスタンフォード大学のMarinやAI2のOlmo-Thinkingなどの新しいオープンリサーチプロジェクトも取り上げられ、基盤モデルの開発における透明性と再現性の重要性が高まっていることが強調された。
-
Memori、AIエージェント向けのSQLとMongoDBを活用したフルスケールのメモリレイヤーへ拡張
Memoriは、AIエージェントに長期的で構造化されたクエリ可能なメモリを提供するために設計された、フル機能を備えたオープンソースのメモリシステムへと成熟した。これにより、従来のプロプライエタリなベクトルストアではなく、標準的なデータベースを使用できる。Memoriは、アドホックなプロンプトや一時的なセッション状態に依存する代わりに、インタラクションからエンティティ、事実、関係、コンテキストを継続的に抽出し、それらをSQLやMongoDBのバックエンドに保存する。それにより、エージェントは手動でのオーケストレーションを行うことなく、セッションをまたいで情報を記憶し再利用が可能だ。
-
Discord、単一GPUワークフローから共有RayクラスターへのMLプラットフォーム拡張
Discord社は、単一GPUトレーニングの限界に直面した後、機械学習プラットフォームを再構築した方法を詳述した。RayとKubernetesを標準化し、ワンクリックでクラスターを作成できるCLIを導入し、DagsterとKubeRayを通じてワークフローを自動化することで、分散トレーニングを日常的な運用に変更できた。これらの変更により、大規模モデルの毎日の再トレーニングが可能となり、広告ランキングの主要指標で200%の向上を達成した。
-
Android GenAIプロンプトAPI、Gemini Nanoで自然言語リクエストを実現
ML Kit GenAI Prompt APIIがアルファ版で利用可能となり、Android開発者はデバイス上で動作するGemini Nanoに自然言語およびマルチモーダルリクエストを送信できるようになった。このAPIは、初期のGenAIリリースで導入されたテキスト要約や画像説明の機能を拡張するものである。
-
Transformers v5、よりモジュール化され相互運用性の高いコアを導入
Hugging Face社は、Transformers v5の最初のリリース候補を発表した。このリリースは、5年前のv4リリース以来大きく進化してきたTransformersライブラリにとって重要な一歩である。Transformersは、専門的なモデルツールキットからAI開発の主要なリソースへと移行し、現在では1日あたり300万以上のインストール数を記録し、累計で12億以上のインストール数を達成している。
-
QCon AI New York 2025:「AIは機能するが、プルリクエストは機能しない:AIがソフトウェア開発ライフサイクル(SDLC)を破壊する理由とその対策」
CircleCI社の主任エンジニアであるMichael Webster氏は、2025年に初めて開催された「QCon AI New York 2025において、「AI Works, Pull Requests Don’t: How AI Is Breaking the SDLC and What to Do about it(AIは機能するが、プルリクエストは機能しない:AIがSDLCを破壊している現状とその対策)」と題した講演を行った。
-
OpenAI、GPT-5.1モデルを発表。より高速で会話的に
OpenAIは最近、GPT-5モデルのアップグレード版を公開した。GPT-5.1 Instantはデフォルトのチャットモデルであり、指示の理解力が向上している。GPT-5.1 Thinkingは推論モデルであり、より迅速で理解しやすい応答を提供する。GPT-5.1-Codex-Maxはコーディングモデルであり、長時間のタスクを効率的に実行するために圧縮技術を活用するよう訓練されている。
-
Cloudflare、データプラットフォームをエグレス料金ゼロで導入
Cloudflareは最近、Cloudflare Data Platformのオープンベータ版を発表した。これは、Apache Icebergなどのオープンスタンダードを使用して、分析データテーブルを取り込み、保存し、クエリを実行するためのマネージドソリューションである。
-
Agentica ProjectのオープンソースAIモデルDeepCoderがOpenAIのO1をコードベンチマークで上回る
Agentica ProjectとTogether AIは、Deepseek-R1-Distilled-Qwen-14Bを基盤としたオープンソースAIコードモデルDeepCoder-14B-Previewを公開した。このモデルはLiveCodeBenchで60.6%の合格率を達成し、OpenAIのO1モデルを上回り、O3-miniの性能に匹敵する結果を示した。
-
Claude Sonnet 4.5は、オープンソースの監査ツールPetriによって最も安全なLLM(大規模言語モデル)として評価された。
Claude Sonnet 4.5は、Anthropic社の新しいオープンソースAI監査ツールであるPetri(Parallel Exploration Tool For Risky Interactions)による初期評価において、「リスキーなタスク」において最も優れたパフォーマンスを示したモデルとして浮上した。
-
Instagram、新ランキングフレームワークで通知疲れを軽減し、エンゲージメントを向上
Meta社は、Instagramにおいて新しい機械学習フレームワークを導入した。このフレームワークは多様性アルゴリズムを適用し、繰り返し表示されるコンテンツを減らしながらユーザーエンゲージメントを維持できるものだ。この多様性を意識したランキングシステムは、同じコンテンツ作成者や製品タイプへの過剰な露出を軽減するために、既存のエンゲージメントモデルに乗算ペナルティを導入している。
-
AnthropicがClaude Codeを拡張、Webおよびモバイルプラットフォームに
AnthropicはAI駆動開発環境Claude Codeの利用可能範囲を拡張し、Webおよびモバイルプラットフォームに対応させた。これまでClaude.aiやAPI統合を通したデスクトップアクセスに限定されていたが、今回の展開により開発者はブラウザやモバイルデバイス上で直接コーディング作業を実行および管理できるようになった。
-
Atlassianの400万PostgreSQLデータベース移行:標準的なクラウド戦略が失敗する時
Atlassianは最近、400万のJiraデータベースをAmazon Auroraに移行し、コスト削減とJira Cloudプラットフォームの信頼性向上を目指した。多くのファイルが関与し、マネージドサービスの制約があるため、チームは従来のクラウド移行戦略が実行不可能であったため、プロセスを調整するカスタムツールを開発した。
-
Hugging FaceがmmBERTを発表、対応言語1,800以上の多言語エンコーダー
Hugging FaceはmmBERT、1,833の言語にわたる3兆以上のトークンでトレーニングされた新しい多言語エンコーダーをリリースした。モデルはModernBERTアーキテクチャを基盤としており、多言語理解タスクの長年のベースラインとなっていたXLM-Rを大幅に上回る初のモデルである。