InfoQ ホームページ Artificial Intelligence に関するすべてのコンテンツ
-
QCon San Francisco 2024のAIとMLトラック - 生成AIと実用的アプリケーションを深掘り
InfoQによる国際的なソフトウェア開発会議であるQCon San Francisco 2024では、AIとMLの急速な進歩に特化した2つのトラックが設けられており、これらの技術が現代のソフトウェア開発の中心となっていることを反映している。
-
Meta社、強化学習を用いてデータセンターの持続可能性を最適化
最近のブログ記事で、自社のエンジニアが強化学習(RL)を使って 自社のデータセンターの環境制御を最適化し、エネルギー消費と水の使用量を削減しながら、気候変動などのより 広範な課題に取り組む方法を紹介している。強化学習は、機械学習と最適制御の一分野であり、知的エージェントが報酬信号を最大化するために、変化する環境の中でどのように意思決定を行うかに焦点を当てている。
-
Pythonの台頭、生成AI、グローバルな開発者コミュニティ:GitHub Octoverse 2024からの洞察
最近発表されたGitHub Octoverse 2024レポートによると、主にデータサイエンス、機械学習、科学計算のような分野での優位性により、PythonはJavaScriptを抜いてGitHubで最も人気のある言語になったことが明らかになった。生成AIはソフトウェア開発において引き続き重要な存在感を示しており、GitHub上の生成AIプロジェクトへの貢献が大幅に増加している。
-
マイクロソフトが汎用マルチエージェントシステム Magentic-Oneを発表
マイクロソフトはMagentic-One、Webやファイルベースの環境を含むオープンエンドのタスクを処理するように設計された新汎用マルチエージェントシステムのリリースを発表した。このシステムはソフトウェア開発、データ分析、ウェブナビゲーションなど様々な領域にわたる複雑な多段階タスクを支援し、活動の効率性を向上させることを目的としている。
-
Meta Spirit LM、音声とテキストを統合した新しいマルチモーダルGenAIモデルを発表
最近の論文で発表されたSpirit LMは、話し言葉と書き言葉を混在させたパイプラインを作成し、音声とテキストを同じマルチモーダルモデルに統合することを可能にする。Meta社によれば、テキストと音声トークンのインターリーブに基づく新しいアプローチにより、音声とテキストに別々のパイプラインを使用する従来のソリューションの本質的な制限を回避することが可能になるという。
-
Amazon SageMaker JumpStartがBria AIのテキスト画像変換モデルでポートフォリオを拡大
Amazon Web Servicesは、Bria AIの最新のテキストから画像への基礎モデルをAmazon SageMaker JumpStartに統合し、エンタープライズグレードの生成AI機能を大幅に拡張した。今回の追加には、Bria 2.3、Bria 2.2 HD、Bria 2.3 Fastの3つのバリエーションが含まれ、それぞれがビジュアルコンテンツ生成における特定の企業ニーズに対応するように設計されている。
-
xAIがGrokモデルの新APIサービスを発表
Elon Musk氏のxAIは、開発者がアプリケーションにxAIの大規模言語モデル(LLM)を統合できるようになる、APIサービスのパブリックベータ版をローンチした。
-
DecartとEtchedがゲーム世界を変える新しいAIモデル、Oasisをリリース
Decart.aiとEtched.aiは最近Oasis、Minecraftにインスパイアされた完全インタラクティブ、リアルタイムオープンワールド体験を生成するAI駆動モデルを発表した。
-
AWSがAIエージェント管理のためのMulti-Agent Orchestratorフレームワークを公開
AWSはMulti-Agent Orchestrator、複数のAIエージェントを管理し、複雑な会話シナリオを処理するために設計されたフレームワークを発表した。このシステムはクエリを最適なエージェントにルーティングし、インタラクション間でコンテキストを維持し、AWS Lambda、ローカルセットアップ、その他クラウドプラットフォームなどさまざまなデプロイ環境とシームレスに統合する。
-
AISuiteは統一クロスLLM APIを提供する新オープンソースPythonライブラリ
最近Andrew Ng氏によって発表された、現在利用可能なもっとも���般的な大規模言語モデル(LLM)に対してOpenAIライクなAPIを提供することを目的としたaisuiteは、開発者がコードを変更することなく簡単にLLMを試して結果を比較したり、あるLLMから別のLLMに切り替えることを可能にする。
-
GitHub Universe 2024、AIイノベーションと開発者向けツールを発表
GitHubは、GitHub Universe 2024で重要なアップデートを発表し、開発者の自律性の強化とAIネイティブな体験の向上に向けたシフトを示した。このイベントでは、アクセシビリティ、イノベーション、マルチモデルの柔軟性を中心に、ワークフローを簡素化し、あらゆるスキルレベルの開発者が人工知能の力を活用できるように設計されたツールを提供した。
-
Meta社のMobileLLMでオンデバイスユースケースに向けたLLM設計が促進
Meta社の研究者のMobileLLMに対する目標は野心的だ。小型モデルの品質は搭載しているパラメータが何十億あるかに直結したものではなく、むしろ注意深いアーキテクチャ設計の賜物であることを示そうとしている。その実証として、層の深いアーキテクチャと層の浅いアーキテクチャを埋め込み共有やグループ化クエリアテンションメカニズムを組み合わせた125M、350M、600M、10Bパラメータの4つのモデルを構築し、従来の最先端モデルよりも精度を向上させた。
-
Rhymes AIがAriaを発表:開発リソースを備えたオープンソースのマルチモーダルモデル
Rhymes AIは、テキスト、画像、ビデオ、コードを効果的に処理できるオープンソースのマルチモーダルネイティブMoE(Mixture-of-Experts)モデル、Ariaを発表した。ベンチマークテストにおいて、Ariaは他の��ープンモデルを凌駕し、GPT-4oやGemini-1.5などの独自モデルに対しても競争力のある性能を示した。さらに、Rhymes AIは、微調整や開発のためのモデルの重み付けやガイダンスを含むコードベースを公開している。
-
Amazon QがVisual Studio CodeとJetBrains IDEsにインラインチャットサポートを追加
AWSは最近、Amazon Q Developerがインラインチャットをサポートし、開発者がエディタ内でコードの問題について議論し解決できるようになったと発表した。コードを直接更新できる機能とIDE内チャットのベネフィットを組み合わせたこの機能は、Claude 3.5によって提供されVisual Studio CodeとJetBrains IDEで利用できる。
-
マイクロソフトと清華大学が大規模言語モデル向けのDIFF Transformerを発表
マイクロソフトAI と清華大学の研究者が、Differential Transformer (DIFF Transformer) という大規模言語モデルの性能向上を目的とした新しいアーキテクチャを発表した。同モデルでは、モデルによるコンテキスト処理の微調整や無関係な情報によるハルシネーションを最小限化することで、アテンション・メカニズムが向上している。