InfoQ ホームページ Artificial Intelligence に関するすべてのコンテンツ
-
GitHubとGoogle Cloudが連携し、Gemini 1.5 ProをGitHub Copilotに導入
GitHubはGoogle Cloudと提携し、Gemini 1.5 ProモデルをGitHub Copilotに導入し、開発者に最大200万トークンを扱えるAIツールを提供する。Gemini 1.5 Proは、コード生成、分析、最適化などのタスク向けに設計されており、Visual Studio Codeのようなプラットフォームで間もなく利用可能になり、大規模なコードベースを扱う開発者に柔軟性を提供する。
-
PyTorch カンファレンス 2024:PyTorch 2.4/2.5(開発中)、そしてLlama 3.1
2024年9月18日と19日、Linux Foundationはサンフランシスコのフォート・メイソン周辺でPyTorch Conference 2024を開催した。このカンファレンスでは、PyTorch 2.4とLlama 3.1の最新の機能と、PyTorch 2.5での今後の変更点が紹介された。PyTorch Foundationのエグゼクティブディレクターであり、Linux FoundationのAI担当GMでもあるMatt White氏は、初日のカンファレンスの冒頭で、責任ある生成AIの発展におけるオープンソース・イニシアチブの重要性を強調した。
-
Logic Apps Standardのパブリック・プレビューで、生成AIアプリケーションのためのRAGベースの取り込みが可能に
マイクロソフトはこのほど、Logic Apps Standardのドキュメント解析とチャンキングのための組み込みアクションのパブリックプレビューを発表した。これらのアクションは、生成AIアプリケーションのRAG(Retrieval-Augmented Generation)ベースの取り込みを効率化するように設計されている。これらのアクションにより、Logic Appsはローコードで提供するAI機能にさらに投資することになる。
-
PayPal社、Cosmos.AI MLOpsプラットフォームにLLMを利用した生成AIサポートを追加
PayPal社はMLOpsプラットフォームCosmos.AIを拡張し、大規模言語モデル(LLM)を使用したジェネレーティブAIアプリケーションの開発をサポートする。同社は、ベンダー、オープンソース、自己調整LLMへのサポートを取り入れ、検索拡張生成(RAG)、セマンティックキャッシュ、プロンプト管理、オーケストレーション、AIアプリケーションのホスティングに関する機能をリリースした。
-
FirebaseのVertex AI、Gemini搭載モバイルアプリの作成を簡素化する狙い
現在ベータ版として提供されている Vertex AI SDK for Firebaseは、単純なチャットモデルやテキストプロンプトを超えたアプリの作成を可能にする。Googleはこの度、開発者がアプリに組み込むために必要なステップを支援するコラボを公開した。
-
OpenAIがマルチエージェント・オーケストレーションの実験的オープンソース・フレームワーク「Swarm」をリリース
最近実験的なツールとしてリリースされたSwarmは、開発者がルーチンとハンドオフを使用してタスクを実行するために、複数のエージェントを互いに協調させる方法を調査できるようにすることを目的としている。
-
大学の研究者がLLMにおける思考連鎖推論の分析を発表した
プリンストン大学とイェール大学の研究者が、LLMにおけるChain-of-Thought(CoT)推論のケーススタディを発表した。このケーススタディでは、暗記と真の推論の両方の証拠が示された。また、CoTは、プロンプトで与えられた例が正しくない場合でも機能することがわかった。
-
Meta社のリアルタイム音声翻訳AIシステムに向けたResearch SuperCluster
Meta社のエンジニアリング部門の最近の記事から、同社がリアルタイム音声翻訳、言語処理、コンピューター・ビジョン、拡張現実 (AR)の進歩に使用されるResearch SuperCluster (RSC)インフラをどのように構築しているかが明らかになった。
-
中国科学院大学オープンソース・マルチモーダルLLM LLaMA-Omni
中国科学院大学(UCAS)の研究者が最近、音声データとテキストデータの両方で動作するLLM、LLaMA-Omniをオープンソース化した。LLaMA-OmniはMetaのLlama-3.1-8B-InstructLLMをベースにしており、類似のベースラインモデルを凌ぐ性能を持ちながら、少ない学習データと計算量で動作する。
-
OpenAI、低遅延音声対話向けのRealtime APIのパブリックベータ版を発表
OpenAIが、Realtime APIのパブリックベータ版を発表した。今回のリリースでは、開発者にアプリ内での低遅延かつマルチモーダルな音声対話が提供される。さらに、音声入力/出力がChat Completions APIで利用可能になり、音声駆動型アプリケーションの選択肢が広がった。初期のフィードバックでは、ChatGPTのアドバンスドボイスモードと同様に、音声オプション数や応答の切断といった制限に関心が集まっている。
-
Anthropic、AIデータハンドリング強化のためのコンテキスト検索を発表
Anthropicは、AIシステムと広範な知識ベースとの相互作用における重要な進歩であるコンテキスト検索を発表した。この技術は、埋め込みや索引付けの前にテキストチャンクをコンテキスト情報を付加することで、検索拡張生成(RAG)システムにおけるコンテキスト損失の課題に対処する。
-
Googleが声を復元する音声転送AIを開発
Google Researchチームが、特定の人物の声でテキスト音声変換(TTS)をカスタマイズできるゼロショット音声変換(VT)モデルを開発した。これにより、パーキンソン病やALSなどで声を失った話者が、TTSデバイスを使って元の声を再現できるようになる。このモデルは言語を跨いでも機能する。
-
OpenAIがGPT-4oサポートとAPI拡張を含む.NETライブラリの安定版をリリース
6月のベータ版に続き、OpenAIが、公式.NETライブラリの安定版をリリースした。NuGetパッケージとして利用可能で、GPT-4oやGPT-4o miniのような最新モデルと、OpenAI REST APIの全機能をサポートしている。このリリースには同期および非同期APIの両方、ストリーミングチャット補完機能、そ���てAPI一貫性向上のための重要な互換性のない変更が含まれている。開発者はライブラリを拡張し、.NET Standard 2.0をサポートするすべての.NETプラットフォーム上で使用できる。
-
AWS、NVIDIA H100 Tensor Core GPUを搭載したEC2 P5eインスタンスの一般提供を発表
Amazon Web Services(AWS)は、AI、機械学習、ハイパフォーマンス・コンピューティング(HPC)アプリケーション向けのコンピューティング・インフラを強化するため、NVIDIA H100 Tensor Core GPUを搭載したAmazon EC2 P5eインスタンスを正式にリリースした。
-
AIでKubernetes管理を簡素化するIntuit Engineeringのアプローチ
Intuit社は最近、Generative AI(GenAI)を使用してKubernetesクラスタの監視とデバッグの複雑さを管理した方法について語った。GenAIの実験は、検出、デバッグ、修復のプロセスを合理化するために行われた。