InfoQ ホームページ 大規模言語モデル に関するすべてのコンテンツ
-
OpenAIがカスタムエージェント開発用の新しいAPI、SDK、ツールを発表
OpenAIが新しいResponses API、Agent SDK、可観測性ツールを発表した。これらは本番対応エージェントを作成する際に直面する課題、例えばカスタムオーケストレーションの構築や、複雑な多段階タスクにおけるプロンプトの反復処理に対応するためのものだ。
-
instructlab.aiは、合成データを使用して大規模言語モデル(LLMs)の微調整の複雑さを軽減する
InstructLab.aiは、この論文で説明されているチャットボットのための大規模アラインメント(LAB)コンセプトをオープンソースで実装したものである。論文の要旨によると、LABは大規模言語モデル(LLM)の命令チューニングフェーズにおけるスケーラビリティの課題を克服することを目的としている。このアプローチは、LLMのための合成データベースのアライメントチューニングメソッドを活用する。このアプローチでは、作成された分類法によって、学習データの合成シードを提供できる。
-
Dapr Agents:LLM、Kubernetes、マルチエージェント協調によるスケーラブルなAIワークフロー
Daprは最近、大規模言語モデル(LLM)を使用してスケーラブルでレジリエントなAIエージェントを構築するためのフレームワークDapr Agentsを発表した。Dapr Agentsは、Daprのセキュリティ、オブザーバビリティ、クラウドニュートラルなアーキテクチャを活用し、構造化されたワークフロー、マルチエージェント連携、イベント駆動型の実行が可能だ。企業向けに設計されており、数千のエージェントをサポートし、データベースと統合し、堅牢なオーケストレーションとメッセージングによって信頼性を確保する。
-
IBM社、Granite 3.2で新たな視覚言語モデル、思考連鎖推論、時系列モデル強化を実装
IBM社は、マルチモーダルと推論機能を搭載したGranite 3.2の最新モデルを発表した。。Granite 3.2の特徴は試験的に導入された思考連鎖推論機能であり、従来モデルを大きく上回る性能を発揮している。新たな大規模視覚言語モデル(VLM)は、いくつかのベンチマークスコアでより大型のモデルを凌駕しているほか、小型モデルより効率的なデプロイを実現している。
-
Mistral AIがアラビア語と南インドの言語に対応した地域言語モデルのSabaを発表
Mistral AIは、アラビア語といくつかのインド言語、特にタミル語のような南インド言語のAIパフォーマンスを向上させるために設計された240億パラメータ言語モデルである、Mistral Sabaを発表した。必要とされる地域的コンテキスト理解を欠く恐れのある汎用モデルとは異なり、Mistral Sabaは中東や南アジアで収集しキュレートされたデータセットで訓練されており、言語文化的により正確な応答を提供している。
-
Googleの画像生成モデルImagen 3がFirebaseのVertex AIでプレビューとして利用可能に
Googleのもっとも先進的な生成AI画像生成モデルImagen 3が、FirebaseのVertex AIでプレビュー利用可能になり、KotlinとSwift SDKを使用してAndroidとiOSアプリにシームレスに統合できるようになった。
-
Hugging FaceがGPU全体の効率的LLMトレーニングに関するガイドを公開
Hugging FaceがUltra-Scale Playbook: Training LLMs on GPU Clusters、GPU クラスター全体で大規模言語モデル(LLM)をトレーニングする際の方法論と技術について詳細に探究するオープンソースのガイドを公開した。このプレイブックはスループット、GPU利用率、トレーニング効率の最適化に焦点を当て、最大512GPUを使用して実施された4000以上のスケーリング実験に基づいている。大規模モデルトレーニングに取り組む研究者やエンジニアに実践的なガイダンスを提供することを目的としており、再現可能なベンチマーク、実装の詳細、パフォーマンス最適化を提供している。
-
ソフトウェアアーキテクトが日常業務で人工知能をどのように活用しているか
ソフトウェアアーキテクトやシステム・アーキテクトがすぐに生成型人工知能(AI)や大規模言語モデル(LLM)に取って代わられることはないだろう、とAvraham Poupko氏は述べている。彼らは生成型AIとLLMを活用する方法を知っているソフトウェアアーキテクトに置き換えられるだろう、そして同時に重要なのは、生成型AIを使用すべきでない場面を知っていることだ。
-
OpenAIがソフトウェア開発ベンチマークを発表
OpenAIは、実世界のフリーランスのソフトウェア開発タスクで先進的なAI言語モデルの能力を評価するためのSWE-Lancerベンチマークを発表した。このベンチマークはUpworkから提供された1,400以上のタスクのデータセットを使用しており、その総額は100万ドルである。これらのタスクには独立したコーディング活動と管理的意思決定の両方が含まれ、複雑さと報酬の範囲が実世界のフリーランスのシナリオをシミュレートするように設計されている。
-
DeepSeek、OpenAIのo1モデルに匹敵する性能を持つDeepSeek-R1 LLMをオープンソース化
DeepSeekは推論能力を向上させるために強化学習(RL)でファインチューニングされたLLM、DeepSeek-R1をオープンソース化した。DeepSeek-R1はMATH-500やSWE-benchを含むいくつかのベンチマークで、OpenAIのo1モデルと同等の結果を達成している。
-
GitHub Copilot拡張機能はIDEと外部サービスを統合
現在一般提供されているGitHub Copilot 拡張機能により、開発者はIDEを離れることなく自然言語を使用してドキュメント照会し、コード生成し、データ取得し、外部サービス上でアクションを実行できる。Docker、MongoDB、Sentryなど多くの企業が公開している拡張機能を利用できるほか、開発者は内部ライブラリやAPIと連携するための独自の拡張機能を作成することもできる。
-
マイクロソフトがCoRAGを発表:反復的推論によるAI検索の強化
Microsoft AIは中国人民大学と共同でRetrieval-Augmented Generation(RAG)モデルを強化するために設計された新しいAIフレームワーク、Chain-of-Retrieval Augmented Generation(CoRAG)を発表した。単一の検索ステップに依存する従来のRAGシステムとは異なり、CoRAGは反復検索と推論を可能にし、AIモデルが回答を生成する前に動的に検索結果をリファインすることを可能にする。
-
Hugging Face、新たなプロバイダー統合でサーバーレス推論オプションを拡大
Hugging Faceは、Fal、Replicate、SambaNova、Together AIの4つのサーバーレス推論プロバイダーの統合を直接モデルページにローンチした。これらのプロバイダーはJavaScriptおよびPython用Hugging FaceクライアントSDKにも統合されており、ユーザーは最小限のセットアップで様々なモデルの推論を実行できるようになっている。
-
ラテンアメリカがAIの文化的関連性を向上させるためにLatam-GPTを発表
ラテンアメリカは同地域の歴史、文化、言語的多様性をよりよく表現するために設計された言語モデル「Latam-GPT」の開発を通して、人工知能の開発を進めている。Paris AI Action Summitで発表されたこのプロジェクトは、チリの科学・技術・知識・イノベーション省(CTCI)と国立人工知能センター(Cenia)が主導し、ラテンアメリカ各地の専門家や機関の支援を受けている。
-
PerplexityがDeep Researchを発表:高度な分析のためのAI駆動ツール
PerplexityはDeep Research、金融、マーケティング、テクノロジーなど様々な分野で詳細な分析を行うために設計されたAI駆動ツールを発表した。このシステムは、複数の検索を実行し、広範な情報源を分析し、数分以内に構造化されたレポートに結果をまとめることでリサーチプロセスを自動化する。