InfoQ ホームページ Artificial Intelligence に関するすべてのコンテンツ
-
Dapr Agents:LLM、Kubernetes、マルチエージェント協調によるスケーラブルなAIワークフロー
Daprは最近、大規模言語モデル(LLM)を使用してスケーラブルでレジリエントなAIエージェントを構築するためのフレームワークDapr Agentsを発表した。Dapr Agentsは、Daprのセキュリティ、オブザーバビリティ、クラウドニュートラルなアーキテクチャを活用し、構造化されたワークフロー、マルチエージェント連携、イベント駆動型の実行が可能だ。企業向けに設計されており、数千のエージェントをサポートし、データベースと統合し、堅牢なオーケストレーションとメッセージングによって信頼性を確保する。
-
自動テスト結果の分析における人工知能の活用
自動テスト結果の分析は、テスト活動において非常に重要かつ困難な部分である。任意の時点で、自動テストの結果に従って製品の状態を伝えることができなければならない、とMaroš Kutschy氏はQA Challenge Acceptedで述べた。彼は、人工知能が分析に費やす時間を節約し、人的ミスを減らし、新たな障害に集中するのに役立っていることを紹介した。
-
Google DeepMindが Gemini Roboticsを発表
Google DeepMindは、視覚、言語、行動を統合することでロボット工学を強化するために設計された先進的なAIモデル、Gemini Roboticsを発表した。Gemini 2.0フレームワークに基づくこのイノベーションは、特に現実世界のセッティングにおいて、ロボットをよりスマートで能力の高いものにすることを目指している。
-
VS Code Copilot用GPT-4oコード補完モデルがパブリックプレビューで利用可能に
最近、Visual Studio Code(VS Code)ユーザー向けにGPT-4o Copilotが発表された。このAIモデルはGPT-4o mini基盤の上に構築されており、30以上の広く使用されているプログラミング言語にわたる、275,000以上の高品質なパブリックリポジトリからの広範なトレーニングを含んでいる。強化トレーニングにより、より正確でコンテキストに即したコード提案を提供し、パフォーマンスの向上、開発者の生産性向上、コーディングプロセスを支援することが期待されている。
-
エンジニアリングチームがAI、プラットフォームエンジニアリング、DevExにどう取り組んでいるか:InfoQ Dev Summit Boston 2025
InfoQとQConの開発チームによるこのイベントは、理論的な議論のみ行うカンファレンスとは異なり、Netflix、The New York Times、Shopify、CarGurus、Vanguardなどから得られる実践的な洞察に基づいた現実世界での実装にフォーカスしている。講演者は参加者がすぐに適用できる戦略を共有し、チームがコストのかかる試行錯誤を避けられるよう支援する。
-
Google CloudのAI Protection:AIアセットを保護するためのソリューション
Google Cloudは最近、生成AIに関連するリスクや脅威から保護する包括的なソリューション、AI Protectionを発表した。
-
IBM社、Granite 3.2で新たな視覚言語モデル、思考連鎖推論、時系列モデル強化を実装
IBM社は、マルチモーダルと推論機能を搭載したGranite 3.2の最新モデルを発表した。。Granite 3.2の特徴は試験的に導入された思考連鎖推論機能であり、従来モデルを大きく上回る性能を発揮している。新たな大規模視覚言語モデル(VLM)は、いくつかのベンチマークスコアでより大型のモデルを凌駕しているほか、小型モデルより効率的なデプロイを実現している。
-
Mistral AIがアラビア語と南インドの言語に対応した地域言語モデルのSabaを発表
Mistral AIは、アラビア語といくつかのインド言語、特にタミル語のような南インド言語のAIパフォーマンスを向上させるために設計された240億パラメータ言語モデルである、Mistral Sabaを発表した。必要とされる地域的コンテキスト理解を欠く恐れのある汎用モデルとは異なり、Mistral Sabaは中東や南アジアで収集しキュレートされたデータセットで訓練されており、言語文化的により正確な応答を提供している。
-
Googleの画像生成モデルImagen 3がFirebaseのVertex AIでプレビューとして利用可能に
Googleのもっとも先進的な生成AI画像生成モデルImagen 3が、FirebaseのVertex AIでプレビュー利用可能になり、KotlinとSwift SDKを使用してAndroidとiOSアプリにシームレスに統合できるようになった。
-
Hugging Face���GPU全体の効率的LLMトレーニングに関するガイドを公開
Hugging FaceがUltra-Scale Playbook: Training LLMs on GPU Clusters、GPU クラスター全体で大規模言語モデル(LLM)をトレーニングする際の方法論と技術について詳細に探究するオープンソースのガイドを公開した。このプレイブックはスループット、GPU利用率、トレーニング効率の最適化に焦点を当て、最大512GPUを使用して実施された4000以上のスケーリング実験に基づいている。大規模モデルトレーニングに取り組む研究者やエンジニアに実践的なガイダンスを提供することを目的としており、再現可能なベンチマーク、実装の詳細、パフォーマンス最適化を提供している。
-
Azure AI Foundry Labs:マイクロソフトにおける最新のAI研究と実験のハブ
マイクロソフトはこのほど、最新のAI研究と実験を開発者、スタートアップ、企業に提供するためのハブ「Azure AI Foundry Labs」を立ち上げた。同社は、画期的な研究と実世界でのアプリケーションとのギャップを埋め、開発者が新たな可能性を探求可能にするために、このサービスを開始した。
-
Google DeepMindが長期的疾病管理向けにAMIEを強化
Google DeepMindは長期的な疾病管理をサポートするためにArticulate Medical Intelligence Explorer(AMIE)の機能を診断以外にも拡張した。このシステムは現在、臨床医が複数回の患者の受診にわたって病気の進行を監視し、治療を調整し、臨床ガイドラインの遵守を支援するように設計されている。
-
ソフトウェアアーキテクトが日常業務で人工知能をどのように活用しているか
ソフトウェアアーキテクトやシステム・アーキテクトがすぐに生成型人工知能(AI)や大規模言語モデル(LLM)に取って代わられることはないだろう、とAvraham Poupko氏は述べている。彼らは生成型AIとLLMを活用する方法を知っているソフトウェアアーキテクトに置き換えられるだろう、そして同時に重要なのは、生成型AIを使用すべきでない場面を知っていることだ。
-
OpenAIがソフトウェア開発ベンチマークを発表
OpenAIは、実世界のフリーランスのソフトウェア開発タスクで先進的なAI言語モデルの能力を評価するためのSWE-Lancerベンチマークを発表した。このベンチマークはUpworkから提供された1,400以上のタスクのデータセットを使用しており、その総額は100万ドルである。これらのタスクには独立したコーディング活動と管理的意思決定の両方が含まれ、複雑さと報酬の範囲が実世界のフリーランスのシナリオをシミュレートするように設計されている。
-
DeepSeek、OpenAIのo1モデルに匹敵する性能を持つDeepSeek-R1 LLMをオープンソース化
DeepSeekは推論能力を向上させるために強化学習(RL)でファインチューニングされたLLM、DeepSeek-R1をオープンソース化した。DeepSeek-R1はMATH-500やSWE-benchを含むいくつかのベンチマークで、OpenAIのo1モデルと同等の結果を達成している。