InfoQ ホームページ Microsoft に関するすべてのコンテンツ
-
Azure AI Foundry Labs:マイクロソフトにおける最新のAI研究と実験のハブ
マイクロソフトはこのほど、最新のAI研究と実験を開発者、スタートアップ、企業に提供するためのハブ「Azure AI Foundry Labs」を立ち上げた。同社は、画期的な研究と実世界でのアプリケーションとのギャップを埋め、開発者が新たな可能性を探求可能にするために、このサービスを開始した。
-
GitHub Copilot拡張機能はIDEと外部サービスを統合
現在一般提供されているGitHub Copilot 拡張機能により、開発者はIDEを離れることなく自然言語を使用してドキュメント照会し、コード生成し、データ取得し、外部サービス上でアクションを実行できる。Docker、MongoDB、Sentryなど多くの企業が公開している拡張機能を利用できるほか、開発者は内部ライブラリやAPIと連携するための独自の拡張機能を作成することもできる。
-
Azure AIエージェントサービスがAI Foundry SDKとポータルで開発者向けパブリックプレビュー開始
マイクロソフトは先日、Azure AIエージェントサービスのパブリックプレビューを発表し、Azure AI Foundry SDKと Azure AI Foundryポータルで利用できるようになった。
-
マイクロソフトがCoRAGを発表:反復的推論によるAI検索の強化
Microsoft AIは中国人民大学と共同でRetrieval-Augmented Generation(RAG)モデルを強化するために設計された新しいAIフレームワーク、Chain-of-Retrieval Augmented Generation(CoRAG)を発表した。単一の検索ステップに依存する従来のRAGシステムとは異なり、CoRAGは反復検索と推論を可能にし、AIモデルが回答を生成する前に動的に検索結果をリファインすることを可能にする。
-
DevProxy 0.24、さらにOpenAPIオプションを追加
マイクロソフトはAPIシミュレーションコマンドラインツール DevProxyのバージョン0.24をリリースした。新バージョンでは、異なるOpenAPI仕様との互換性が改善され、日常的なタスクのためにいくつかの改良が加えられている。
-
OpenAIが Microsoft Azure OpenAI Service上に新しいo3-miniモデルを提供
OpenAIは、o3-miniモデルをローンチし、現在Microsoft Azure OpenAI Serviceからアクセス可能となっている。同社によると、このモデルはAI技術の進歩を象徴しており、昨年9月にリリースされたo1-miniと比較してコスト効率が改善され、推論能力が向上している。
-
Microsoft Research AI Frontiers LabがAutoGen v0.4ライブラリを発表
Microsoft ResearchのAI Frontiers LabがAutoGen 0.4、先進的なAIエージェントシステムを構築するためのオープンソースフレームワークのバージョン、のリリースを発表し��。報告によると最新バージョンはAutoGenライブラリの完全な再設計を特徴としており、コード品質、堅牢性、ユーザビリティ、エージェントワークフローのスケーラビリティの向上に焦点を当てている。このアップデートは、エージェント型人工知能の進展をドライブする強力なエコシステムの確立を目指している。
-
Azure AI Agent Service パブリックプレビュー: 定型業務の自動化
先日開催されたIgniteカンファレンスでMicrosoftはAzure AI Agent Serviceのパブリックプレビューを発表した。このフルマネージドサービスは、開発者が基盤となるコンピューティングリソースやストレージリソースを管理することなく、高品質で拡張可能なAIエージェントをセキュアに構築、デプロイ、スケーリングできるようにする。
-
OpenSilver 3.1がXAMLクロスプラットフォームデザイナーをもたらす
OpenSilver3.1の最新バージョンは、マイクロソフトの廃止されたSilverlight Web アプリケーション・フレームワークのリメイクで、7月にリリースされたビジュアル・デザイナーをWindows以外のプラットフォームにも拡張した。また、.NET 9のサポートやWPF特有の機能も含まれている。
-
Azure Boost DPU:クラウドのパフォーマンスを強化するマイクロソフトの新しいシリコンソリューション
マイクロソフトは先日のIgniteカンファレンスで、効率的で低消費電力のデータ中心ワークロード向けに設計された、初の自社製データ処理ユニット(DPU)であるAzure Boost DPUを発表した。同社によると、この単一のシリコンは、高速イーサネットおよびPCIeインターフェース、ネットワークおよびストレージエンジン、データアクセラレータ、セキュリティ機能を統合し、完全��プログラマブルなシステム・オン・ア・チップになっているという。
-
マイクロソフトが汎用マルチエージェントシステム Magentic-Oneを発表
マイクロソフトはMagentic-One、Webやファイルベースの環境を含むオープンエンドのタスクを処理するように設計された新汎用マルチエージェントシステムのリリースを発表した。このシステムはソフトウェア開発、データ分析、ウェブナビゲーションなど様々な領域にわたる複雑な多段階タスクを支援し、活動の効率性を向上させることを目的としている。
-
AWS が Python と .NET 関数向けのLambda SnapStartを一般提供開始
AWSはPythonと.NET関数向けのLambda SnapStart、サーバーレスアプリケーションの起動パフォーマンスを大幅に改善するために設計された機能の一般提供を開始した。
-
マイクロソフト、GraphQL用Fabric APIの一般提供を発表
マイクロソフトはGraphQL用Fabric APIを発表し、データアクセスレイヤーをパブリックプレビューから一般提供(GA)に移行した。このリリースでは、Azure SQLとFabric SQLデータベースのサポート、保存された資格情報認証、詳細な監視ツール、CI/CDワークフローとの統合など、いくつかの機能強化が導入されている。
-
Amazon QがVisual Studio CodeとJetBrains IDEsにインラインチャットサポートを追加
AWSは最近、Amazon Q Developerがインラインチャットをサポートし、開発者がエディタ内でコードの問題について議論し解決できるようになったと発表した。コードを直接更新できる機能とIDE内チャットのベネフィットを組み合わせたこの機能は、Claude 3.5によって提供されVisual Studio CodeとJetBrains IDEで利用できる。
-
マイクロソフトと清華大学が大規模言語モデル向けのDIFF Transformerを発表
マイクロソフトAI と清華大学の研究者が、Differential Transformer (DIFF Transformer) という大規模言語モデルの性能向上を目的とした新しいアーキテクチャを発表した。同モデルでは、モデルによるコンテキスト処理の微調整や無関係な情報によるハルシネーションを最小限化することで、アテンション・メカニズムが向上している。