OpenAIは、o3-miniモデルをローンチし、現在Microsoft Azure OpenAI Serviceからアクセス可能となっている。同社によると、このモデルはAI技術の進歩を象徴しており、昨年9月にリリースされたo1-miniと比較してコスト効率が改善され、推論能力が向上している。
o3-miniモデルはAIアプリケーションを強化したい開発者や企業に利益をもたらすと期待されている。より高速なパフォーマンスと低遅延を提供しながらより複雑な推論タスクを効果的に処理する。MicrosoftのCore AI部門のプロダクト担当副社長 Yina Arenas氏は、AIと機械学習に関するブログでこう書いている:
より高速なパフォーマンスと低レイテンシーを備えたo3-miniは、効率性を維持しながら複雑な推論ワークロードを処理するように設計されています。
o3-miniモデルの注目すべき新しい側面は推論努力パラメータである。この機能によりユーザーはモデルの認知負荷を調整することができ、低、中、高レベルの推論を可能にする。例えば、低レベルの推論は単純なデータ処理タスクに適している一方で、高レベルは複雑な意思決定プロセスに使用できる。
AI Vercel SDKドキュメントに例が示されている。
import { generateText } from 'ai'; import { openai } from '@ai-sdk/openai'; // Reduce reasoning effort for faster responses const { text } = await generateText({ model: openai('o3-mini'), prompt: 'Explain quantum entanglement briefly.', providerOptions: { openai: { reasoningEffort: 'low' }, }, });
さらに、o3-miniモデルはJSONスキーマ制約を組み込むことにより構造化出力をサポートする。この機能により、モデルの出力を他システムで容易に理解でき使用可能な形式にできる - これは自動化ワークフローを促進し、組織が既存システムにAIを組み込むことをより簡単にする。構造化出力を伴うRESTコールはこのようになる:
curl -X POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_MODEL_DEPLOYMENT_NAME/chat/completions?api-version=2025-01-31 -H "api-key: $AZURE_OPENAI_API_KEY" -H "Content-Type: application/json" -d '{ "messages": [ {"role": "system", "content": "Extract the event information."}, {"role": "user", "content": "Alice and Bob are going to a science fair on Friday."} ], "response_format": { "type": "json_schema", "json_schema": { "name": "CalendarEventResponse", "strict": true, "schema": { "type": "object", "properties": { "name": { "type": "string" }, "date": { "type": "string" }, "participants": { "type": "array", "items": { "type": "string" } } }, "required": [ "name", "date", "participants" ], "additionalProperties": false } } } }' Note: o3-mini version 2025-01-31
このモデルは前モデルと同様に関数と外部ツールもサポートしており、AIを活用した様々な自動化タスクに適している。これらのタスクには、カスタマーサポート応答の自動化、在庫レベルの管理、製造プロセスの制御などが含まれる。
もう一つの重要な変更点は、以前のシステムメッセージに代わる開発者メッセージの導入-インストラクション処理のためのより構造化されたフレームワークを提供し、開発者がより応答性の高いAIアプリケーションを作成できるようにする新しいアプローチである。さらにAzure OpenAI Serviceは古いシステムメッセージを新しい形式に合わせることで、移行を支援するための下位互換性を確保している。
前モデルの機能を継承しつつ、o3-miniモデルはコーディング、数学、科学的推論などの主要分野を改善している。これらの機能強化は高パフォーマンスAIソリューションを必要とする組織には重要である。
ShinChven Zhang氏はブログ投稿でこう結論付けている:
o3-miniは現在、画像処理のサポートを欠いていますが、テキストのみの処理能力、高度な推論能力、そしてコスト効率の良さにより、様々なアプリケーションにとって魅力的な選択肢となっています。ChatGPTの無料ユーザーがo3-miniを利用できるようになったことは、強力なAIモデルへのアクセスを民主化する重要な一歩であり、コーディング、STEM研究、AIを活用した自動化など、多くの分野でイノベーションを促進する可能性があります。
最後に、開発者はGitHub CopilotとGitHub ModelsでOpenAI o3-miniについてさらに学ぶことができ、Azure AI Foundryにサインアップしてo3-miniや他の高度なAIモデルにアクセスすることができる。