Microsoftは、GPT-4oのような大規模言語モデル(LLM)を.NET開発ワークフローに直接統合するために設計された新しいVisual Studio Code拡張機能「Prompty」をリリースした。この無料ツールは、アプリケーションにAI駆動機能を追加するプロセスを簡素化することを目的としている。公式リリースポストには、Promptyが実際のシナリオでどのように使用できるかを示す実用的な例が含まれている。
PromptyはVisual Studio Code Marketplaceで無料で入手でき、.NET開発者にLLMと対話するための直感的なインターフェースを提供する。チャットボットの作成、コンテンツの生成、その他のAI駆動型機能の強化など、Promptyはこれらの機能を既存の開発環境に簡単に統合する方法を提供する。
Promptyは、AIを.NET開発に統合する革新的なアプローチで好評を得ているが、一部のコミュニティ・メンバーは、その可用性について懸念を表明している。LinkedInでは、Jordi Gonzalez Segura氏が、Visual Studio Professionalを使用している人がPromptyにアクセスできないことに失望を表明している。
Visual Studio CodeでPromptyを使うには、いくつかのステップがある。
- インストール:開発者は、Visual Studio Code MarketplaceからPromptyエクステンションをインストールすることから始める。
- セットアップ:インストール後、ユーザーは、GPT-4oなどのLLMに接続するためにAPIキーを提供し、必要なパラメータを設定することで、拡張機能を構成する。
- 統合:Promptyは、埋め込みプロンプトを使用して新しいファイルを作成したり、既存のファイルを変更したりできるようにすることで、開発ワークフローに統合される。プロンプトを簡単に挿入し、LLMからの応答を処理するためのコマンドとスニペットが提供されている。
- 開発:開発者はコードベースに直接プロンプトを記述し、LLMと対話ができる。Promptyはさまざまなプロンプト形式をサポートし、シンタックスハイライトを提供し、それによってプロンプトの可読性が上がりメンテナンスが容易になる。これらのプロンプトは、コードスニペットの生成、ドキュメントの作成、LLMに特定の問題を問い合わせるトラブルシューティングに役立つ。
- テスト:Promptyは迅速な反復とテストを可能にし、開発者はプロンプトを改良して応答の正確さと関連性を向上させることができる。
マイクロソフトのプリンシパル・クラウド・アドボケイトであるBruno Capuano氏は、Promptyが.NET WebAPIプロジェクトをどのように強化できるかを示す実際のユースケースを用意した。この例では、Promptyが詳細な天気予報の説明を生成し、ありふれた通常の出力をよりリッチで魅力的なコンテンツに変換している。開発者は、.promptyファイル内でプロンプトを定義し、LLMと対話するために必要な設定することで、詳細な天気予報サマリーを動的に生成できる。この実用的なアプリケーションは、セマンティック・カーネルを活用して説明的なテキストの生成を自動化し、アプリケーションの出力の品質と情報性を向上させている。
Promptyについて、その機能、および開発ワークフローへの統合に関する追加情報は、Prompty Visual Studio Code拡張ページ、またはGitHubで利用可能なPromptyソースコードで見つけることができる。