BT

最新技術を追い求めるデベロッパのための情報コミュニティ

寄稿

Topics

地域を選ぶ

InfoQ ホームページ ニュース NVIDIA、ローカルで動作するAIチャットボット「Chat with RTX」を発表

NVIDIA、ローカルで動作するAIチャットボット「Chat with RTX」を発表

原文リンク(2024-02-16)

NVIDIAChat withRTXを発表し、パーソナライズされたチャットボット体験をユーザー自身が構築できるようになった。多くのクラウドベースのソリューションとは異なり、Chat with RTXは完全にローカルのWindows PCまたはワークステーション上で動作し、データのプライバシーとコントロールを高めている。

この新しいアプリにより、文書、メモ、YouTubeビデオのトランスクリプトなど、ユーザー自身のデータで大規模な言語モデルの学習が可能となる。個人的なコンテンツをアプリに与えることで、ユーザーは特定のニーズやナレッジベースに合わせたチャットボットを育成でき、パーソナライズされた対話の新たなレベルに到達できる。

Retrieval-Augmented Generation (RAG)TensorRT-LLM、RTXアクセラレーションなどの先進技術を活用することで、このアプリはユーザーのクエリに対して迅速かつ正確な応答を提供する。この強力な組み合わせにより、パーソナライズされたデータセットから関連情報を効率的に検索し、文脈に即した見識ある回答を得られる。

さらに、Chat with RTXはデータ保護を重視している。ローカルで実行することにより、クラウドストレージの必要性を排除し、情報を直接ユーザーの管理下に保持できる。このローカライズされた処理は、多くのクラウドベースのチャットボットソリューションに比べ、特にデータプライバシーを優先するユーザーにとって大きな利点となる。

また、Chat with RTXテキスト、PDF、DOC/DOCX、XMLを含む幅広いファイル形式をサポートしており、様々なタイプのコンテンツとの互換性を保証している。さらに、このアプリはYouTubeビデオのトランスクリプトをシームレスに統合し、好みのチャンネルからの情報収集によりトレーニングデータを飛躍的に拡大する。

開発者は、RTXでチャットの可能性を追求できる。オープンソースのTensorRT-LLM RAG Developer Reference Projectをベースに構築されたこのアプリは、RTXアクセラレーションのパワーをさらに活用するカスタムRAGベースのアプリケーションを作成するための踏み台となる。

NVIDIAによるChat with RTXアプリのニュースは、開発者コミュニティから好意的な反応を得ている。機械学習モデルのユーザーインターフェースを構築するためのビジュアルツールキットであるGradioは、X(旧Twitter)でその感動を表明した。

我々は、@NVIDIAStudioからのChat with RTX技術デモの公式アナウンスでGradioが取り上げられたことに、とても興奮しています!また、NvidiaとGradioを使ってローカルでRAGを模索できます。

Chat with RTXは、カスタム言語モデルを構築し対話するための貴重なツールであり、オープンソースプロジェクトを活用することで、その可能性をさらに高めることができると考えられている。

Chat with RTXは、Pythonのインスタント機能を備えたウェブサーバーのようなものだ。これをダウンロードした後、ユーザーはMistralまたはLlama 2モデルを個別にダウンロードする必要がある。

作者について

この記事に星をつける

おすすめ度
スタイル

BT