InfoQ ホームページ 大規模言語モデル に関するすべてのコンテンツ
-
Azure OpenAIの「On Your Data」機能が一般利用可能に
Microsoft社は、Azure OpenAI Serviceで"On Your Data"機能の一般提供を正式に開始した。この機能により、ユーザーはGPT-4を含むOpenAIモデルのフルパワーを活用し、RAG(Retrieval Augmented Generation)モデルの高度な機能をデータとシームレスに統合可能となった。同社によると、これらはすべてAzure上のエンタープライズ・グレードのセキュリティ(プライベート・エンドポイントとVPN経由)に支えられており、安全で保護されたユーザー・データ環境を保証しているという。
-
RWKVプロジェクト、LLM "Eagle 7B"をオープンソース化
RWKVプロジェクトはこの程、75.2億パラメータの大規模言語モデル(LLM)である、Eagle 7Bをオープンソース化した。Eagle 7Bは、100以上の言語の1.1兆トークンのテキストで学習され、多言語ベンチマークにおいて他の同サイズのモデルを凌駕している。
-
"Cloudflare for AI"で、サイバー脅威に対する大規模言語モデル(LLM)の保護を強化
Cloudflareはこのほど、同社のWebアプリケーションファイアウォール(WAF)製品に、「Firewall for AI」と呼ばれる新機能を追加したことを発表した。この機能は、悪用や攻撃がLarge Language Models(LLM)に到達し、改ざんされる前に特定する新たな保護レイヤーを追加する。
-
Google、開発者向けの新しいオープンソースAIモデル「Gemma」を発表
Googleは、新しいオープンソースのAIモデルであるGemmaを発表した。GoogleのAIモデル「Gemini」を支える技術を用いて開発されたGemmaは、AIアプリケーションを良心的に作成するための高度なツールを開発者に提供することを目的としている。
-
NVIDIA、エッジでAIアプリを実行するMetropolis Microservices for Jetsonを発表
NVIDIAは、Nvidia Metropolis MicroservicesクラウドベースのAIソリューションを拡張し、NVIDIA Jetson組み込みプラットフォームで実行できるようにした。
-
Google社がBardをGeminiに改名
Google社は、同社のチャットボットBardの名称をGeminiに変更すると発表した。同社はまた、Gemini言語モデルの最大バージョンであるGemini Advancedの発表と、Gemini言語モデルと対話するための2つの新しいモバイルアプリの発表も行った。
-
OpenAI、ChatGPTにメモリ機能を追加し会話を向上
OpenAIは、ChatGPTに会話を記憶させることで、ユーザーが繰り返し会話情報を提供する必要性を減らし、今後のチャットをより有益なものにしたいと考えている。ユーザーは、何��明確に記憶するか、何を忘れるか、あるいはこの機能を完全にオフにするかを指定できる。
-
OpenAI、テキストから動画を生成するAI "Sora" を発表
Soraは、テキストプロンプトから映像を作成するOpenAIの新しい生成AIモデルである。現在プレビュー中だが、この新しいモデルは、現実世界で物事がどのように存在するかを理解する能力を活用し、登場人物やスタイルを崩すことなく複数の映像を組み合わせて、60秒までの写実的な動画を作成できる。
-
マイクロソフト、ITプロフェッショナルのためのAIアシスタント「Copilot for Azure」を発表
マイクロソフトは、クラウドインフラとサービスの管理と運用を強化するために設計されたAIベースのツール「Copilot for Azure」を発表した。クラウドサービスからエッジテクノロジーに至るまで、Azureの機能性を包括的に理解し、扱うために、Azureリソースモデルを大規模言語モデル(LLM)の能力に活用している。
-
Stability AI社が16億パラメータの言語モデル "Stable LM 2"をリリース
Stability AI社は、1.6Bパラメータの言語モデルStable LM 2用に、訓練済みのモデル重みを2セットリリースした。Stable LM 2は、7言語の2兆トークンから成るテキストデータで学習を行ったものであり、一般的なラップトップコンピュータで実行できる。
-
LeftoverLocalsがApple、Qualcomm、AMDのGPUに関するLLMの回答をリークする可能性
セキュリティ企業Trail of Bitsは、Apple、Qualcomm、AMD、Imagination GPUのGPUローカルメモリから悪意ある行為者がデータを復元できる脆弱性を公表した。LeftoverLocalsと名付けられたこの脆弱性は、大規模言語モデル(LLM)や機械学習(ML)モデルなど、GPUを使用するあらゆるアプリケーションに影響を及ぼす。
-
LLMが不正な行動から学習し、持続的な「潜伏工作員」として働く可能性
OpenAIの競合であるAnthropicのAI研究者は、プロンプトの特定のヒントによって引き起こされる不正行動を示すLLMを概念実証として訓練した。さらに、一旦不正の行動がモデルに訓練させると、標準的な技術を使ってそれを回避する方法はなかったという。
-
Mistral AIのオープンソースモデル"Mixtral 8x7B"、GPT-3.5を上回る
Mistral AIは先日、スパース混合エキスパート(SMoE)大規模言語モデル(LLM)であるMixtral 8x7Bをリリースした。このモデルは総パラメータ46.7Bを含むが、その3分の1のサイズのモデルと同じスピードとコストで推論を処理できる。いくつかのLLMベンチマークでは、Llama 2 70BとGPT-3.5の両方を上回った。
-
OpenAIがAIの安全性に"Preparedness Framework"を採用
OpenAIはこの頃、AIのリスクを軽減するためのPreparedness Frameworkのベータ版を発表した。このFrameworkには、4つのリスクカテゴリーとそれぞれのリスクレベルの定義が記載されており、OpenAIの安全ガバナンス手順も定義されている。
-
OpenAIがGPTプロンプトエンジニアリングガイドを発表
先日、OpenAIはプロンプトエンジニアリングのガイドを発表した。このガイドでは、GPTモデルからより良い応答を引き出すための6つの戦略が掲載されており、特に最新バージョンであるGPT-4の例に焦点を当てられている。