Elon Musk氏のxAIは、開発者がアプリケーションにxAIの大規模言語モデル(LLM)を統合できるようになる、APIサービスのパブリックベータ版をローンチした。
@xAI APIは現在動いてます
xAI APIはOpenAIやAnthropicが提供するもの同様に、xAIコンソールを介してxAIのGrokモデルへのアクセスを提供する。現在はGrok-betaモデルのみが利用可能で、Grok-2とGrok-2 miniが間もなくアクセス可能になる見込みだ。Grokモデルはテキスト、コード、画像の生成と理解が可能である。
xAIコンソールは開発者のための中央ハブとして機能し、APIキーの作成、チーム管理、課金、モデルの比較、使用状況の追跡、APIドキュメントへのアクセスなどのツールを提供する。特筆すべきはxAIの推論サーバーは複数のリージョンをサポートし、バックエンドシステムがRustで開発されていることだ。ただし、ベータ版の段階ではサービスは米国東部地域に限定されている。
価格設定に関して、xAI APIはOpenAIのモデルと違いがある。APIポータルによると、Grok-2とGrok-2 miniはOpenAIのGPT-4oとGPT-4o miniよりも高い価格設定となっている。Grok-betaは入力と出力の両方で131,072トークンを処理できるが、OpenAIのGPT-4oは100万トークンをサポートしている。Grok-betaは131,072入力トークンあたり5ドルかかるのに対し、GPT-4oは100万トークンあたり2.50ドルだ。出力についてはGrok-betaは限られたトークン数で15ドル、GPT-4oは100万トークンあたり10ドルだ。さらにOpenAIは標準APIリクエストよりも少なくとも50%安いバッチAPI価格を提供している。
開発者のOfer Mendelevitch氏はXプラットフォームで熱意を表明した:
@xai APIの稼働におめでとうございます。Grok-betaは@vectaraのハルシネーション・リーダーボードで4.6%のハルシネーション率を示しています。
一方、ソフトウェア開発者のAleksandr Vasilenko氏はRedditでシェアした:
xAI APIは高価かつコンソールは非常に遅いです。また、コンソールにplaygroundがなく、自分でAPIを呼び出して直接APIと対話する必要があります。
xAI APIの他の特筆すべき機能にはJavaScriptやPythonを使ってOpenAIおよびAnthropicSDKと統合する機能がある。ドキュメントに詳述されているように、開発者はREST、gRPC、またはxAI Python SDKを介してアプリケーションにxAI APIを実装することもできる。