BT

最新技術を追い求めるデベロッパのための情報コミュニティ

寄稿

Topics

地域を選ぶ

InfoQ ホームページ ニュース Hugging Face、新たなプロバイダー統合でサーバーレス推論オプションを拡大

Hugging Face、新たなプロバイダー統合でサーバーレス推論オプションを拡大

原文リンク(2025-02-04)

Hugging Faceは、FalReplicateSambaNovaTogether AIの4つのサーバーレス推論プロバイダーの統合を直接モデルページにローンチした。これらのプロバイダーはJavaScriptおよびPython用Hugging FaceクライアントSDKにも統合されており、ユーザーは最小限のセットアップで様々なモデルの推論を実行できるようになっている。

このアップデートによりユーザーは自分のAPIキーを使用して直接アクセスするか、Hugging Face経由でリクエストをルーティングすることで、好みの推論プロバイダーを選択可能になった。この統合はDeepSeek-R1を含む様々なモデルをサポートし、プロバイダー間で推論を管理するための統一インターフェースを提供する。

開発者はウェブサイトのUI、SDK、または直接HTTPコールを通じて、これらのサービスにアクセスできる。この統合によりAPIコールのプロバイダー名を変更することで、他の実装を変更せずにプロバイダー間のシームレスな切り替えが可能だ。Hugging FaceはOpenAI互換API用のルーティングプロキシも提供している。

SambaNovaの共同設立者兼CEO Rodrigo Liang氏はこう述べた。

私たちはHugging Faceと提携してその推論APIを加速させることにエキサイトしています。Hugging Face開発者は最高のオープンソースモデルの広範な範囲で、はるかに高速な推論速度にアクセスできるようになりました。

そして、Replicate社の創業デザイナー Zeke Sikelianos氏はこう述べた。

Hugging Faceはオープンソースのモデルウェイトの事実上のホームであり、AIをより世界中でアクセス可能にする上でのキープレイヤーであり続けています。私たちReplicateではHugging Faceをウェイトレジストリとして使用しており、このローンチで最初の推論プロバイダーの一つとして紹介されることを光栄に思います。

高速で正確なAI推論は多くのアプリケーションにとって不可欠であり、特にテスト時の計算やエージェント型AIに伴い、より多くのトークンが求められる場合にはなおさらだ。オープンソースモデルはRDUのパフォーマンスを最適化し、開発者が精度を向上させながら最大10倍高速な推論を達成することを可能にする。

ユーザーが自分のAPIキーを提供する場合、請求は推論プロバイダーによって処理される。リクエストがHugging Faceを経由する場合、追加のマークアップなしで標準プロバイダー料金が適用される。

作者について

関連するコンテンツ

BT