Hugging Face、サードパーティクラウドでのDeepSeek AIモデル実行を容易に

Hugging Face

  • Hugging FaceがSambaNova等と提携し、新機能「Inference Providers」を発表。
  • 開発者が選択したインフラでAIモデルを容易に実行可能に。
  • サーバーレス推論の提供に重点を置き、複数のプロバイダーと連携。

新機能「Inference Providers」の概要

AI開発プラットフォームのHugging Faceは、SambaNova等のサードパーティクラウドベンダーと提携し、開発者がより柔軟にAIモデルを実行できる新機能「Inference Providers」を発表した。この取り組みにはFal、Replicate、Together AIも参加している。

Hugging Faceによると、各パートナー企業はHugging Faceのプラットフォームから自社のデータセンターにアクセスできるよう連携を進めてきた。これにより、開発者は例えばHugging Faceのプロジェクトページから数クリックでSambaNova社のサーバー上でDeepSeekモデルを起動できるようになった。

Hugging Face

Hugging Face

同社のブログ投稿で、「サーバーレスプロバイダーが発展し、優れたプロバイダーを通じてサーバーレス推論への簡単で統一されたアクセスを提供する時期が来た」と説明している。サーバーレス推論により、開発者は基盤となるハードウェアの設定や管理を行うことなく、AIモデルのデプロイとスケーリングが可能になる。SambaNova等のプロバイダーは、使用状況に応じて必要な計算リソースを自動的に起動し、スケールの調整を行う。

料金体系と今後の展開

Hugging Faceは、プラットフォームを通じてサードパーティクラウドプロバイダーを利用する開発者に対し、当面は標準的なプロバイダーのAPI料金を適用するとしている。全ユーザーに推論用の少額のクレジットが提供され、プレミアム層のHugging Face Proの購読者には毎月2ドル(約300円)の追加クレジットが付与される。

Hugging Faceの成長

2016年にチャットボットスタートアップとして設立されたHugging Faceは、現在、世界最大規模のAIモデルホスティングおよび開発プラットフォームの1つとなっている。これまでにSalesforce、Google、Amazon、Nvidiaなどの投資家から約4億ドル(約600億円)の資金を調達しており、収益性も確保していると主張している。

引用元:TechCrunch
Hugging Face makes it easier for devs to run AI models on third-party clouds

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です