- MetaがLlamaConでLlamaシリーズAIモデル向けの「Llama API」を発表
- 限定プレビューで提供開始、開発者がLlamaモデル活用のサービス・ツール・アプリケーション構築が可能に
- 顧客データの自社モデル学習への不使用を明言、構築したモデルの別ホストへの移行も可能
MetaがLlamaConでLlama APIを発表
火曜日に開催された初のLlamaCon AIデベロッパーカンファレンスにおいて、MetaはLlamaシリーズAIモデル向けAPI「Llama API」を発表した。
限定プレビューでの提供開始と開発者向け機能
限定プレビューとして提供されるLlama APIは、開発者が様々なLlamaモデルを活用した製品の探索と実験を可能にするものだ。MetaのSDKと組み合わせることで、開発者はLlamaを活用したサービス、ツール、アプリケーションの構築が可能になる。MetaはAPIの価格設定については即座に共有しなかった。
競争の激しいオープンモデル市場での優位性維持へ
このAPIの展開は、Metaが激しい競争が繰り広げられているオープンモデル分野でのリードを維持しようとする動きの一環だ。Metaによれば、Llamaモデルはこれまでに10億回以上のダウンロード数を記録しているが、DeepSeekや阿里巴巴(Alibaba)のQwenなどのライバルが、MetaがLlamaで広範なエコシステムを確立する取り組みを覆す脅威となっている。
Llama 3.3 8Bから始まるモデル調整・評価ツール
Llama APIは、Llama 3.3 8Bから始まるLlamaモデルのパフォーマンスを微調整・評価するツールを提供する。顧客はデータを生成し、それを学習させ、その後Llama APIのMetaの評価スイートを使用してカスタムモデルの品質をテストすることができる。
顧客データ保護と他ホストへの移行可能性
Metaは、Llama APIの顧客データを同社独自のモデルのトレーニングに使用しないこと、およびLlama APIを使用して構築されたモデルは別のホストに移行できることを表明した。
CerebrasとGroqとの提携によるLlama 4サポート
最近リリースされたLlama 4モデル上に構築する開発者向けに、Llama APIはCerebrasとGroqとの提携によるモデル提供オプションを提供している。これらの「初期実験的」オプションは、開発者がAIアプリのプロトタイプを作成するのを支援するために「リクエストによって利用可能」だとMetaは述べた。
「開発者はAPIでCerebrasまたはGroqのモデル名を選択するだけで…すべての使用状況が1か所で追跡される合理化された体験を楽しむことができる」とMetaはブログ投稿で説明した。「Llama上に構築するためのさらなるオプションを提供するために、追加のプロバイダーとのパートナーシップを拡大することを楽しみにしている」。
Metaは「今後数週間から数カ月のうちに」Llama APIへのアクセスを拡大すると述べている。
引用元:TechCrunch
Meta previews an API for its Llama AI models