Meta、新フラッグシップAIモデル「Llama 4」シリーズを発表

Meta AI

  • Metaが「Llama 4」シリーズとして新たに4つのAIモデルを発表
  • MoE(専門家の混合)アーキテクチャを採用し、効率的な処理と視覚的理解力を強化
  • EUでの使用制限や大手企業向け特別ライセンスなど、ライセンス条件に注目点

Metaの新AIシリーズ「Llama 4」

Metaは土曜日、Llamaファミリーの新しいAIモデルコレクション「Llama 4」をリリースした。

全部で4つの新モデルがあり、「Llama 4 Scout」、「Llama 4 Maverick」、「Llama 4 Behemoth」が含まれる。Metaによれば、これらのモデルはすべて「大量のラベル付けされていないテキスト、画像、動画データ」でトレーニングされ、「幅広い視覚的理解力」を持つという。

中国AI企業DeepSeekとの競争

中国のAI研究所DeepSeekによるオープンモデルの成功が、Llamaの開発を加速させたと報じられている。DeepSeekのモデルはMetaの以前のフラッグシップLlamaモデルと同等かそれ以上のパフォーマンスを示している。伝えられるところによると、MetaはDeepSeekがR1やV3などのモデルの実行・展開コストをどのように削減したかを解明するため、緊急チームを結成したという。

ScoutとMaverickはLlama.comやHugging Faceなどのパートナーを通じて公開されているが、Behemothはまだトレーニング中だ。Metaによれば、WhatsApp、Messenger、Instagramなどのアプリで利用可能なAIアシスタント「Meta AI」は、40か国でLlama 4を使用するよう更新された。マルチモーダル機能は現在のところ、米国の英語のみに限定されている。

Llama 4のライセンス制限

一部の開発者はLlama 4のライセンスに問題を感じるかもしれない。

EUに「住所を置く」または「主たる事業所を持つ」ユーザーや企業は、モデルの使用または配布を禁止されている。これはおそらく同地域のAIおよびデータプライバシー法によって課された統治要件の結果だ。(過去にMetaはこれらの法律を過度に負担が大きいと非難している。)さらに、以前のLlamaリリースと同様に、月間アクティブユーザーが7億人を超える企業はMetaから特別なライセンスを要求する必要があり、Metaはその裁量でこれを付与または拒否できる。

「これらのLlama 4モデルは、Llamaエコシステムの新しい時代の始まりを示しています」とMetaはブログ投稿で述べた。「これはLlama 4コレクションの始まりに過ぎません」

MoEアーキテクチャの採用

Metaによれば、Llama 4はMoE(専門家の混合)アーキテクチャを使用した同社初のモデル群であり、トレーニングとクエリ応答において計算効率が高いという。MoEアーキテクチャは基本的にデータ処理タスクをサブタスクに分解し、それらを小さな専門的な「エキスパート」モデルに委任する。

例えば、Maverickは合計4,000億のパラメータを持つが、128の「エキスパート」全体で有効なのは170億パラメータのみだ。(パラメータは大まかにモデルの問題解決能力に相当する。)Scoutは170億の有効パラメータ、16のエキスパート、1,090億の総パラメータを持つ。

モデル性能と比較

Metaの社内テストによれば、同社がクリエイティブな文章執筆などの「一般的なアシスタントとチャット」のユースケースに最適としているMaverickは、OpenAIのGPT-4oやGoogleのGemini 2.0を特定のコーディング、推論、多言語、長文脈、画像ベンチマークで上回っている。しかし、MaverickはGoogleのGemini 2.5 Pro、AnthropicのClaude 3.7 Sonnet、OpenAIのGPT-4.5などの最近の高性能モデルには完全には追いついていない。

Scoutの強みは文書要約や大規模コードベースでの推論などのタスクにある。特に、1,000万トークンという非常に大きなコンテキストウィンドウを持つ。(「トークン」は生のテキストの断片を表す。例えば、「fantastic」という単語が「fan」「tas」「tic」に分割されるなど。)平易な言葉で言えば、Scoutは画像と最大数百万語を取り込むことができ、極めて長い文書を処理して作業することが可能だ。

Metaの計算によれば、ScoutはNVIDIA H100 GPU 1台で実行できるが、MaverickはNVIDIA H100 DGXシステムまたは同等品を必要とする。

未公開の「Behemoth」モデル

Metaの未発表のBehemothはさらに強力なハードウェアを必要とする。同社によると、Behemothは2,880億の有効パラメータ、16のエキスパート、そして約2兆の総パラメータを持つ。Metaの社内ベンチマークでは、BehemothはGPT-4.5、Claude 3.7 Sonnet、Gemini 2.0 Pro(ただしGemini 2.5 Proではない)を、数学問題解決などのSTEMスキルを測定するいくつかの評価で上回っている。

注目すべきは、Llama 4モデルのいずれもOpenAIのo1やo3-miniのような本格的な「推論」モデルではないことだ。推論モデルは回答を事実確認し、一般的に質問に対してより信頼性高く応答するが、その結果、従来の「非推論」モデルよりも回答に時間がかかる。

コンテンツポリシーの変更

興味深いことに、Metaはすべてのllama 4モデルを調整し、「議論の的となる」質問に対する拒否回答を減らしたと述べている。同社によれば、Llama 4は以前のLlamaモデルが回答しなかった政治的・社会的「論争」トピックに対応する。さらに同社は、Llama 4は取り合わない質問の判断において「劇的にバランスが取れている」としている。

「Llama 4は判断を下すことなく、役立つ事実に基づいた回答を提供することを頼りにできます」とMetaの広報担当者はTechCrunchに語った。「Llamaをより応答性の高いものにし続けており、より多くの質問に答え、さまざまな異なる視点に対応できるようにし[…]特定の見解を他よりも優先することがないようにしています」

これらの調整は、一部のホワイトハウスの同盟者がAIチャットボットが政治的に「ウォーク(覚醒)」過ぎると非難する中で行われている。

政治的バイアスの問題

Donald Trump(ドナルド・トランプ)大統領の側近の多くは、億万長者のElon Musk(イーロン・マスク)氏や暗号資産およびAI「皇帝」David Sacks(デビッド・サックス)氏を含め、人気のあるAIチャットボットが保守的な見解を検閲していると主張している。Sacks氏は過去にOpenAIのChatGPTを「ウォークになるようプログラムされている」および政治的な主題について不誠実だと名指しで非難していた。

実際には、AIにおけるバイアスは技術的に非常に難しい問題だ。Musk氏自身のAI企業であるxAIも、一部の政治的見解を他よりも支持しないチャットボットを作成することに苦戦している。

それでもOpenAIなどの企業は、特に論争的な主題に関連する質問について、以前よりも多くの質問に回答するようAIモデルを調整することをやめていない。

引用元:TechCrunch
Meta releases Llama 4, a new crop of flagship AI models

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です