- Metaの次期「オープン」AIモデルは音声機能に重点を置く可能性
- Financial Times報道によると、数週間後に登場予定のLlama 4に改良された音声機能を導入
- ユーザーが会話中にモデルの発言を中断できる機能に特に注力
- 中国AIラボDeepSeekのオープンモデルの成功を受け、Llama開発が加速
Metaの次期主要「オープン」AIモデルは音声機能に重点を置く可能性があると、Financial Timesの報道により明らかになった。
Llama 4で改良された音声機能の導入計画
同記事によると、Metaは同社のLlamaモデルファミリーの次期フラッグシップとなるLlama 4で、改良された音声機能の導入を計画している。このモデルは「数週間後」に登場する見込みだ。報道によれば、MetaはOpenAIのChatGPT音声モードやGoogleのGemini Liveエクスペリエンスと同様に、ユーザーがモデルの発話中に中断できる機能に特に注力してきたという。
「オムニ」モデルとしてのLlama 4
今週モーガン・スタンレー主催のカンファレンスでの発言で、Metaのチーフプロダクトオフィサー、クリス・コックス(Chris Cox)氏は、Llama 4が「オムニ」モデルになると述べた。このモデルはテキストや他のタイプのデータと同様に、音声をネイティブに解釈し出力することが可能になるという。
中国AIラボDeepSeekとの競争
中国のAIラボDeepSeekが開発したオープンモデルの成功は、Metaのモデルと同等かそれ以上のパフォーマンスを示しており、これがLlamaの開発を加速させている。Metaは、DeepSeekがどのようにしてモデルの実行とデプロイのコストを削減したかを解明するため、緊急対応チーム(ウォールーム)を設置したと伝えられている。
引用元:TechCrunch
Meta’s next Llama models may have upgraded voice features