- OpenAIが「推論」AIモデルo1のより強力なバージョン「o1-pro」を開発者API向けに発表
- o1-proの料金は入力で1Mトークンあたり150ドル、出力で600ドルと非常に高額
- 早期の印象では、o1-proの性能向上は限定的との見方も
OpenAIの高額推論モデル
OpenAIが「推論」AIモデルo1のより強力なバージョン「o1-pro」を開発者API向けに発表した。
OpenAIによれば、o1-proはo1よりも多くの計算リソースを使用して「一貫してより良い応答」を提供するという。現在、このモデルはOpenAI APIサービスで少なくとも5ドル(約750円)を支出した選ばれた開発者のみが利用可能であり、その料金は非常に高額だ。
OpenAIはモデルに入力される100万トークン(約75万語)あたり150ドル(約22,500円)、モデルによって生成される100万トークンあたり600ドル(約90,000円)を請求している。これはOpenAIのGPT-4.5の入力料金の2倍、通常のo1の10倍の価格である。
OpenAIはo1-proの性能向上が開発者にこの高額な料金を支払う価値があると納得させると見込んでいる。
OpenAIの期待と初期の反応
「APIにおけるo1-proは、より多くの計算リソースを使ってより深く考え、最も難しい問題にさらに良い回答を提供するo1のバージョンだ」とOpenAIの広報担当者は語った。「開発者コミュニティから多くのリクエストを受けた後、さらに信頼性の高い応答を提供するためにAPIに導入できることに興奮している」
しかし、12月からChatGPT Proの契約者向けにOpenAIのAI搭載チャットボットプラットフォームChatGPTで利用可能になっていたo1-proの初期の印象は、それほど肯定的ではなかった。ユーザーによれば、このモデルは数独パズルに苦戦し、単純な錯視ジョークにも混乱したという。
さらに、昨年後半のOpenAI内部のベンチマークでは、o1-proはコーディングや数学の問題で標準のo1よりわずかに良い性能しか示さなかった。ただし、ベンチマークによれば、これらの問題により確実に回答できるという結果も出ている。
引用元:TechCrunch
OpenAI’s o1-pro is the company’s most expensive AI model yet