- Epoch AIの研究によると、ChatGPTの平均クエリ消費電力は約0.3ワット時で、以前の推定値3ワット時よりもはるかに少ない。
- 消費電力は家庭用電化製品や冷暖房、自動車の使用と比較すると「大したことない」レベルである。
- AIの効率性向上にもかかわらず、AIインフラの拡大により全体の電力需要は急増すると予測されている。
- OpenAIの「思考型モデル」への移行により、将来的にはより多くの電力が必要になる可能性がある。
ChatGPTの電力消費に関する新たな研究結果
OpenAIのチャットボットプラットフォームであるChatGPTは、これまで考えられていたほど電力を消費しないかもしれない。しかし、その消費量は主にChatGPTの使用方法と、クエリに応答するAIモデルによって大きく異なるということが新しい研究で明らかになった。
非営利AI研究機関であるEpoch AIによる最近の分析では、一般的なChatGPTのクエリがどれだけのエネルギーを消費するかを計算しようと試みた。よく引用される統計では、ChatGPTは1つの質問に答えるのに約3ワット時の電力を必要とし、これはGoogle検索の10倍に相当するとされている。
Epochの分析による消費電力の実態
Epochはこれが過大評価だと考えている。
ChatGPTの最新デフォルトモデルであるGPT-4oを参照として使用し、Epochは平均的なChatGPTクエリが約0.3ワット時を消費することを発見した。これは多くの家庭用電化製品よりも少ない量だ。
「このエネルギー使用量は、通常の家電製品の使用や家の冷暖房、車の運転と比較すると大したことではない」と、この分析を実施したEpochのデータアナリスト、Joshua You(ジョシュア・ユー)氏は語った。
AIのエネルギー消費と環境への影響に関する議論
AIのエネルギー使用量とその環境への影響は、AI企業がインフラストラクチャーの拡大を急速に進める中で、激しい議論の的となっている。先週だけでも、100以上の組織からなるグループが公開書簡を発表し、AI業界と規制当局に対して、新しいAIデータセンターが天然資源を枯渇させ、公共事業者が再生不可能なエネルギー源に依存することを強いないよう保証することを求めた。
ユー氏はTechCrunchに対し、彼の分析は時代遅れになった以前の研究によって促されたと語った。例えば、ユー氏は、3ワット時の推定値に到達した報告書の著者が、OpenAIがモデルを実行するために古い非効率的なチップを使用していると仮定していたことを指摘した。
研究の限界と実際の消費電力
「AIが今後数年間で多くのエネルギーを消費することを正しく認識している公の議論を多く見てきたが、今日のAIに使われているエネルギーを正確に描写していなかった」とユー氏は語った。「また、同僚の何人かは、最も広く報告されている1クエリあたり3ワット時という推定値が、かなり古い研究に基づいており、ざっと計算してみると高すぎると感じていた」。
確かに、Epochの0.3ワット時という数字も近似値である。OpenAIは正確な計算に必要な詳細を公開していない。
この分析では、画像生成や入力処理などのChatGPT機能によって発生する追加のエネルギーコストも考慮されていない。ユー氏は、「長い入力」を伴うChatGPTクエリ(例えば、長いファイルが添付されているクエリ)は、典型的な質問よりも最初により多くの電力を消費する可能性があることを認めた。
AIの効率向上とインフラ拡大による電力需要の増加
ユー氏は、ベースラインのChatGPT電力消費が上昇すると予想している。
「AIはより高度になり、このAIをトレーニングするにはおそらくはるかに多くのエネルギーが必要になり、この将来のAIは今日の人々がChatGPTを使用する方法よりも、はるかに多くのタスクとより複雑なタスクを処理するためにより集中的に使用される可能性がある」とユー氏は述べた。
近月のAI効率における著しいブレークスルーがあったにもかかわらず、AIが展開される規模は巨大で電力を大量に消費するインフラの拡大を促進すると予想されている。Randのレポートによると、今後2年間でAIデータセンターはカリフォルニア州の2022年の電力容量(68 GW)のほぼすべてを必要とする可能性がある。2030年までに、フロンティアモデルのトレーニングには8つの原子炉(8 GW)に相当する電力出力が必要になる可能性があるとレポートは予測している。
ChatGPTの拡大と電力インフラへの影響
ChatGPTだけでも膨大な数の人々にリーチしており、そのサーバー需要も同様に巨大になっている。OpenAIは複数の投資パートナーとともに、今後数年間で新しいAIデータセンタープロジェクトに数十億ドル(数千億円)を費やす計画だ。
思考型モデルの台頭と将来の電力需要
OpenAIの注目は、AI業界全体と同様に、思考型モデル(reasoning models)にシフトしている。これらは一般的に実行可能なタスクの面でより能力が高いが、実行にはより多くのコンピューティングを必要とする。GPT-4oのようなほぼ瞬時にクエリに応答するモデルとは対照的に、思考型モデルは回答する前に数秒から数分間「考える」プロセスを経るが、これによりより多くのコンピューティングリソースが消費され、結果的により多くの電力が使用される。
「思考型モデルは古いモデルができないタスクをますます引き受け、そのためにより多くのデータを生成し、両方ともより多くのデータセンターを必要とする」とユー氏は述べた。
効率化への取り組みと利用者へのアドバイス
OpenAIはo3-miniのようなより電力効率の高い思考型モデルのリリースを開始した。しかし、少なくとも現時点では、効率性の向上が思考型モデルの「思考」プロセスと世界中でのAI使用の増加による電力需要の増加を相殺する可能性は低いようだ。
ユー氏は、AI使用によるエネルギーフットプリントを心配する人々には、ChatGPTなどのアプリを使用する頻度を減らすか、必要なコンピューティングを最小限に抑えるモデルを選択することを提案している。
「OpenAIのGPT-4o-miniのような小さなAIモデルを試してみることができる」とユー氏は言う。「また、大量のデータを処理または生成する方法でそれらを控えめに使用することもできる」。
引用元:TechCrunch
ChatGPT may not be as power-hungry as once assumed