- OpenAIがGoogleのTPU(テンソル処理ユニット)をレンタルしてChatGPTなどの製品を稼働させていることが判明
- これまでNvidiaのGPUに依存していたOpenAIが初めて非Nvidia製チップを本格採用
- GoogleがAppleやAnthropicなど大手企業にTPUを外部提供する戦略の一環
- 推論処理コストの削減を狙うOpenAIと、クラウド事業拡大を目指すGoogleの利害が一致
OpenAIがGoogleのAIチップ採用を決断
OpenAIが最近、ChatGPTやその他の製品を稼働させるためにGoogleのAIチップのレンタルを開始したことが、関係者の話で6月27日に明らかになった。
ChatGPTの開発元であるOpenAIは、Nvidiaのグラフィックス処理ユニット(GPU)の最大級の購入企業の一つで、これらのAIチップをモデルの訓練と推論計算に使用している。推論計算とは、AIモデルが訓練された知識を使って新しい情報に基づいて予測や判断を行うプロセスだ。
AI業界の競合企業による意外な協業
OpenAIは成長する計算能力需要を満たすためにGoogle Cloudサービスを追加する計画で、これはAI分野における著名な競合企業2社による驚くべき協業を示している。Reutersが今月初めに独占報道していた内容である。
Googleにとって、この取引は社内向けテンソル処理ユニット(TPU)の外部利用を拡大する取り組みの一環だ。TPUは従来、内部使用に限定されていた。この戦略により、GoogleはビッグテックのAppleをはじめ、OpenAIの元幹部が立ち上げたChatGPT競合企業のAnthropicやSafe Superintelligenceなどのスタートアップを顧客として獲得した。
Sam Altman率いるOpenAIの戦略転換
GoogleのTPUをレンタルする動きは、OpenAIが初めて非Nvidia製チップを本格的に使用することを意味し、Sam Altman(サム・アルトマン)氏率いる同社が支援者であるMicrosoftのデータセンターへの依存から脱却する方向転換を示している。
この開発を最初に報じたThe Informationによると、TPUはNvidiaのGPUに対するより安価な代替手段としてTPUを押し上げる可能性がある。報告書によれば、OpenAIはGoogle Cloud経由でレンタルするTPUが推論コストの削減に寄与することを期待している。
GoogleがOpenAIに最高性能チップは提供せず
ただし、AI競争におけるOpenAIの競合企業であるGoogleは、最も強力なTPUをライバルにレンタルしていないと、Google Cloud従業員の話としてThe Informationが報じている。
Googleはコメントを控えており、OpenAIもReutersの取材に対して即座に回答していない。
Googleのクラウド事業成長戦略
GoogleがOpenAIを顧客リストに追加したことは、この技術大手がハードウェアからソフトウェアまでの社内AI技術を活用してクラウド事業の成長を加速させていることを示している。
引用元: Reuters
OpenAI turns to Google’s AI chips to power its products, source says