OpenAI元エンジニアが語る職場の実態 – Codex開発の舞台裏と急成長の代償

OpenAI ChatGPT

  • OpenAI元エンジニアのCalvin French-Owen(カルヴィン・フレンチオーウェン)氏が1年間の在籍経験を詳細に公開
  • 同社は1年間で従業員数が1,000人から3,000人に急拡大、組織運営に課題
  • コーディングエージェントCodexを7週間という短期間で開発・リリース
  • AI安全性への取り組みは実用的な問題に重点を置く

Segment共同創業者がOpenAIでの1年間を振り返る

OpenAIの有望な新製品開発に携わったエンジニアCalvin French-Owen(カルヴィン・フレンチオーウェン)氏が、3週間前に同社を退職し、在籍期間中の経験について詳細なブログ記事を公開した。French-Owen氏は顧客データスタートアップSegmentの共同創業者で、同社は2020年にTwilioに32億ドル(約4,700億円)で買収されている。

同氏は「ドラマ」が原因で退職したわけではなく、スタートアップ創業者として再び活動したいという理由で退職したと説明している。1年間の在籍期間中、OpenAIの最も有望な新製品の一つであるCodexの開発に携わった。CodexはCursorやAnthropicのClaude Codeと競合するコーディングエージェントである。

OpenAIの急激な成長と組織の混乱

French-Owen氏によると、OpenAIは彼の在籍1年間で従業員数が1,000人から3,000人に急拡大した。このLLM(大規模言語モデル)メーカーには、このような急激な採用を行う理由がある。ChatGPTは史上最も急成長した消費者向け製品であり、競合他社も急速に成長している。3月時点でChatGPTの月間アクティブユーザー数は5億人を超え、急速に増加している。

しかし、この急成長は組織運営に深刻な問題をもたらした。French-Owen氏は「これほど急速に拡大すると、すべてが破綻する。企業としてのコミュニケーション方法、報告構造、製品出荷方法、人材管理と組織化、採用プロセスなど」と記している。

小規模なスタートアップのように、社員は官僚的な手続きをほとんど経ずにアイデアに基づいて行動する権限を持っている。しかし、これは複数のチームが重複した作業を行うことも意味する。「キュー管理やエージェントループなどのライブラリを半ダースほど見た」と同氏は例として挙げている。

Google出身エンジニアから新卒博士まで混在する開発環境

コーディングスキルも、10億ユーザーに対応するコードを書けるベテランのGoogle出身エンジニアから、そうでない新卒博士まで幅広く存在する。これに柔軟性の高いPythonが組み合わさることで、中央コードリポジトリ、いわゆる「バックエンドモノリス」は「多少のゴミ捨て場」のような状態になっていると描写している。

システムは頻繁に故障し、実行に過度な時間を要することがある。しかし、上級エンジニアリングマネージャーはこの状況を認識しており、改善に取り組んでいるという。

Meta初期を彷彿とさせる「リリース精神」

OpenAIはまだ自社が巨大企業であることを認識していないようで、Slackですべての業務を行っている。French-Owen氏は、初期のFacebook時代の「迅速に動き、破壊する」というMetaの文化を強く思い起こさせると観察している。同社にはMeta出身の採用者も多い。

French-Owen氏は、8人のエンジニア、4人の研究者、2人のデザイナー、2人のマーケティング担当者、1人のプロダクトマネージャーからなるシニアチームが、ほぼ徹夜状態でCodexを開始から終了まで7週間という短期間で構築・リリースしたと説明している。

しかし、リリースは魔法のようだった。単にオンにしただけで、ユーザーを獲得した。「左サイドバーに表示されただけで、これほど即座に利用者が増加する製品は見たことがない。これがChatGPTの力だ」と同氏は述べている。

秘密主義の金魚鉢状態

ChatGPTは高度に監視されている企業である。これにより、一般への情報漏洩を抑制しようとする秘密主義の文化が生まれた。同時に、同社はXを注視している。投稿がバイラルになれば、OpenAIはそれを見て、場合によっては反応する。「友人が冗談で『この会社はTwitterの雰囲気で動いている』と言っていた」と同氏は記している。

AI安全性への取り組み – 理論より実践を重視

French-Owen氏は、OpenAIに対する最大の誤解は、同社が安全性に十分な関心を払っていないという認識だと示唆している。確かに、元OpenAI従業員を含む多くのAI安全性専門家が同社のプロセスを批判している。

人類への理論的リスクを懸念する悲観論者がいる一方で、社内では「ヘイトスピーチ、悪用、政治的偏見の操作、生物兵器の製造、自傷行為、プロンプトインジェクション」など、より実用的な安全性に焦点を当てているという。OpenAIは長期的な潜在的影響を無視しているわけではなく、それらを研究する研究者がおり、現在何億人もの人々が医療アドバイスからセラピーまで、あらゆる目的でLLMを使用していることを認識していると同氏は記している。

政府が監視している。競合他社も監視している(OpenAIも競合他社を監視している)。「賭け金は非常に高く感じられる」と同氏は述べている。

引用元:TechCrunch
A former OpenAI engineer describes what it’s really like to work there

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です