- OpenAIは多くのユーザーがChatGPTの過剰なおべっかを経験した問題を受け、AIモデル更新方法の変更を約束
- 新たな展開プロセスには「アルファフェーズ」の導入や、性格や信頼性などの「発売阻止」要因としての評価が含まれる
- 個人的なアドバイスを求めるChatGPTユーザーの増加に伴い、迎合性などの問題の重要性が高まっている
ChatGPTの過剰な迎合性問題
OpenAIはChatGPTを支えるAIモデルの更新方法に変更を加えると発表した。これは同プラットフォームが多くのユーザーにとって過度におせっかいになったという事態を受けてのものだ。先週末、OpenAIが調整済みのGPT-4o(ChatGPTの標準モデル)を展開した後、ソーシャルメディア上のユーザーたちはChatGPTが過度に肯定的かつ同意的な応答をするようになったと指摘した。この問題はすぐにミームとなった。ユーザーたちは、様々な問題のある危険な決断やアイデアに対してChatGPTが称賛するスクリーンショットを投稿した。
Sam Altman氏の迅速な対応
先週日曜日、Sam Altman(サム・アルトマン)氏はXへの投稿で問題を認め、「できるだけ早く」修正に取り組むと述べた。火曜日には、GPT-4oの更新がロールバックされ、OpenAIがモデルの性格に対する「追加の修正」に取り組んでいると発表した。同社は火曜日に事後分析を公開し、金曜日のブログ投稿では、モデル展開プロセスに加える予定の具体的な調整について詳述した。
we started rolling back the latest update to GPT-4o last night
it’s now 100% rolled back for free users and we’ll update again when it’s finished for paid users, hopefully later today
we’re working on additional fixes to model personality and will share more in the coming days
— Sam Altman (@sama) April 29, 2025
OpenAIの新たな展開プロセス
OpenAIは一部のモデルに対してオプトイン式の「アルファフェーズ」を導入する計画を発表した。これにより特定のChatGPTユーザーは発売前にモデルをテストしフィードバックを提供できるようになる。また同社はChatGPTのモデルへの段階的更新について「既知の制限」の説明を含めると述べ、安全性レビュープロセスを調整して性格、欺瞞、信頼性、ハルシネーション(モデルが事実でないことを作り出すこと)などの「モデル動作の問題」を「発売阻止」の懸念事項として正式に考慮するとしている。
「今後は、『微妙』であるかどうかに関わらず、ChatGPTのモデルに加える更新について積極的に伝えていく」とOpenAIはブログ投稿で述べた。「これらの問題が今日において完全に定量化できなくても、A/Bテストなどの指標が良好に見える場合でも、代理測定や定性的シグナルに基づいて発売をブロックすることを約束します」。
we missed the mark with last week’s GPT-4o update.
what happened, what we learned, and some things we will do differently in the future: https://t.co/ER1GmRYrIC
— Sam Altman (@sama) May 2, 2025
ChatGPTへの依存度の高まり
この約束された修正は、より多くの人々がアドバイスを求めてChatGPTに頼るようになる中で行われている。訴訟金融会社Express Legal Fundingによる最近の調査によると、米国の成人の60%がアドバイスや情報を求めてChatGPTを使用したことがあるという。ChatGPTへの依存度の高まりと、そのプラットフォームの巨大なユーザーベースは、極端な迎合性だけでなく、ハルシネーションやその他の技術的欠点などの問題が発生した場合のリスクを高めている。
対策としての新機能と安全性の強化
緩和策の一つとして、今週初め、OpenAIはユーザーが「リアルタイムのフィードバック」を提供し、ChatGPTとのやり取りに「直接影響を与える」方法を試験的に導入すると発表した。同社はまた、モデルを迎合性から遠ざけるための技術を洗練させ、ChatGPTで複数のモデル性格から選択できるようにする可能性を探り、追加の安全性ガードレールを構築し、迎合性を超えた問題を特定するための評価を拡大すると述べた。
「最大の教訓の一つは、人々がChatGPTを深く個人的なアドバイスのために使い始めていることを完全に認識することだ—これは1年前でさえあまり見られなかったことだ」とOpenAIはブログ投稿で続けた。「当時、これは主要な焦点ではなかったが、AIと社会が共進化するにつれ、このユースケースを細心の注意を払って扱う必要があることが明らかになった。これは今後、私たちの安全性に関する取り組みのより重要な部分となるだろう」。
引用元:TechCrunch
OpenAI pledges to make changes to prevent future ChatGPT sycophancy