OpenAIが安全性報告書なしでGPT-4.1をリリース

OpenAI ChatGPT

  • OpenAIが新AIモデル「GPT-4.1」を安全性報告書なしでリリース
  • 同社は「GPT-4.1はフロンティアモデルではない」として別個のシステムカード不要と主張
  • AIラボの安全性報告基準低下に対する専門家からの批判が高まる
  • 自主的な透明性確保の取り組みに関する懸念が浮上

システムカードなしでのモデルリリース

月曜日、OpenAIは新しいAIモデルファミリー「GPT-4.1」を発表した。同社によれば、このモデルは特にプログラミングのベンチマークなど、特定のテストにおいて既存のモデルよりも優れたパフォーマンスを示したという。しかし、GPT-4.1はOpenAIのモデルリリースに通常付随する安全性報告書(モデルカードまたはシステムカードとして知られる)が添付されないままリリースされた。

火曜日の朝の時点で、OpenAIはGPT-4.1の安全性報告書をまだ公開しておらず、公開する予定もないようだ。TechCrunchへの声明で、OpenAIの広報担当者Shaokyi Amdo(シャオキー・アムド)氏は「GPT-4.1はフロンティアモデルではないため、それに対する別個のシステムカードはリリースされない」と述べた。

業界標準から外れる透明性の欠如

AIラボが特定のモデルの安全性を評価するために社内および第三者パートナーと実施したテストの種類を示す安全性報告書をリリースすることは、業界の標準的な慣行である。これらの報告書は時折、モデルが人間を欺く傾向があることや、危険なほど説得力があることなど、好ましくない情報を明らかにすることもある。概して、AI業界はこれらの報告書をAIラボによる独立研究とレッドチーミング(脆弱性評価)をサポートする誠実な取り組みとみなしている。

しかし、過去数ヶ月間、主要なAIラボは報告基準を下げている傾向が見られ、安全性研究者からの反発を招いている。Googleのように安全性報告書の公開を遅らせる企業もあれば、通常の詳細さに欠ける報告書を公開する企業もある。

OpenAIの透明性確保に関する懸念

OpenAIの最近の実績も例外ではない。12月には、同社は実際に本番環境にデプロイしたバージョンとは異なるモデルのベンチマーク結果を含む安全性報告書をリリースしたことで批判を浴びた。先月には、「deep research」というモデルを、そのモデルのシステムカードを公開する数週間前にリリースした。

元OpenAI安全性研究者のSteven Adler(スティーブン・アドラー)氏はTechCrunchに対し、安全性報告書は法律や規制によって義務付けられているわけではなく、自主的なものであると指摘した。しかしOpenAIはそのモデルの透明性を高めるために複数の政府に対してコミットメントを行っている。2023年の英国AIサミットに先立ち、OpenAIはブログ投資で、システムカードを説明責任へのアプローチの「重要な部分」と呼んだ。また、2025年のパリAIアクションサミットに向けて、OpenAIはシステムカードがモデルのリスクに関する貴重な洞察を提供すると述べている。

安全性実践への懸念が高まる中でのリリース

「システムカードは、透明性とどのような安全性テストが行われたかを説明するためのAI業界の主要なツールだ」とAdler氏はTechCrunchへの電子メールで述べた。「今日の透明性規範とコミットメントは最終的には自主的なものなので、特定のモデルに対するシステムカードをリリースするかどうか、いつリリースするかを決めることは各AI企業次第だ。」

GPT-4.1がシステムカードなしでリリースされるのは、現職および元従業員がOpenAIの安全性実践に懸念を表明している時期でもある。先週、Adler氏と他12名の元OpenAI従業員は、Elon Musk(イーロン・マスク)氏のOpenAIに対する訴訟で法廷助言書を提出し、営利目的のOpenAIが安全性作業で手抜きをする可能性があると主張した。Financial Timesは最近、ChatGPTの開発企業が競争圧力に押され、安全性テスターに割り当てる時間とリソースを削減したと報じている。

効率性の向上と安全性への影響

GPT-4.1はOpenAIのラインナップで最高性能のAIモデルではないが、効率性とレイテンシーの面で大幅な向上を実現している。Secure AI Projectの共同創設者でポリシーアナリストのThomas Woodside(トーマス・ウッドサイド)氏はTechCrunchに対し、性能向上によって安全性報告書がより重要になると語った。モデルが洗練されるほど、それがもたらす可能性のあるリスクも高まるという。

多くのAIラボは、安全性報告要件を法律に成文化する取り組みに反対してきた。例えば、OpenAIはカリフォルニア州のSB 1047法案に反対した。この法案は、多くのAI開発者に対し、一般に公開するモデルの監査と安全性評価の公表を義務付けるものだった。

引用元:TechCrunch
OpenAI ships GPT-4.1 without a safety report

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です