- カリフォルニア州議員Scott Wiener氏が新法案SB 53を通じて、世界最大のAI企業に安全性プロトコルの公開と安全性インシデント報告を義務化する取り組みを再開
- 前回のSB 1047法案は知事により拒否されたが、今回は透明性要件に焦点を当て、企業への責任追及は含まない穏健なアプローチを採用
- 法案にはAI研究所の従業員を保護する内部告発者保護条項と、スタートアップ・研究者向けのCalComputeクラウドクラスター創設も含まれる
- ニューヨーク州でも類似のRAISE Actが検討されており、州レベルでのAI規制の動きが全米に拡大
Scott Wiener氏、AI安全性報告書義務化法案SB 53を修正
カリフォルニア州議員Scott Wiener氏は水曜日、最新の法案SB 53に新たな修正案を導入した。この法案は、世界最大のAI企業に対して安全性・セキュリティプロトコルの公開と、安全性インシデント発生時の報告書提出を義務付けるものだ。
法案が成立すれば、カリフォルニア州は主要AI開発者に対して意味のある透明性要件を課す初の州となる。対象にはOpenAI、Google、Anthropic、xAIなどが含まれる可能性が高い。
前回のSB 1047法案の経緯とGavin Newsom知事の対応
Wiener氏の前回のAI法案SB 1047には、AIモデル開発者に安全性報告書の公開を求める類似の要件が含まれていた。しかし、シリコンバレーがこの法案に対して激しく反対し、最終的にGavin Newsom知事によって拒否された。カリフォルニア州知事はその後、Stanford大学の主要研究者でWorld Labsの共同創設者であるFei-Fei Li氏を含むAIリーダーのグループに対し、政策グループを形成し、州のAI安全性への取り組み目標を設定するよう求めた。
カリフォルニア州のAI政策グループは最近、最終提言を発表し、「堅牢で透明性のある証拠環境」を確立するために「業界がシステムに関する情報を公開する要件」の必要性を挙げた。Wiener氏の事務所は、SB 53の修正案はこの報告書に大きく影響を受けたとプレスリリースで述べている。
SB 53の目標と前回法案との違い
「この法案は引き続き進行中の作業であり、今後数週間でこの提案を最も科学的で公正な法律に練り上げるため、全ての関係者と協力することを楽しみにしている」とWiener氏はリリースで述べた。
SB 53は、Newsom知事がSB 1047では達成できなかったとしたバランスを取ることを目的としている。理想的には、カリフォルニア州のAI産業の急速な成長を阻害することなく、最大のAI開発者に対する意味のある透明性要件を創設することだ。
「これらは私たちの組織や他の団体がしばらく話し合ってきた懸念事項だ」と、非営利AI安全性グループEncodeの州政策担当VP Nathan Calvin氏はインタビューで語った。「企業が一般市民や政府に対して、これらのリスクに対処するためにどのような対策を講じているかを説明することは、最低限の合理的なステップのように感じられる。」
内部告発者保護とCalComputeクラスター創設
法案はまた、自社の技術が社会に「重大なリスク」をもたらすと信じるAI研究所の従業員に対する内部告発者保護を創設する。「重大なリスク」は法案内で、100人以上の死亡や負傷、または10億ドル(約1,550億円)以上の損害をもたらすものと定義されている。
加えて、法案は大規模AI開発を行うスタートアップや研究者を支援するパブリッククラウドコンピューティングクラスターCalComputeの創設も目指している。
SB 1047とは異なり、Wiener氏の新法案はAIモデル開発者をAIモデルの害に対して責任を負わせるものではない。SB 53は、主要AI開発者からAIモデルを微調整したり、オープンソースモデルを使用したりするスタートアップや研究者に負担をかけないよう設計されている。
法案の審議プロセスと全米への影響
新たな修正案により、SB 53は現在、承認のためカリフォルニア州議会のプライバシー・消費者保護委員会に送られている。そこを通過すれば、法案はNewsom知事の机に到達する前に他の複数の立法機関を通過する必要がある。
米国の反対側では、ニューヨーク州知事Kathy Hochul氏が類似のAI安全性法案RAISE Actを検討している。これも大手AI開発者に安全性・セキュリティ報告書の公開を求めるものだ。
RAISE ActやSB 53のような州AI法の運命は、連邦議員が州AI規制に対する10年間のモラトリアムを検討した際に一時的に危険にさらされた。これは企業が対処しなければならないAI法の「パッチワーク」を制限する試みだった。しかし、この提案は7月初めの上院投票で99対1で否決された。
業界の反応と透明性への取り組み
「AIが安全に開発されることを確実にすることは議論の余地があるべきではない。それは基本的なことであるべきだ」と、Y Combinatorの元社長Geoff Ralston氏は声明で述べた。「議会が率先して、最先端モデルを構築する企業からの透明性と説明責任を要求するべきだ。しかし、真剣な連邦政府の行動が見えない中、州が介入しなければならない。カリフォルニア州のSB 53は、州のリーダーシップの思慮深く、よく構成された例だ。」
これまでのところ、議員たちは州が義務付ける透明性要件にAI企業を参加させることに失敗している。Anthropicは、AI企業への透明性向上の必要性を広く支持しており、カリフォルニア州のAI政策グループからの提言についても控えめな楽観論を表明している。しかし、OpenAI、Google、Metaなどの企業はこれらの取り組みにより抵抗的だった。
主要AIモデル開発者は通常、AIモデルの安全性報告書を公開しているが、最近数か月間では一貫性に欠けている。例えば、Googleは史上最も先進的なAIモデルであるGemini 2.5 Proについて、利用可能になってから数か月後まで安全性報告書を公開しないことを決定した。OpenAIもGPT-4.1モデルの安全性報告書を公開しないことを決定した。その後、第三者研究により、それが以前のAIモデルよりも整合性が低い可能性が示唆された。
SB 53は以前のAI安全性法案のトーンダウンされたバージョンを表すが、それでもAI企業に現在よりも多くの情報公開を強制する可能性がある。今のところ、Wiener氏が再びこれらの境界線をテストする中、彼らは注意深く見守っている。
引用元:TechCrunch
California lawmaker behind SB 1047 reignites push for mandated AI safety reports