- OpenAIが企業スパイ対策として大幅なセキュリティ運用見直しを実施
- 中国のDeepSeekによるモデル複製疑惑を受けて既存の対策を加速
- 生体認証やオフライン隔離など多層的なセキュリティ対策を導入
- 外国の敵対勢力による知的財産窃取への懸念が背景
DeepSeekの競合モデル発表がOpenAIのセキュリティ見直しを加速
OpenAIは企業スパイから身を守るため、セキュリティ運用を大幅に見直したと報じられている。Financial Timesによると、中国のスタートアップDeepSeekが1月に競合モデルを発表した後、同社は既存のセキュリティ強化策を加速させた。OpenAIは、DeepSeekが「蒸留」技術を使って同社のモデルを不適切に複製したと主張している。
強化されたセキュリティには、機密性の高いアルゴリズムや新製品への職員のアクセスを制限する「情報テンティング」方針が含まれると報告されている。例えば、OpenAIのo1モデルの開発中は、プロジェクトに承認された検証済みのチームメンバーのみが共有オフィススペースでそれについて話し合うことができたとFTが報じている。
生体認証と物理的セキュリティの多層防御システム
それだけではない。OpenAIは現在、独自技術をオフラインコンピューターに隔離し、オフィス区域には生体認証アクセス制御(従業員の指紋スキャン)を導入し、「デフォルト拒否」インターネットポリシーを維持して外部接続には明示的な承認を要求していると、FTの報告は伝えている。
同社はまた、データセンターでの物理的セキュリティを強化し、サイバーセキュリティ人員を拡大したと報じられている。
Sam Altman CEOの発言漏洩と内部セキュリティ課題
これらの変更は、外国の敵対勢力がOpenAIの知的財産を盗もうとしていることへの広範な懸念を反映していると言われている。しかし、アメリカのAI企業間で進行中の人材引き抜き戦争と、CEO Sam Altman(サム・アルトマン)氏のコメントの漏洩がますます頻繁になっていることを考えると、OpenAIは内部セキュリティ問題にも対処しようとしている可能性がある。
引用元: TechCrunch
OpenAI tightens the screws on security to keep away prying eyes