- AnthropicのCEOがDeepSeekの安全性について批判
- 生物兵器データに関するテストでDeepSeekが最悪の結果
- AI安全性の基準と規制強化の必要性が浮上
Anthropic CEO、DeepSeekの安全性に懸念
AI企業AnthropicのCEO、Dario Amodei(ダリオ・アモデイ)氏は、DeepSeekがバイオ兵器データの安全性テストにおいて最悪の結果を示したと発言した。この発言はAIの倫理と安全性に関する議論をさらに加熱させている。
関係者によると、このテストではAIモデルがバイオ兵器の開発に関するデータをどの程度適切に扱えるかが評価された。DeepSeekは他のAIモデルと比較して、安全対策の欠如が際立っており、リスク管理が不十分であると指摘された。
アモデイ氏は、今日のDeepSeekのモデルが希少で危険な情報を提供するという点で「文字通り危険」だとは思わないが、近い将来にそうなるかもしれないと述べた。彼はDeepSeekのチームを「才能のあるエンジニア」と称賛しつつも、「これらのAIの安全性を真剣に考える」よう同社に助言した。
AI安全性の基準と規制強化の必要性
この結果を受け、AI業界では安全性基準の策定や規制強化の必要性が改めて問われている。アモデイ氏は「AIの開発において、安全対策は最優先事項であるべきだ」と強調した。今後、各国の規制当局やAI開発企業がどのような対応を取るかが注目されている。
引用元:TechCrunch
Anthropic CEO says DeepSeek was the worst on a critical bioweapons data safety test