要点まとめ
- 米国の武器調達や爆発物製造に関する情報収集にAIが悪用されていたことが判明
- ChatGPTやMetaのAIが、テロ計画の立案に利用される可能性が指摘される
- AIの悪用防止に向けた規制強化の必要性が高まる
AIの悪用事例が明らかに
米連邦捜査局(FBI)は、フロリダ州在住のジョナサン・パウエル容疑者が、ChatGPTを使用して爆発物の製造方法や武器の調達方法に関する情報を収集していた事実を明らかにした。2023年7月の利用履歴によると、パウエル容疑者はChatGPTに対して「爆発物の製造方法」や「テロ攻撃の計画立案」に関する詳細な質問を繰り返し行っていたという。FBIの捜査により、これらの情報は実際の攻撃計画に使用される可能性があったことが判明した。
MetaのAIシステムも標的に
FBIの報告書によれば、犯罪者たちはMetaの大規模言語モデルLlama 2も同様の目的で利用していた。特に2023年後半には、Llama 2に対して武器製造や爆発物に関する詳細な情報を引き出そうとする試みが確認された。これらのAIシステムは、テロリストや犯罪組織が具体的な攻撃計画を練る際のツールとして悪用される危険性が高いと指摘されている。
AI規制強化への動き
この事態を受け、バイデン政権は2024年1月、AIの悪用を防ぐための新たな規制フレームワークの策定に着手した。特に、テロや犯罪に関連する情報へのアクセス制限や、AIシステムのセキュリティ強化が重要な課題として挙げられている。OpenAIやMetaなどの主要AI企業に対しては、AIモデルへのセーフガード実装の義務付けや、定期的なセキュリティ監査の実施が求められることになる。
引用元:Decrypt
How Criminals Used ChatGPT, Meta AI for US Terror Attacks