- MetaがInstagramやWhatsAppのアップデートの最大90%をAI搭載システムで潜在的な害やプライバシーリスクを評価する計画を策定
- 2012年のFacebook(現Meta)と米連邦取引委員会(FTC)の合意により、これまで人間の評価者が実施していたプライバシー審査をAI化
- 新システムでは製品チームがアンケートに記入し、AI特定リスクとともに「即座の判定」を受ける仕組み
- プライバシープログラムに80億ドル(約1.2兆円)を投資、低リスク判定は技術活用し複雑な問題は人間の専門知識に依存
MetaのAI自動化リスク評価システム導入計画
NPRが確認したとされる内部文書によると、AI搭載システムがまもなく、InstagramやWhatsAppなどのMetaアプリのアップデートの最大90%について、潜在的な害やプライバシーリスクの評価を担当する可能性がある。
NPRによると、2012年のFacebook(現Meta)と米連邦取引委員会(FTC)の間の合意により、同社は製品のプライバシー審査を実施し、潜在的なアップデートのリスクを評価することが義務付けられている。これまで、これらの審査は主に人間の評価者によって実施されてきた。
新AI自動評価システムの仕組みと運用プロセス
新システムの下で、Metaは製品チームに自らの作業についてアンケートに記入するよう求め、通常はAIが特定したリスクとともに「即座の判定」を受け取り、アップデートや機能がリリース前に満たすべき要件も提示される予定だと報じられている。
このAI中心のアプローチにより、Metaは製品をより迅速にアップデートできるようになるが、ある元幹部はNPRに対し、これは「より高いリスク」も生み出すと述べている。「製品変更の負の外部性が、世界で問題を引き起こし始める前に防がれる可能性が低くなる」からだという。
Metaのプライバシープログラム投資と規制対応方針
声明の中で、Metaの広報担当者は同社が「プライバシープログラムに80億ドル(約1.2兆円)以上を投資している」と述べ、「規制上の義務を満たしながら、人々のための革新的な製品を提供する」ことにコミットしていると表明した。
「リスクが進化し、我々のプログラムが成熟するにつれて、リスクをより良く特定し、意思決定を合理化し、人々の体験を改善するためにプロセスを強化している」と広報担当者は述べた。「我々は低リスクの決定に一貫性と予測可能性を加えるために技術を活用し、新規または複雑な問題の厳格な評価と監視については人間の専門知識に依存している。」
業界専門家によるAI自動化リスク評価への懸念
この記事は、Metaの声明からの追加引用により更新されている。AI中心のアプローチがもたらす「より高いリスク」について、元幹部が指摘した「製品変更の負の外部性が世界で問題を引き起こし始める前に防がれる可能性の低下」は、大規模なソーシャルメディアプラットフォームにおけるAI自動化の潜在的な課題を浮き彫りにしている。
引用元: TechCrunch
Meta plans to automate many of its product risk assessments