- AnthropicがClaudeユーザーに対し、9月28日までにAI訓練用データ利用の可否を選択するよう要求
- 従来30日で削除されていた会話データが、オプトアウトしない限り5年間保持される仕様に変更
- 企業顧客は対象外で、個人ユーザーのみが対象となる新方針
- 業界全体でのデータ保持方針変更とプライバシー問題への懸念が拡大
Anthropicの新データ利用方針の詳細
Anthropicは8月28日、AI開発企業として大きな方針転換を発表した。これまでコンシューマー向けチャットデータをモデル訓練に使用していなかった同社が、今後はユーザーとの会話やコーディングセッションをAIシステムの訓練に活用したいと表明。さらに、オプトアウトしないユーザーのデータ保持期間を5年間に延長すると発表した。
これは大幅な方針変更である。従来、Anthropicのコンシューマー向け製品ユーザーには、プロンプトと会話出力が30日以内にAnthropic社のバックエンドから自動削除されると説明されていた。例外は「法的またはポリシー上の理由で長期保持が必要な場合」や、ポリシー違反としてフラグが立てられた入力の場合で、その際は最大2年間保持される可能性があった。
Claude Free・Pro・Maxユーザーが対象、企業顧客は除外
今回の新方針は、Claude Free、Pro、Maxの各ユーザー、およびClaude Codeユーザーが対象となる。一方、Claude Gov、Claude for Work、Claude for Education、APIアクセスを利用するビジネス顧客は対象外となっている。これはOpenAIが企業顧客をデータ訓練方針から保護している手法と同様のアプローチである。
競合他社との競争激化が背景
Anthropicは今回の変更について、ユーザーの選択権を重視する観点から説明している。同社は「オプトアウトしないことで、有害コンテンツ検出システムの精度向上と、無害な会話の誤フラグ減少に貢献できる」と述べ、「将来のClaudeモデルのコーディング、分析、推論スキル向上にも寄与し、最終的に全ユーザーにとってより良いモデルの実現につながる」と主張している。
しかし、その背景にはより現実的な要因が存在する。他の大規模言語モデル企業と同様、Anthropicはブランドイメージよりもデータをより必要としている状況だ。AI モデルの訓練には膨大な量の高品質な会話データが必要で、数百万件のClaude インタラクションへのアクセスは、OpenAIやGoogleなどの競合他社に対するAnthropic の競争優位性向上に必要な実世界コンテンツを提供する。
OpenAIの法廷闘争と業界全体の方針変化
AI開発における競争圧力に加えて、今回の変更は、AnthropicやOpenAIなどの企業がデータ保持慣行に対する精査の高まりに直面している中での、業界全体のデータ方針の変化を反映している。
OpenAIは現在、The New York Timesその他の出版社が起こした訴訟により、削除されたチャットを含む全てのコンシューマー向けChatGPT会話を無期限に保持することを命じる法廷命令と闘っている状況だ。
6月、OpenAIのCOOであるBrad Lightcap(ブラッド・ライトキャップ)氏は、この命令を「包括的で不必要な要求」であり、「ユーザーに対して行ったプライバシーへの取り組みと根本的に相反する」と批判した。この法廷命令はChatGPT Free、Plus、Pro、Teamユーザーに影響するが、企業顧客とゼロデータ保持契約を結んでいるユーザーは引き続き保護されている。
ユーザーの混乱を招く利用方針変更の実装
懸念すべき点は、これらの変更する利用方針がユーザーにとってどれほど混乱を招いているかである。多くのユーザーがこれらの変更に気づいていない状況が続いている。
公平を期すために述べれば、現在全てが急速に動いているため、技術が変化するにつれてプライバシー方針も変化せざるを得ない。しかし、これらの変更の多くはかなり包括的でありながら、企業の他のニュースの中でほんの短時間しか言及されない。(火曜日のAnthropic ユーザー向けポリシー変更が非常に重大なニュースとは思えないのは、同社がこのアップデートをプレスページのどこに配置したかを見れば分かる。)
しかし、多くのユーザーは同意したガイドラインが変更されたことに気づいていない。なぜなら、そのデザインが実質的にそれを保証しているからだ。ほとんどのChatGPT ユーザーは、技術的には何も削除していない「削除」トグルをクリックし続けている。一方、Anthropicの新方針実装は馴染みのあるパターンに従っている。
新規ユーザーと既存ユーザーで異なる選択画面
新規ユーザーはサインアップ時に設定を選択するが、既存ユーザーには「コンシューマー利用規約およびポリシーの更新」という大きなテキストのポップアップと、目立つ黒い「承諾」ボタン、そしてその下により小さな文字で訓練許可の切り替えスイッチが表示される。この切り替えは自動的に「オン」に設定されている。
The Vergeが本日早くに指摘したように、このデザインはユーザーがデータ共有に同意していることに気づかずに「承諾」を素早くクリックしてしまう懸念を引き起こしている。
プライバシー専門家とFTCの警告
一方で、ユーザーの認識に対する重要性はこれまでになく高まっている。プライバシー専門家は長い間、AIを取り巻く複雑さが意味のあるユーザー同意をほぼ達成不可能にしていると警告してきた。
バイデン政権下では、連邦取引委員会(FTC)まで介入し、AI企業が「利用規約やプライバシーポリシーをこっそりと変更したり、ハイパーリンク、法律用語、細字の陰に開示を隠したりする」場合、執行措置のリスクを負うと警告した。
現在3人の委員しかいない委員会(本来は5人)が今日でもこれらの慣行に目を向けているかどうかは未解決の問題であり、我々はこの質問を直接FTCに投げかけている。
引用元:TechCrunch Anthropic users face a new choice – opt out or share your data for AI training