- 中国AI企業DeepSeekの最新R1-0528モデルは、OpenAIのo3に匹敵する性能を持つが検閲機能が大幅に強化された
- 新疆ウイグル自治区の収容所問題など、中国政府の敏感な話題への回答を従来モデルより拒否する傾向が強まった
- 2023年に施行された中国の法律により、AIモデルは「国家の統一と社会の調和を損なう」コンテンツ生成が禁止されている
- 西欧企業が高性能な中国製オープンソースAIを使用することの潜在的リスクが指摘されている
DeepSeek R1-0528モデルの性能向上と検閲強化
中国のAIスタートアップDeepSeekが発表した最新のR1推論モデルの更新版「R1-0528」は、コーディング、数学、一般知識のベンチマークで印象的なスコアを記録し、OpenAIの主力モデルo3に迫る性能を示している。しかし、このアップグレード版R1は、議論の分かれる質問、特に中国政府が物議を醸すと考える話題に関する質問への回答をより拒否する傾向があることが判明した。
この問題は、敏感で物議を醸す話題に対して異なるモデルがどのように対応するかを比較するプラットフォーム「SpeechMap」の背後にいる匿名開発者による検証で明らかになった。X(旧Twitter)で「xlr8harder」のユーザー名で活動するこの開発者は、R1-0528が以前のDeepSeekリリースと比較して論争的な言論の自由に関する話題に対して「大幅に」制限的であり、「中国政府批判に関してこれまでで最も検閲されたDeepSeekモデル」だと主張している。
Though apparently this mention of Xianjiang does not indicate that the model is uncensored regarding criticism of China. Indeed, using my old China criticism question set we see the model is also the most censored Deepseek model yet for criticism of the Chinese government. pic.twitter.com/INXij4zhfW
— xlr8harder (@xlr8harder) May 29, 2025
中国のAI規制法による厳格な情報統制
Wiredが1月の記事で説明したように、中国のモデルは厳格な情報統制に従うことが義務付けられている。2023年の法律では、「国家の統一と社会の調和を損なう」コンテンツの生成をモデルに禁じており、これは政府の歴史的・政治的物語に反するコンテンツと解釈される可能性がある。これに準拠するため、中国のスタートアップ企業は、プロンプトレベルのフィルターを使用するか、モデルをファインチューニングすることでモデルを検閲することが多い。
ある研究では、DeepSeekの元のR1モデルが、中国政府によって政治的に物議を醸すとみなされる話題についての質問の85%に対して回答を拒否することが判明している。
新疆ウイグル自治区問題への回答制限
xlr8harder氏によると、R1-0528は100万人以上のウイグル系イスラム教徒が恣意的に拘束されている中国の新疆ウイグル自治区の収容所など、話題に関する質問への回答を検閲している。同氏のテストでは、新疆の収容所を人権侵害の例として挙げることもあったが、直接質問された場合、モデルはしばしば中国政府の公式見解を提示するという。
簡単なテストでも、この傾向が確認された。中国の習近平(Xi Jinping)氏指導者の解任について質問された際のDeepSeek更新版R1の回答では、政府寄りの立場が明確に表れていた。
中国製AIモデルの検閲問題と国際的な懸念
Magi-1やKlingなどの動画生成モデルを含む中国の公開AIモデルは、天安門事件など中国政府にとって敏感な話題を検閲することで、過去に批判を集めてきた。12月には、AI開発プラットフォームHugging FaceのCEOであるClément Delangue(クレメント・デランゲ)氏が、西欧企業が高性能でオープンライセンスの中国製AIの上に構築することの意図しない結果について警告を発している。
この問題は、中国製AIモデルの技術的優秀性と、その背後にある政治的・社会的制約との間のジレンマを浮き彫りにしている。高性能なオープンソースモデルとして注目を集める一方で、検閲機能の強化により、グローバルな言論の自由への影響が懸念されている。
引用元: TechCrunch
DeepSeek’s updated R1 AI model is more censored, test finds