- OpenAIが先週公開したサポートページによると、特定の将来的AIモデルへのアクセスに本人確認プロセスが必要になる可能性
- 「Verified Organization」と呼ばれる検証プロセスは、最先端モデルとサービスへのアクセス権を提供
- この新しい検証プロセスはAIの悪用防止とセキュリティ強化が目的
OpenAIが導入する本人確認プロセス
OpenAIが先週自社ウェブサイトに公開したサポートページによると、同社は今後、特定の将来的AIモデルにアクセスするために組織に本人確認プロセスの完了を求める可能性がある。
「Verified Organization(検証済み組織)」と呼ばれるこの検証プロセスは、「開発者がOpenAIプラットフォーム上の最先端モデルと機能へのアクセスを解除するための新しい方法」とページには記されている。検証にはOpenAIのAPIがサポートする国のいずれかの政府発行IDが必要となる。一つのIDは90日ごとに一つの組織のみを検証でき、すべての組織が検証の対象となるわけではないとOpenAIは述べている。
「OpenAIでは、AIが広くアクセス可能であると同時に安全に使用されることを確実にする責任を真剣に受け止めている」とページには記されている。「残念ながら、少数の開発者が意図的にOpenAI APIを利用規約に違反して使用している。AIの安全でない使用を軽減しながら、より広範な開発者コミュニティに先進的なモデルを引き続き提供するために、検証プロセスを追加している」
高度化するAIモデルのセキュリティ強化
この新しい検証プロセスは、OpenAIの製品がより洗練され高性能になるにつれて、セキュリティを強化することを目的としている可能性がある。同社は、北朝鮮を拠点とする集団を含む、そのモデルの悪用を検出し軽減するための取り組みに関する複数の報告書を公開している。
OpenAI released a new Verified Organization status as a new way for developers to unlock access to the most advanced models and capabilities on the platform, and to be ready for the “next exciting model release”
– Verification takes a few minutes and requires a valid… pic.twitter.com/zWZs1Oj8vE
— Tibor Blaho (@btibor91) April 12, 2025
また、知的財産の盗難防止を目的としている可能性もある。今年初めのBloombergの報道によると、OpenAIは中国を拠点とするAI研究所DeepSeekに関連するグループが2024年後半にAPIを通じて大量のデータを抽出した可能性を調査していた。これはモデルトレーニングのためであり、OpenAIの利用規約違反となる。
引用元:TechCrunch
Access to future AI models in OpenAI’s API may require a verified ID