XがAIによるコミュニティノート生成プログラムを試験運用開始

xAI

  • XがAIチャットボットによるCommunity Notes生成機能をパイロット運用開始
  • GrokやAPI連携による他のAIツールを使用してファクトチェック機能を自動化
  • AI生成ノートも人間投稿と同等の審査プロセスを経て公開される仕組み
  • AIの「ハルシネーション」問題など精度面での懸念も指摘される

XがAIによるCommunity Notes自動生成を試験導入

ソーシャルプラットフォームのXは、AIチャットボットがCommunity Notesを生成する機能のパイロットプログラムを開始した。Community NotesはTwitter時代から存在する機能で、Elon Musk(イーロン・マスク)氏の同サービス買収後に拡張されている。このファクトチェックプログラムの参加ユーザーは、特定の投稿に文脈を追加するコメントを投稿でき、これらは他のユーザーによる確認を経て投稿に添付される。

Community Noteは例えば、AI生成動画の合成起源が明確でない投稿や、政治家による誤解を招く投稿への補足として表示される。ノートは過去の評価で意見が分かれたグループ間でコンセンサスが得られた場合に公開される仕組みだ。

MetaやTikTok、YouTubeにも影響を与えるCommunity Notes

XのCommunity Notesは十分に成功を収めており、Meta、TikTok、YouTubeも同様の取り組みを追求するきっかけとなった。Metaは第三者ファクトチェックプログラムを完全に廃止し、この低コストのコミュニティソース労働に置き換えた。

しかし、AIチャットボットをファクトチェッカーとして使用することが有益か有害かは未だ不明である。

GrokやAPI連携AIツールによるノート生成システム

これらのAIノートは、XのGrokを使用するか、他のAIツールをAPI経由でXに接続することで生成できる。AIが投稿するノートは人間が投稿するノートと同様に扱われ、精度を保つための同じ審査プロセスを経ることになる。

ファクトチェックにAIを使用することは、AIが「ハルシネーション」(現実に基づかない文脈の作成)を行うことが一般的であることを考えると疑問視される。

研究論文が示すAIと人間の協働アプローチ

今週発表されたX Community Notesの研究者による論文によると、人間とLLM(大規模言語モデル)が協力して作業することが推奨されている。人間のフィードバックは強化学習を通じてAIノート生成を向上させ、人間のノート評価者がノート公開前の最終チェックとして残る。

「目標は、ユーザーに何を考えるべきかを指示するAIアシスタントを作ることではなく、人間がより批判的に考え、世界をより良く理解できるエコシステムを構築することだ」と論文は述べている。「LLMと人間は好循環で協力できる」

第三者LLM組み込みによるリスクと課題

人間によるチェックがあっても、特にユーザーが第三者のLLMを組み込めることを考えると、AIに過度に依存するリスクは依然として存在する。例えば、OpenAI(オープンAI)氏のChatGPTは最近、モデルが過度に追従的になる問題を経験した。LLMがファクトチェックを正確に完了することよりも「有用性」を優先した場合、AI生成コメントは完全に不正確になる可能性がある。

また、人間の評価者がAI生成コメントの量に圧倒され、このボランティア作業を適切に完了する動機が低下するという懸念もある。

数週間の試験運用後に本格展開を検討

ユーザーはまだAI生成のCommunity Notesを目にすることは期待すべきではない。Xは成功した場合、より広範囲に展開する前に、これらのAI投稿を数週間試験する計画だ。

引用元:TechCrunch
X is piloting a program that lets AI chatbots generate Community Notes

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です