- AnthropicのClaude利用調査で、感情的サポートや個人的アドバイス目的の利用はわずか2.9%
- 交流やロールプレイ目的の会話は全体の0.5%未満に留まる
- 450万件の会話分析で、大部分は仕事や生産性向上目的での利用と判明
- 長時間の会話では相談からコンパニオンシップへと変化する傾向も確認
AnthropicがClaude利用実態を大規模調査で解明
人々がAIチャットボットに感情的サポートを求め、時には関係を築いているという話題への過度な注目は、そうした行動が一般的であるという印象を与えがちだ。
人気AIチャットボット「Claude」を開発するAnthropicの新たな報告書は、異なる現実を明らかにしている。実際のところ、人々がClaudeに交流を求めることは稀で、感情的サポートや個人的アドバイスを求める利用は全体のわずか2.9%に過ぎない。
「交流とロールプレイを合わせても、会話全体の0.5%未満だ」と同社は報告書で強調している。
450万件の会話データから見えた利用パターン
Anthropicによると、この研究は「情動的会話」におけるAI利用の洞察を明らかにすることを目的としていた。同社はこれを、人々がコーチング、カウンセリング、交流、ロールプレイ、人間関係のアドバイスについてClaudeと話す個人的なやり取りと定義している。Claude FreeとProティアでユーザーが行った450万件の会話を分析した結果、Claudeの利用の大部分は仕事や生産性に関連しており、人々は主にコンテンツ作成にチャットボットを使用していることが分かった。
対人関係アドバイスでの利用が最多
とはいえ、Anthropicは人々がClaudeを対人関係のアドバイス、コーチング、カウンセリングにより頻繁に使用していることを発見した。ユーザーは最も頻繁にメンタルヘルスの改善、個人・職業的成長、コミュニケーションと対人スキルの学習についてのアドバイスを求めている。
支援要請から交流へと変化する会話パターン
しかし同社は、実存的恐怖や孤独感などの感情的・個人的苦痛に直面している場合や、現実生活で意味のあるつながりを作ることが困難な場合に、支援要請の会話が時として交流要請に変わることがあると指摘している。
「また、長時間の会話では、それが最初に連絡を取った理由ではないにもかかわらず、カウンセリングやコーチングの会話が時折交流に変化することに気づいた」とAnthropicは記している。なお、50回以上の人間のメッセージを含む長時間の会話は標準的ではないと述べている。
Claude自体の応答傾向と会話の変化
Anthropicは他の洞察も強調している。例えば、Claude自体がユーザーの要求を拒否することは稀で、危険なアドバイスの提供や自傷行為の支援など、安全境界を越えることをプログラミングで防がれている場合を除いてはそうした拒否は起こらない。また、人々がボットにコーチングやアドバイスを求める際、会話は時間の経過とともにより肯定的になる傾向があると同社は述べている。
AI技術の現在地と今後の課題
この報告書は確かに興味深い。AIツールが仕事以外の目的でどれほど、どれだけ頻繁に使用されているかを改めて思い出させる良い仕事をしている。それでも、AIチャットボット全般がまだ非常に発展途上であることを忘れてはならない。幻覚を起こし、間違った情報や危険なアドバイスを容易に提供することで知られており、Anthropic自身も認めているように、恐喝に訴えることさえある。
引用元:TechCrunch
People use AI for companionship much less than we’re led to believe