AIが書いたメッセージ、見抜けない人が大半
AI技術の進化により、個人的なメッセージであっても、AIが生成した文章と人間が書いた文章の区別がますます困難になっている。新たな研究によると、受け手の多くは、AIが書いたメッセージであっても、その事実が明かされなければ、人間が書いたと信じてしまう傾向が強いことがわかった。
実験の概要と驚くべき結果
筆者と同僚のJiaqi Zhu氏は、米国在住の1,300人以上(18~84歳)を対象に実験を行った。参加者には、謝罪メールなどのAIが生成した個人的なメッセージを提示し、その送り手に対する印象を評価してもらった。実験は4つのグループに分かれて行われた。
- グループ1:送り手に関する情報なし(日常と同じ状況)
- グループ2:メッセージが人間によって書かれたものと告知
- グループ3:メッセージがAIによって生成されたと告知
- グループ4:送り手が人間かAIか不明と告知
その結果、「AI告知ペナルティ」と呼ばれる現象が明らかになった。AIが書いたと告知されたメッセージを受け取った参加者は、同じ内容でも人間が書いたと告知された場合と比べて、送り手を「怠惰」「不誠実」「努力不足」と評価する傾向が強かった。その一方で、送り手に関する情報が一切与えられなかったグループの評価は、人間が書いたと告知されたグループとほぼ同じポジティブな印象を示した。
この結果は、受け手がAIの存在に全く疑いを抱かないという驚くべき事実を示している。
AI使用経験が評価に与える影響は限定的
研究チームは、参加者自身のAI使用経験が評価に影響を与えるかどうかも調査した。その結果、AIを頻繁に使用する人(少なくとも2日に1回)であっても、AI告知があった場合の評価はわずかに緩和される程度で、全体的な傾向に大きな変化は見られなかった。
つまり、AI使用経験の有無にかかわらず、受け手はメッセージの内容から送り手を人間と判断し、同じ印象を抱く傾向が強いことがわかった。
なぜこの問題が重要なのか
この研究の結果は、日常生活におけるテキストコミュニケーションのあり方に大きな影響を与える可能性がある。人は、書かれたメッセージから送り手の誠実さ、真摯さ、能力を判断し、友情、恋愛、仕事などの人間関係において意思決定を行う。しかし、今回の研究で明らかになったように、受け手はAIの使用を疑うことなく、人間が書いたと信じてしまう傾向が強い。
この状況は、倫理的なジレンマを引き起こす。AIを秘密裏に使用する人は、その事実が明かされずに利益を享受できる一方で、正直にAI使用を告白した人は評判を落とすリスクを負うことになる。長期的には、このような認識のずれが、日常の文章コミュニケーションにおける「書く」という行為の意味そのものを変えてしまう可能性がある。
今後の課題と展望
研究チームは、なぜ受け手がAIの存在に気づかないのか、その理由についてさらなる調査が必要だと指摘している。考えられる要因として、参加者がAIの能力を過小評価していた可能性や、参加者自身がAIを使用した経験がなかった可能性が挙げられる。しかし、実験結果からは、AI使用経験の有無にかかわらず、受け手の反応に大きな違いは見られなかった。
今後、AI技術がさらに進化し、人間らしい文章を生成できるようになれば、この問題はますます深刻化する可能性がある。そのため、社会全体でAI使用に関する透明性を高める仕組みや、倫理的なガイドラインの策定が求められるだろう。
「私たちの研究は、AIが書いた文章が人間のそれと区別できない時代に、受け手の認識と実際の送り手の意図との間に大きなギャップが存在することを示しています。このギャップがもたらす倫理的・社会的影響について、今後さらなる議論が必要です。」
— 研究著者