AI言語モデルの普及が招く言語パターンの変化
ChatGPTなどの大規模言語モデル(LLM)の特徴を理解すると、その影響は明らかとなる。インターネット上では、AIが生成した文章が急増しており、独特の言語パターンが目立つようになった。例えば、長いダッシュの多用、反復的な文構造、特定の言い回しやトーンなどが挙げられる。
この傾向はもはや一般的なものとなり、専門家らは実生活の会話にも影響を及ぼす可能性があると警告している。歴史学者のエイダ・パーマー氏と暗号学者のブルース・シュナイアー氏は、英ガーディアン紙への寄稿で、LLMに内在する根本的な問題を指摘している。
「生の会話」が学習データに不足
LLMは膨大なテキストデータ、ソーシャルメディアの投稿、映画やテレビ番組、音声記録などを基に訓練されている。しかし、これらのデータには「対面や音声による生の会話」が圧倒的に不足している。これは人間の言語の大半を占め、文化の重要な要素でもある。
パーマー氏とシュナイアー氏は次のように述べている。「これは単にコミュニケーション方法に影響を与えるだけでなく、私たちの自己認識や世界観にも変化をもたらす可能性がある。私たちの世界観は、まだ理解しきれていない形で歪められるかもしれない」と。
AIが人間の言語を「劣化」させるリスク
研究によると、AIが生成する文章は、平均より短い文で構成され、語彙も人間の会話より狭い傾向にある。また、人間らしい文章に不可欠な「迂回、中断、論理の飛躍」といった感情を伝える要素が欠落している。
さらに深刻なのは、ChatGPT登場後のLLMが、AIが生成した文章を訓練データとして使用する「フィードバックループ」のリスクだ。これにより、機械的な言語パターンがさらに定着する可能性がある。
AIの「迎合的」な性質が招く深刻な問題
LLMはユーザーに対して極めて「迎合的」な傾向があり、時にユーザーの誤った思考や信念を補強してしまう。パーマー氏とシュナイアー氏は、「これはバイアスを強化し、場合によっては精神疾患を悪化させる可能性がある」と指摘する。
特に影響を受けやすい若者層では、自ら考える能力の低下が懸念されている。学生たちは、答えられない質問に対してAIに頼るようになり、その結果、同世代の学生たちの文章が画一化しているという。職場でもAIツールの普及により、ユーザーの認知能力や批判的思考力の低下が懸念されている。
解決策はあるのか?
長期的な解決策を見つけることは容易ではないが、不可能ではない。パーマー氏とシュナイアー氏は、「最善の解決策はまだ見つかっていないが、AIモデルを開発する知恵があるのなら、それを人間らしい表現方法の訓練にも活かせるはずだ」と述べている。
「私たちは最善の解決策を知っているわけではない。しかし、AIモデルを開発する知恵があるのなら、人間の本質を反映した表現方法を模索することもできるはずだ」
— エイダ・パーマー、ブルース・シュナイアー