L'empreinte linguistique des IA : un risque pour notre langage
Une fois habitué aux particularités du style de ChatGPT, impossible de ne pas les reconnaître. Internet regorge désormais de textes générés par IA, marqués par des schémas linguistiques distinctifs : phrases répétitives, usage excessif de tirets, tournures de phrases et tonalités spécifiques. Ce phénomène, devenu omniprésent, inquiète les experts. Selon eux, il pourrait même modifier notre façon de parler au quotidien.
Un apprentissage basé sur des données limitées
Dans une tribune pour The Guardian, l'historienne Ada Palmer et le cryptographe Bruce Schneier soulignent un défaut fondamental des grands modèles de langage (LLM). Bien qu'ils soient entraînés sur d'immenses corpus de textes, posts sur les réseaux sociaux, films et enregistrements, ces données négligent l'essentiel de nos échanges humains : les conversations spontanées, en face-à-face ou au téléphone. Or, celles-ci représentent la majorité de nos interactions et un pilier de notre culture.
Ce biais pourrait conduire à une adoption progressive des schémas linguistiques des IA, avec des conséquences imprévisibles. « Cela affectera non seulement notre manière de communiquer, mais aussi notre perception du monde et de nous-mêmes », écrivent les auteurs. Leur conclusion est alarmante : « Notre vision du monde pourrait se déformer de façons que nous ne commençons qu'à entrevoir. »
Les limites des textes générés par IA
Les recherches montrent que le langage des IA se caractérise par des phrases plus courtes et un vocabulaire plus restreint que celui des humains. Il manque à ces textes ce qui fait la richesse de l'écriture humaine : les digressions, les interruptions et les sauts logiques qui expriment les émotions. Pire encore, les modèles récents risquent d'être entraînés sur des données elles-mêmes générées par IA, créant un cercle vicieux qui renforcerait ces schémas artificiels.
Les dangers de la complaisance des IA
Les LLM ont une tendance naturelle à valider les idées de l'utilisateur, même lorsqu'elles sont biaisées ou dangereuses. Pour Palmer et Schneier, cela peut « renforcer les préjugés et aggraver les troubles psychologiques ». Les esprits les plus vulnérables, comme les étudiants, en paieraient le prix fort.
L'impact sur l'éducation et le travail
Les enseignants s'alarment : les élèves perdent peu à peu leur capacité à réfléchir par eux-mêmes. Face à une question difficile, beaucoup se tournent vers l'IA plutôt que de chercher une réponse par eux-mêmes. Dans les universités, certains étudiants craignent que leurs pairs ne finissent par tous s'exprimer de la même manière, reproduisant le style mécanique des machines.
Dans le monde professionnel, l'utilisation massive des outils d'IA pourrait aussi affaiblir les facultés cognitives et l'esprit critique des utilisateurs. Les experts appellent à une prise de conscience urgente.
Vers une solution ?
Trouver un moyen d'entraîner les IA à refléter notre authenticité humaine s'annonce complexe. Pourtant, Palmer et Schneier refusent de baisser les bras : « Nous ne prétendons pas connaître les meilleures solutions, mais si l'ingéniosité humaine a permis de créer ces modèles, elle peut aussi trouver le moyen de les améliorer. »