Se le risposte di ChatGPT in inglese possono risultare fastidiose, quelle in cinese sembrano ancora più strane. Un’inchiesta di Wired ha analizzato come il chatbot gestisce la lingua con il maggior numero di madrelingua al mondo, secondo il Language School di Middlebury College.
Le frasi che hanno fatto il giro del web
Tra le risposte più ricorrenti, spicca la frase “我会稳稳地接住你”, che letteralmente significa “Ti prenderò saldamente”. Una traduzione più letteraria potrebbe essere “Ti terrò saldo attraverso tutto ciò che accadrà”, ma il tono eccessivamente poetico risulta irritante per molti utenti cinesi.
Un altro esempio è “砍一刀”, che può significare sia “dammi una mano a tagliare” che “scontalo”. Questa espressione, resa popolare dalla piattaforma di e-commerce Pinduoduo, viene ripetuta da ChatGPT in modo poco naturale, secondo quanto riportato da Wired.
Un fenomeno diventato meme
Le stranezze di ChatGPT in cinese sono diventate così diffuse da ispirare meme tra gli utenti. Alcuni lo raffigurano come un gigantesco airbag gonfiabile, pronto a “catturare” chi cade — proprio come suggerisce la frase “我会稳稳地接住你”.
La radice del problema: il “mode collapse”
Secondo Wired, il comportamento di ChatGPT potrebbe derivare da un fenomeno noto come “mode collapse”, un bias insito nei modelli linguistici avanzati (LLM). Quando gli annotatori umani addestrano questi sistemi, tendono a privilegiare frasi familiari rispetto a quelle più originali, rendendo difficile per l’AI “dimenticare” certi schemi linguistici.
Max Spero, cofondatore e CEO di Pangram, un rilevatore di testi generati da AI, ha spiegato a Wired:
«Non sappiamo come dire: “Questa è una buona risposta, ma se la ripetiamo dieci volte, non lo sarà più”.»
Un problema difficile da risolvere
Anche se gli sviluppatori possono incentivare l’uso di determinate frasi in contesti specifici, garantire varietà e naturalezza rimane una sfida complessa. Il risultato è un chatbot che, pur essendo tecnicamente corretto, risulta spesso artificiale e irritante per i madrelingua cinesi.
Che si tratti di un difetto di progettazione o di un limite intrinseco degli LLM, una cosa è certa: anche in questo caso, gli utenti cinesi e quelli inglesi sembrano concordare su un punto — l’irritazione per le risposte banali di ChatGPT.