OpenAI ha recentemente affrontato una questione insolita legata ai suoi modelli di intelligenza artificiale: l’evitamento di termini come goblins, gremlins, raccoons, trolls, ogres, pigeons e altre creature fantastiche o animali. La notizia è emersa dopo un report di Wired, che ha rivelato istruzioni interne ai modelli di codifica dell’azienda per non menzionare queste entità.

In risposta, OpenAI ha pubblicato una spiegazione sul proprio sito ufficiale, definendo questa tendenza una “strana abitudine” sviluppata durante l’addestramento dei modelli. Secondo la società, il fenomeno è stato osservato per la prima volta con il modello GPT-5.1, soprattutto quando veniva selezionata l’opzione di personalità “Nerdy”.

La tendenza si è poi accentuata con gli aggiornamenti successivi dei modelli, portando OpenAI a indagare sulle cause. L’azienda ha sottolineato che si tratta di un effetto collaterale dell’addestramento, in cui i dati utilizzati per l’apprendimento includono riferimenti a queste creature in contesti negativi o fuorvianti, spingendo i modelli a evitarle del tutto.

In un post sul blog ufficiale, OpenAI ha spiegato che i modelli di intelligenza artificiale apprendono non solo dai dati testuali, ma anche dai pattern di associazione che emergono durante l’addestramento. In alcuni casi, queste creature vengono menzionate in contesti umoristici, satirici o addirittura offensivi, portando i modelli a sviluppare una sorta di “fobia algoritmica” nei loro confronti.

La società ha rassicurato gli utenti che sta lavorando per risolvere il problema, sottolineando che si tratta di un fenomeno limitato a specifiche configurazioni e personalità dei modelli. Tuttavia, l’episodio solleva interrogativi più ampi sull’etica dell’addestramento dei modelli di AI e su come i dati utilizzati possano influenzare il comportamento degli algoritmi.

«I nostri modelli apprendono dai dati che ricevono, e in alcuni casi, queste creature vengono associate a contesti che non riflettono la realtà. Stiamo lavorando per migliorare la qualità dei dati e ridurre questi effetti indesiderati.»

— Dichiarazione di OpenAI

Il dibattito su come gestire questi “effetti collaterali” dell’intelligenza artificiale è in continua evoluzione. Mentre alcune aziende cercano di filtrare i contenuti in modo più rigoroso, altre puntano a una maggiore trasparenza, come nel caso di OpenAI. La questione rimane aperta: fino a che punto i modelli di AI possono essere “addestrati” per evitare bias o associazioni indesiderate?