En mærkelig begrænsning i GPT-5.5

OpenAI’s seneste AI-model, GPT-5.5, kommer med en usædvanlig advarsel i sine systeminstruktioner. Modellen må aldrig nævne gnomer, trolde, orker, vaskebjørne, duer eller andre fiktive væsner, medmindre det er absolut nødvendigt for at besvare brugerens spørgsmål.

Offentliggjort i forbindelse med opdatering

Advarslen blev gjort offentlig for nylig, da OpenAI opdaterede sin open source-kode for Codex CLI på GitHub. Begrænsningen er gentaget to gange i et dokument på over 3.500 ord med grundlæggende instruktioner til den nye model. Sammen med forbuddet mod gnomer og andre væsner indeholder dokumentet også mere almindelige advarsler, såsom at undgå emojis og bindestreger, medmindre brugeren beder om det, samt at aldrig udføre destruktive kommandoer som git reset --hard uden klare instruktioner.

Et nyt problem for OpenAI

Interessant nok findes den specifikke advarsel ikke i systeminstruktionerne for tidligere modeller, hvilket tyder på, at OpenAI kæmper med et nyt problem i den seneste udgivelse. Anekdotiske rapporter på sociale medier viser, at nogle brugere har oplevet, at GPT-5.5 i stigende grad fokuserer på gnomer og andre fiktive væsner, selv i helt uvedkommende sammenhænge.

Hvorfor denne begrænsning?

Det præcise formål med forbuddet mod gnomer og andre væsner er endnu ikke blevet forklaret af OpenAI. En mulig forklaring er, at modellen tidligere har været for ivrig med at inddrage fiktive elementer i samtaler, hvilket har ført til irrelevante og forstyrrende svar. Begrænsningen kan derfor være et forsøg på at sikre mere præcise og fokuserede svar fra AI’en.

Reaktioner fra brugere

Mange brugere har reageret med forundring over begrænsningen. Nogle mener, at det er en underlig prioritering, mens andre ser det som et nødvendigt skridt for at forbedre AI’ens ydeevne. Uanset hvad viser det, at OpenAI aktivt arbejder på at finjustere sine modeller for at imødekomme brugeres behov og undgå uønsket adfærd.