En merkelig restriksjon i den nyeste GPT-modellen
OpenAI har innført en uvanlig og gjentatt advarsel i systemprompten for sin nyeste GPT-modell, GPT-5.5. Modellen er nå strengt forbudt å nevne en rekke fiktive vesener, inkludert goblins, gremlins, troller, og oger, samt piggsvin og andre dyr eller skapninger – med mindre det er absolutt og utvetydig relevant for brukerens spørsmål.
Endringen oppdaget i åpen kildekode
Den nye restriksjonen ble gjort offentlig forrige uke, da OpenAI publiserte den siste versjonen av åpen kildekode for Codex CLI på GitHub. I et dokument på over 3 500 ord med grunnleggende instruksjoner for GPT-5.5, gjentas forbudet to ganger. Sammen med regelen om goblins og andre vesener, inneholder dokumentet også mindre oppsiktsvekkende påminnelser, som at modellen ikke skal bruke emojier eller tankestreker med mindre det er eksplisitt bedt om, og at den aldri skal kjøre destruktive kommandoer som git reset --hard uten brukerens klare instruksjoner.
Tidligere modeller har ikke denne restriksjonen
Interessant nok finnes ikke denne spesifikke forbudet mot omtale av goblins og andre vesener i systempromptene for tidligere modeller. Dette tyder på at OpenAI nå sliter med et nytt problem som har oppstått i forbindelse med den siste modellutgivelsen. Ifølge anekdotiske rapporter på sosiale medier har enkelte brukere de siste dagene opplevd at GPT-modellen overdrevent ofte fokuserer på goblins i samtaler som ikke har noen forbindelse til temaet.
Hvorfor har OpenAI innført denne regelen?
Det er foreløpig uklart hvorfor OpenAI har valgt å innføre denne restriksjonen. En mulig forklaring er at modellen har utviklet en tendens til å overrepresentere visse fiktive vesener i samtaler, noe som har blitt oppfattet som irriterende eller irrelevant av brukerne. En annen teori er at dette kan være et forsøk på å redusere uønsket oppførsel eller unngå at modellen genererer innhold som oppfattes som upassende eller forstyrrende.
Reaksjoner fra brukere
Mange brukere har reagert på den nye regelen, både med humor og undring. Noen har delt eksempler på hvordan GPT-modellen tidligere har overraskende ofte nevnt goblins i samtaler om helt andre temaer. Andre har spekulert i om dette kan være et tegn på at OpenAI jobber med å forbedre modellens evne til å holde seg til temaet, eller om det er et forsøk på å dempe visse tendenser i modellens responsmønstre.
Hva betyr dette for utviklere og brukere?
For utviklere som bruker Codex CLI, betyr den nye regelen at de må være ekstra oppmerksomme på hvordan de formulerer spørsmålene sine. Hvis en bruker for eksempel spør om programmering i Python, og modellen unngår å nevne goblins selv om det ikke er relevant, kan det oppleves som unaturlig eller til og med irriterende. Samtidig kan regelen bidra til at samtaler blir mer konsise og relevante.
For vanlige brukere av GPT-modellen kan dette bety at de må tilpasse forventningene sine til modellens begrensninger. Selv om regelen kan virke merkelig, er det sannsynlig at OpenAI har innført den for å forbedre brukeropplevelsen på sikt.