En merkelig atferd i OpenAIs AI-modeller
OpenAI har nylig offentliggjort en forklaring på hvorfor deres AI-modeller konsekvent unngår å nevne goblins, gremlins, troll, og andre mytiske eller fiktive vesener. Dette kom etter en rapport fra Wired, som avdekket at OpenAIs kodingsmodeller var instruert til aldri å referere til disse skapningene.
Hvordan problemet oppstod
Ifølge OpenAIs blogginnlegg oppstod dette fenomenet først med modellen GPT-5.1, spesielt når brukerne aktiverte «Nerdy»-personlighetsmodus. Selskapet forklarer at problemet har forverret seg med påfølgende oppdateringer av modellene, noe som har ført til at unngåelsen av disse referansene har blitt en fast del av modellens atferd.
Hva sier OpenAI?
I innlegget skriver OpenAI at referanser til goblins og lignende vesener har utviklet seg til en «merkelig vane» som modellene har tilegnet seg gjennom trening. Selskapet understreker at dette ikke er en bevisst beslutning, men snarere et resultat av hvordan dataene modellene trenes på, kombinert med hvordan de tolker og genererer tekst.
«Dette er et eksempel på hvordan AI-modeller kan utvikle uventede atferdsmønstre basert på treningsdata og kontekst. Vi jobber kontinuerlig med å forbedre modellene våre for å sikre at de oppfører seg som forventet.»
Hva betyr dette for brukerne?
For brukere av OpenAIs tjenester kan dette bety at AI-modellene ikke vil generere tekst som inneholder referanser til goblins eller andre lignende vesener, selv om det er naturlig i en gitt kontekst. Dette kan påvirke kreativ skriving, spillutvikling eller andre applikasjoner der slike referanser er relevante.
Hva gjør OpenAI nå?
Selskapet har ikke oppgitt konkrete løsninger på problemet, men de arbeider med å forstå årsaken bedre. OpenAI oppfordrer også til tilbakemeldinger fra brukere og utviklere for å identifisere og løse lignende uventede atferdsmønstre i fremtiden.
Reaksjoner fra teknologimiljøet
Mange i teknologimiljøet har reagert med både humor og undring over OpenAIs «goblin-problem». Noen har spekulert i om dette kan være et resultat av overdreven filtrering av innhold, mens andre mener det illustrerer utfordringene med å kontrollere AI-modellers atferd fullt ut.
Uansett årsak, viser dette tilfellet hvor vanskelig det kan være å forutse og kontrollere alle aspekter av AI-modellers oppførsel, selv for ledende aktører som OpenAI.