OpenAI har lanceret en ny standardmodel for ChatGPT, der ifølge virksomheden reducerer antallet af hallucinationer – dvs. falske eller vildledende oplysninger – med mere end 50%. Den nye model, GPT-5.5 Instant, er allerede blevet implementeret som standard for alle brugere af tjenesten.
Færre fejl i kritiske emner
Ifølge OpenAI er der sket en betydelig forbedring af nøjagtigheden i den nye model. I interne tests producerede GPT-5.5 Instant 52,5% færre hallucinerede påstande end forgængeren GPT-5.3 Instant, når der blev stillet spørgsmål inden for områder som medicin, jura og økonomi.
Derudover reducerede den nye model 37,3% af de fejlagtige påstande i de mest udfordrende samtaler, som brugere tidligere havde markeret for faktuelle fejl. Dette tyder på, at OpenAI har lykkedes med at forbedre modellens evne til at levere præcise og pålidelige svar, selv i komplekse og højrisikoscenarier.
Hvad betyder dette for brugerne?
For almindelige brugere betyder den nye model, at ChatGPT nu leverer mere pålidelige svar i hverdagen. Dette er særligt vigtigt, når der stilles spørgsmål af kritisk karakter, hvor fejlinformation kan have alvorlige konsekvenser. OpenAI understreger, at forbedringerne er baseret på omfattende interne evalueringer og brugerfeedback.
Hvordan fungerer forbedringen?
OpenAI har ikke offentliggjort detaljerede tekniske oplysninger om, hvordan de har opnået disse forbedringer. Det vides dog, at modellen er blevet trænet på større og mere præcise datasæt samt justeret med avancerede algoritmer til at identificere og minimere fejl. Virksomheden arbejder løbende på at forfine sine modeller for at sikre, at de lever op til de stigende krav til pålidelighed og nøjagtighed.
"Vi har fokuseret på at reducere hallucinationer i højrisikosituationer, hvor præcision er afgørende. Resultaterne viser, at vi er på rette vej," siger en talsmand for OpenAI.
Fremtidige udfordringer
Selvom de nye resultater er lovende, påpeger eksperter, at ingen AI-model er perfekt. Hallucinationer kan stadig forekomme, især i meget specialiserede eller nye emner, hvor dataene er begrænsede. OpenAI fortsætter derfor med at udvikle og teste sine modeller for at sikre løbende forbedringer.
Brugerne opfordres til fortsat at verificere vigtige oplysninger via pålidelige kilder, selv når de bruger den nye model. OpenAI understreger, at ansvaret for at kontrollere informationens nøjagtighed fortsat ligger hos brugeren.