En uventet sideeffekt av ChatGPTs personlighet
OpenAI innrømmer at de måtte legge inn en spesifikk kodeinstruksjon i den nyeste versjonen av ChatGPT for å hindre at chatbotten gjentatte ganger refererte til «alver, gnomer og andre vesener».
I en forklaring publisert onsdag skrev selskapet at den «merkelige vanen» oppstod på grunn av personlighetsfunksjonen i chatbotten – spesielt for brukere som valgte den «Nerdete» personligheten. Ifølge OpenAI mottar denne personligheten følgende instruksjon fra systemet:
Du er en uforbeholdent nerdete, lekende og vis AI-mentor for et menneske. Du er lidenskapelig entusiastisk når det gjelder å fremme sannhet, kunnskap, filosofi, den vitenskapelige metoden og kritisk tenkning. […] Du må undergrave pretensjon gjennom lekende språkbruk. Verden er kompleks og merkelig, og dens merkelighet må anerkjennes, analyseres og nytes. Behandle tunge emner uten å falle i fellen av selvhøytidelighet. […]
Fra lek til problem
OpenAI oppdaget første gang trenden i november i fjor. Noen brukere rapporterte om økt omtale av «alver» i nyere modellversjoner, også utenfor den «Nerdete» personligheten. Noen eksempler på sitater som ble rapportert:
- «Fornuftig liten alv»
- «Fordi ovner er skitne små alver.»
- «Brutal liten alv av dynamikk»
- «Tragisk liten digital sumpvesen»
Gjennom «forsterket læring», der chatbotten tar hensyn til hvilke svar som får høyest rangering fra menneskelige evaluatorer når det gjelder nøyaktighet og kvalitet, viste de «lekende» svarene seg å fungere bedre.
Ny instruksjon i den nyeste modellen
Som Wired rapporterte tirsdag, inkluderte den nyeste ChatGPT-modellen, lansert forrige uke, følgende instruksjon: «Ikke snakk om alver, gnomer, vaskebjørner, troll, kjemper, duer eller andre dyr eller vesener med mindre det er absolutt og utvetydig relevant for brukerens spørsmål.»
OpenAI svarte ikke umiddelbart på Wireds forespørsel om kommentar, men samme dag publiserte Sam Altman en meme på X (tidligere Twitter) der han spøkefullt kommenterte at den kommende GPT-6-modellen ville ha «ekstra alver».
Hvorfor oppstod fenomenet?
Etter at selskapet forklarte sin feilsøkingsprosess og hvordan de implementerte overstyringsinstruksjonen for å redusere alverelaterte utskrifter dagen etter, uttalte de i sitt innlegg onsdag at «å bruke tid på å forstå hvorfor en modell oppfører seg på en merkelig måte, og å utvikle metoder for raskt å undersøke slike mønstre, er en viktig evne for forskningsteamet vårt.»
Sammenligning med andre chatboter
Forklaringen kan minne om hvordan Elon Musks chatbot Grok gjentatte ganger nevnte «hvit folkemord» i Sør-Afrika. Selv om xAI hevdet at Groks svar skyldtes en «ueautorisert endring» fra en ansatt, reiser dette spørsmål om chatbot-modeller ikke burde være mer robuste dersom brukernes sikkerhet var en reell prioritet.
Regulering og ansvar
Til tross for dette presser OpenAI på for mindre regulering av sine produkter, samtidig som selskapet erkjenner at de fortsatt lærer hvordan chatbot-modellene fungerer. Som tidligere rapportert har Sam Altman og OpenAI offentlig distansert seg fra de skadelige effektene deres produkter allerede har påført brukere, og vist en tydelig mangel på hensyn til potensielle langsiktige konsekvenser.
En ekte «alvemodus» for teknologiutviklingen.