For præcis ét år siden stod Anthropics informationssikkerhedschef, Jason Clinton, frem med en kontroversiel påstand: inden for 12 måneder ville autonome AI-ansatte begynde at bevæge sig rundt i de digitale systemer hos store virksomheder verden over.
Clinton forklarede i et interview med Axios, at disse AI-entiteter ville have egne "hukommelser", specialiserede roller og endda firma-ID’er samt loginoplysninger. Men hans udtalelse var ikke blot en teknisk betragtning – det var en advarsel til it-sikkerhedsbranchen.
Et år senere er det imidlertid tydeligt, at Clintons forudsigelse var forhastet. Agentisk AI, som er betegnelsen for de autonome AI-ansatte, kæmper stadig med fundamentale udfordringer. Kritiske sikkerhedsfejl og resultater, der ikke lever op til forventningerne, har sat spørgsmålstegn ved teknologiens pålidelighed.
En undersøgelse offentliggjort tidligere i år konkluderede endda, at AI-agenter aldrig vil kunne blive pålidelige eller præcise værktøjer. Hvis dette er tilfældet, er deres evne til at bidrage økonomisk blevet kraftigt overvurderet – eller rettere sagt, overdrevet.
Clintons varsel følger et mønster hos Anthropic. I marts sidste år forudsagde CEO Dario Amodei, at AI inden for seks måneder ville skrive 90 % af al kode. Men da fristen udløb, viste det sig, at AI-værktøjer til kodning faktisk hæmmede softwareudviklere på grund af dårlig kvalitet og fejlbehæftet output.
Med de økonomiske incitamenter til at fastholde AI’s positive fremtidsudsigter er det tydeligt, at tech-toppen ikke længere er troværdige budbringere med indsigtsfulde analyser. I stedet fremstår de som desperate PR-strateger, der forsøger at holde AI-toget kørende, mens de store investeringer endnu ikke har båret frugt.
Anthropics tidligere fejlslagne løfter
Et eksempel på Anthropics tendens til at overvurdere AI’s kapaciteter er Claude Leak-lækagen, der afslørede, at virksomheden registrerer brugernes sprogbrug og klassificerer visse udtryk som "negative". Denne praksis har rejst yderligere spørgsmål om etisk ansvarlighed og gennemsigtighed i udviklingen af AI-systemer.