I takt med at kunstig intelligens (AI) udvikler sig med lynets hast, begynder nogle af de største aktører i branchen at indse, at ukontrolleret fremskridt kan have alvorlige konsekvenser. Det handler ikke længere blot om science fiction-scenarier som Skynet eller HAL 9000, men om reelle trusler mod infrastruktur, privatlivets fred og samfundets sikkerhed.

I årevis har tech-giganterne kørt med speederen i bund og bremsen i bund – og samfundet har høstet store gevinster. Men med AI ser vi nu en markant ændring. Flere virksomheder begynder at sige nej til ukontrolleret udbredelse af avancerede AI-modeller.

Anthropic sætter en ny standard

Et eksempel er Anthropic, der for nylig besluttede ikke at udgive Claude Mythos Preview, en grænseoverskridende AI-model. Ifølge virksomheden har modellen allerede identificeret tusindvis af alvorlige sårbarheder i alle større styresystemer og webbrowsere. I stedet for at udsende modellen til offentligheden, begrænser Anthropic adgangen til et lukket konsortium bestående af store tech-virksomheder som Amazon Web Services, Apple, Google og Microsoft samt cybersikkerhedsfirmaer som CrowdStrike og Palo Alto Networks.

Formålet med Project Glasswing er defensivt: at bruge modellen til at opdage og udbedre katastrofale sårbarheder, før uvedkommende får fingre i lignende teknologi. Selvom der naturligvis også ligger en vis selvinteresse i beslutningen – virksomhederne ønsker at fremstå som ansvarlige aktører frem for at blive set som dem, der ødelægger det digitale landskab – er det bemærkelsesværdigt, at en stor aktør nu vælger at holde en model tilbage.

I en branche, hvor hastighed ofte har været det eneste mål, er det enestående at se en virksomhed konkludere, at en tilstrækkelig kraftfuld model ikke blot bør kastes ud i det offentlige rum.

Konflikt med det amerikanske forsvar

Den nye tilgang viste sig også tydeligt i en nylig strid mellem Anthropic og det amerikanske forsvarsministerium. Virksomheden fastslog, at dens modeller kun ville blive anvendt til militære formål under to snævre undtagelser: masseovervågning inden for USA’s grænser og fuldt autonome våben. På overvågningssiden advarede CEO Dario Amodei om, at AI gør det muligt at omdanne kommercielt tilgængelige data til et omfattende billede af ethvert menneskes liv – automatisk og i stor skala.

Hvad angår autonome våben, påpegede han, at de nuværende systemer ikke er pålidelige nok til at fjerne mennesker fra beslutningsprocessen og automatisere udvælgelse og angreb på mål. Selvom Anthropic som de fleste andre tech-virksomheder gerne vil støtte regeringen i almindelige militære operationer, er det alligevel bemærkelsesværdigt, at virksomheden ønskede at indføre kontraktmæssige begrænsninger for, hvordan dens produkter bliver brugt.

Forsvarsministeriet reagerede imidlertid med vrede. De erklærede, at de kun ville indgå kontrakter med AI-virksomheder, der accepterede vilkår om 'enhver lovlig anvendelse' og fjernede de indførte sikkerhedsforanstaltninger. Da Anthropic nægtede, blev virksomheden af forsvarsministeren Pete Hegseth udpeget som en risiko for national sikkerhed – en betegnelse, der potentielt kan føre til yderligere sanktioner.

Et skridt i den rigtige retning?

Selvom konflikten med forsvaret viser, at der stadig er lang vej igen, er det positive skridt, at AI-virksomheder begynder at tage ansvar. I stedet for at lade teknologien udvikle sig ukontrolleret, indføres der nu begrænsninger og kontroller, der kan forhindre misbrug. Spørgsmålet er imidlertid, hvorvidt andre store aktører vil følge trop – eller om markedets konkurrencepres vil tvinge dem til at fortsætte med at prioritere hastighed over sikkerhed.

Kilde: Reason