Een van de meest bemoedigende ontwikkelingen in de kunstmatige intelligentie is dat de bedrijven die deze technologie ontwikkelen, steeds vaker erkennen dat AI gevaarlijk kan zijn. Niet alleen in de sciencefiction-sfeer van Skynet of HAL 9000, maar ook in praktische zin: denk aan risico’s voor kritieke infrastructuur, privacy, beveiliging en de scheidslijn tussen publiek en privé.
Jarenlang heeft de techindustrie vol gas gegeven zonder voldoende remmen, met enorme voordelen tot gevolg. Tegelijkertijd woedden er felle debatten over de schaduwzijden. Bij AI lijkt nu voor het eerst een kentering zichtbaar: bedrijven beginnen ‘nee’ te zeggen.
Anthropic blokkeert toegang tot gevaarlijk AI-model
Anthropic, een toonaangevend AI-bedrijf, heeft besloten om het krachtige model Claude Mythos Preview niet breed beschikbaar te stellen. Volgens het bedrijf heeft dit model al duizenden ernstige beveiligingslekken ontdekt, waaronder in alle grote besturingssystemen en webbrowsers. In plaats van het model vrij te geven, beperkt Anthropic de toegang tot een selecte groep organisaties, waaronder Amazon Web Services, Apple, Google, Microsoft en NVIDIA. Ook de Linux Foundation, Cisco en JPMorganChase maken deel uit van deze groep.
Het doel van dit initiatief, Project Glasswing, is defensief: het model wordt gebruikt om catastrofale kwetsbaarheden op te sporen en te dichten voordat kwaadwillenden er misbruik van kunnen maken. Hoewel er zeker eigenbelang meespeelt – bedrijven willen liever als verantwoordelijke partijen worden gezien dan als verwoesters – is de stap opmerkelijk. In een industrie die jarenlang volhield dat elke nieuwe mogelijkheid direct beschikbaar moest worden gesteld, omdat vooruitgang onvermijdelijk was, is het een zeldzame daad van terughoudendheid.
Weigering om mee te werken aan autonome wapens en surveillance
Deze terughoudendheid kwam nog duidelijker naar voren in de recente confrontatie tussen Anthropic en het Amerikaanse ministerie van Defensie. Het bedrijf stelde slechts twee uitzonderingen toe voor militair gebruik van haar modellen: grootschalige binnenlandse surveillance en volledig autonome wapensystemen.
Anthropic-CEO Dario Amodei waarschuwde dat AI commercieel beschikbare data kan omzetten in ‘een compleet beeld van iemands leven – automatisch en op grote schaal’. Wat autonome wapens betreft, stelde hij dat huidige AI-systemen ‘niet betrouwbaar genoeg’ zijn om mensen volledig uit de besluitvorming te halen bij het selecteren en uitschakelen van doelen.
Hoewel Anthropic zonder problemen bereid is om de overheid te helpen bij reguliere taken, zoals logistiek of analyse, is de weigering om mee te werken aan gevaarlijke toepassingen opmerkelijk. Het ministerie van Defensie reageerde furieus: het kondigde aan alleen nog samen te werken met AI-bedrijven die bereid zijn om ‘elk wettig gebruik’ toe te staan en de door Anthropic opgelegde beperkingen te verwijderen. Toen Anthropic weigerde, bestempelde defensiechef Pete Hegseth het bedrijf als een ‘risico voor de nationale veiligheid’ – een label dat