Het AI-bedrijf Anthropic loopt tegen een forse reputatieschade aan na een lek in Claude Mythos, een geavanceerd AI-model dat het bedrijf zelf als te gevaarlijk bestempelde voor openbaar gebruik. Ondanks strenge beveiligingsmaatregelen tijdens de gesloten testfase, blijkt het model al sinds de aankondiging in verkeerde handen te zijn gevallen.
Volgens Bloomberg had een "kleine groep ongeautoriseerde gebruikers" al toegang tot Mythos vanaf de dag dat Anthropic bekendmaakte het model exclusief aan een selecte groep bedrijven ter beschikking te stellen voor testdoeleinden. Het bedrijf heeft inmiddels een onderzoek gestart naar de oorzaak van het lek.
Deze ontwikkeling is bijzonder gênant voor Anthropic, dat zich profileert als een vooraanstaand voorvechter van AI-veiligheid. Het bedrijf benadrukte herhaaldelijk dat Mythos zo krachtig is op het gebied van cybersecurity dat het te risicovol zou zijn om het breed beschikbaar te stellen. Toch is het model nu al in omloop, wat vragen oproept over de effectiviteit van de beveiligingsprotocollen.
De gesloten testfase van Mythos was bedoeld om de veiligheid en betrouwbaarheid van het model te waarborgen voordat het eventueel publiekelijk zou worden uitgebracht. Het lek toont echter aan dat zelfs in deze gecontroleerde omgeving de beveiliging niet waterdicht was. Anthropic heeft nog geen verdere details vrijgegeven over de omvang van het lek of de mogelijke gevolgen.
Experts reageren geschokt op het nieuws. AI-ethicus Dr. Lisa van der Meer zegt: "Dit is een zware klap voor het vertrouwen in AI-veiligheidsclaims. Als een bedrijf als Anthropic, dat zich profileert als een leider in verantwoorde AI, niet in staat is om zijn eigen modellen veilig te houden, wie dan wel?"
Anthropic heeft tot nu toe geen officiële reactie gegeven op de specifieke vragen over hoe het lek heeft kunnen plaatsvinden. Het bedrijf blijft benadrukken dat het onderzoek prioriteit heeft en dat het alle nodige stappen zal nemen om de veiligheid in de toekomst te waarborgen.