Anthropic hat Anfang des Jahres eine Vorschauversion seines neuen KI-Modells Mythos vorgestellt – ein System, das das Unternehmen selbst als zu gefährlich für eine breite öffentliche Nutzung einstuft. Im Rahmen eines Early-Access-Programms durften rund 50 Unternehmen und Organisationen das Modell testen, um sich auf potenzielle Cyberangriffe vorzubereiten.

Laut eigenen Forschern von Anthropic ist Mythos in der Lage, weitreichende Sicherheitslücken zu identifizieren und auszunutzen. Dies könnte Hackern einen entscheidenden Vorteil verschaffen. Doch die Risiken scheinen selbst das Weiße Haus zu beunruhigen: Wie das Wall Street Journal berichtet, lehnen Vertreter der Trump-Administration eine geplante Ausweitung des Zugangs auf etwa 70 weitere Unternehmen ab – aus Sicherheitsbedenken.

Einem Insider zufolge würde Mythos zu viele Rechenressourcen verbrauchen und damit die Einsatzfähigkeit der US-Regierung beeinträchtigen. Anthropic bestreitet diese Behauptung vehement.

Die Spannungen zwischen Anthropic und dem US-Verteidigungsministerium eskalieren seit Monaten. Im Februar verweigerte CEO Dario Amodei die Nutzung der KI-Modelle für autonome Waffen und Massenüberwachung, was bei Verteidigungsminister Pete Hegseth und Präsident Donald Trump auf scharfe Kritik stieß.

Ironischerweise steht Anthropic trotz dieser Zusammenarbeit weiterhin auf der Liste der „Versorgungsrisiken“ des Weißen Hauses – eine Einstufung, die das Unternehmen als Vergeltungsmaßnahme sieht. Dennoch nutzt das Militär die KI-Modelle von Anthropic, etwa bei Einsätzen im Iran.

Emil Michael, CTO des Verteidigungsministeriums, bezeichnete Mythos in einem CNBC-Interview als „entscheidenden Moment für die nationale Sicherheit“ – ein Hinweis darauf, dass die Regierung gleichzeitig Zugang zu dem Modell anstrebt und seinen Entwickler als Sicherheitsrisiko einstuft.

Ein Sprecher von Anthropic betonte gegenüber dem Wall Street Journal, dass das Unternehmen in konstruktiven Gesprächen mit der Regierung über eine schrittweise Ausweitung des Zugangs zu Mythos stehe.

Ob das Modell tatsächlich so gefährlich ist, wie befürchtet, bleibt abzuwarten. Kritiker wie der KI-Berater des Weißen Hauses, David Sacks, warnen bereits:

„Immer mehr Menschen fragen sich, ob Anthropic der ‚Junge, der Wolf rief‘ der KI-Branche ist. Wenn sich die Mythos-Risiken nicht bewahrheiten, steht das Unternehmen vor einem massiven Glaubwürdigkeitsproblem.“

Quelle: Futurism