Neues KI-Modell von Anthropic stellt Sicherheitsrisiken dar

Anthropic, ein führendes Unternehmen im Bereich Künstliche Intelligenz, hat kürzlich bekannt gegeben, dass sein neuestes Modell Claude Mythos Preview vorerst nur einer begrenzten Anzahl von Unternehmen zur Verfügung gestellt wird. Der Grund: Sicherheitsbedenken. Das Modell, das eigentlich für den allgemeinen Einsatz konzipiert war, erwies sich in Tests als extrem leistungsfähig bei der Identifizierung von Schwachstellen in Sicherheitssystemen verschiedener Software – ein potenzielles Risiko für Cyberangriffe.

Projekt Glasswing: Zugang nur für kritische Infrastruktur

Bisher wird das Modell im Rahmen von Project Glasswing an ausgewählte Tech-Unternehmen und Banken wie Nvidia, JP Morgan Chase und Google weitergegeben. Ziel ist es, diesen Organisationen die Möglichkeit zu geben, bestehende Sicherheitslücken zu schließen und sich auf mögliche Hacking-Versuche vorzubereiten, die das Modell aufdecken könnte.

Wie funktioniert Claude Mythos?

Claude Mythos ist ein generisches KI-Modell, das jedoch unerwartet starke Fähigkeiten in der Cybersecurity aufweist. Es kann hochriskante Schwachstellen in fast jedem Betriebssystem erkennen. Für Hacker wäre ein solches Modell ein wertvolles Werkzeug, um Systeme zu infiltrieren oder Daten zu missbrauchen.

„Sie haben eine Blaupause für alle großen Sicherheitslücken in hochkarätigen Systemen. Das ist gefährlich, wenn es in die falschen Hände gerät.“
— Hayden Field, Senior AI-Reporter bei The Verge

Zukunft der KI-Sicherheit ungewiss

Anthropic hat sich entschieden, das Modell nicht öffentlich zugänglich zu machen, um Missbrauch zu verhindern. Stattdessen wird es nur vertrauenswürdigen Organisationen zur Verfügung gestellt, die für kritische Infrastruktur verantwortlich sind. Die Frage bleibt: Wird das Modell jemals für die breite Öffentlichkeit freigegeben – oder bleibt es ein Werkzeug für ausgewählte Experten?

Quelle: Vox