KI entwickelt sich selbst – Anthropic warnt vor Intelligenzexplosion

Das KI-Forschungslabor Anthropic, bekannt für seine Warnungen vor KI-Risiken, beobachtet erste Anzeichen dafür, dass Künstliche Intelligenz nicht nur eigene Produkte, sondern sich selbst verbessern könnte. Co-Gründer Jack Clark geht davon aus, dass bis Ende 2028 eine über 60-prozentige Wahrscheinlichkeit besteht, dass ein KI-Modell sein eigenes Nachfolger-Modell vollständig autonom trainiert.

"Was ich beobachte, ist ein technologischer Trend, bei dem sich die Geschwindigkeit weiter beschleunigen wird", erklärte Clark in einem exklusiven Gespräch. In einem neuen Forschungsdokument des Anthropic Institute, das erstmals veröffentlicht wurde, heißt es: "KI trägt bereits heute dazu bei, die Forschung und Entwicklung von KI selbst zu beschleunigen – ein Prozess, der als rekursive Selbstverbesserung bekannt ist."

Autonome KI-Entwicklung: Ein neuer Meilenstein

Clark, der das Institut leitet, betont die historische Bedeutung dieser Entwicklung: "Meine Prognose ist, dass wir bis Ende 2028 mit hoher Wahrscheinlichkeit ein KI-System haben werden, dem man sagen kann: 'Verbessere dich selbst', und das dies vollständig autonom umsetzt."

Bisher waren es vor allem Menschen, die Ideen für technologische Verbesserungen lieferten. Doch was passiert, wenn eine Technologie selbstständig Ideen generiert, um sich weiterzuentwickeln? Clark sieht darin einen Paradigmenwechsel: "Das ist ein völlig neues Konzept."

Mögliche Folgen: Chancen und Risiken

In dem fünfseitigen Dokument warnt Anthropic vor einer möglichen Intelligenzexplosion – ein bisher theoretisches Szenario aus der KI-Sicherheitsforschung, das nun erstmals offiziell dokumentiert wird. Clark erklärt: "Eine Intelligenzexplosion tritt ein, wenn KI-Systeme plötzlich mit extrem hoher Geschwindigkeit Verbesserungen erzielen."

Die Folgen könnten sowohl positiv als auch negativ sein:

  • Risiken: Cyberangriffe, biologische Bedrohungen oder Systemzusammenbrüche durch unkontrollierbare Selbstoptimierung.
  • Chancen: Beschleunigte wissenschaftliche Durchbrüche in Medizin, Biologie und anderen Disziplinen durch massiv gesteigerte Rechenleistung und Innovationskraft.

"Was tun wir mit einem enormen Wachstum oder einer Fülle an neuen Erkenntnissen in vielen Wissenschaftsbereichen gleichzeitig? Unsere heutigen Institutionen sind nicht darauf ausgelegt, solche Mengen an neuen Ideen zu verarbeiten."

Forschungsagenda: Vier Schwerpunkte für die Zukunft

Das Anthropic Institute fungiert sowohl als Forschungsabteilung als auch als Frühwarnsystem. Seine Agenda umfasst vier zentrale Themenbereiche:

  • Wirtschaftliche Verbreitung: Auswirkungen auf Arbeitsplätze, Produktivität und Verteilung von Gewinnen.
  • Bedrohungen und Resilienz: Cyberangriffe, biologische Risiken und Überwachung.
  • KI in der Praxis: Autonome Agenten und deren Steuerung.
  • KI-gestützte Forschung & Entwicklung: Rekursive Selbstverbesserung von KI-Systemen.

Transparenz als oberstes Gebot

Anthropic verpflichtet sich, detailliert über die Auswirkungen der neuen KI-Tools zu berichten – insbesondere im Hinblick auf mögliche rekursive Selbstverbesserung. Clark betont: "Wir und andere Unternehmen werden diese Technologie nutzen, um Gutes in der Welt zu bewirken – etwa in der Medizin oder Biologie."

Die Frage bleibt: Brauchen wir überhaupt noch KI-Unternehmen, wenn die Technologie sich selbst weiterentwickelt? Clarks Antwort: "Unser Ziel ist es, diese Technologie verantwortungsvoll einzusetzen, um Fortschritte in kritischen Bereichen voranzutreiben."

Quelle: Axios