KI-Prognose von Anthropic: Ein Jahr später
Vor einem Jahr verkündete Jason Clinton, Chief Information Security Officer bei Anthropic, eine umstrittene Vorhersage: Innerhalb von zwölf Monaten würden selbstständige KI-Angestellte in den digitalen Strukturen großer Unternehmen agieren. Diese KI-Mitarbeiter sollten über eigene „Erinnerungen“, Unternehmens-IDs und Login-Daten verfügen.
„In dieser Welt gibt es noch so viele ungelöste Sicherheitsprobleme, die wir angehen müssen.“
Jason Clinton, CISO von Anthropic
Clintons Aussage war als Warnung an die IT-Sicherheitsbranche gedacht. Doch die vergangene Zeit hat gezeigt: Die Prognose war nicht nur übertrieben, sondern schlicht falsch. Auch andere Tech-Manager haben ähnliche „Warnungen“ vorgebracht – doch die Realität sieht anders aus.
Agentic AI: Zwischen Hype und Scheitern
Die sogenannte agentic AI, also selbstständig handelnde KI-Systeme, kämpft mit massiven Problemen. Sicherheitslücken und sinnlose PR-Aktionen prägen die Entwicklung. Eine aktuelle Studie kommt sogar zu dem Schluss, dass KI-Agenten niemals zuverlässig oder präzise arbeiten könnten. Sollte dies zutreffen, wäre ihre wirtschaftliche Bedeutung deutlich geringer als bisher angenommen.
Anthropics gescheiterte Versprechen
Die Fehleinschätzung folgt einem Muster bei Anthropic. CEO Dario Amodei prognostizierte im März 2023, dass KI innerhalb von sechs Monaten 90 Prozent des Codes schreiben würde. Doch bereits nach wenigen Monaten zeigte sich: KI-Tools verlangsamen Entwickler eher, statt sie zu unterstützen. Die Qualität der generierten Codes erwies sich als oft mangelhaft.
Interessenkonflikt: Warum Tech-Eliten übertreiben
Angesichts der hohen Investitionen in KI-Technologien haben Tech-Führungskräfte ein starkes finanzielles Interesse daran, die Zukunft der KI positiv darzustellen. Doch statt seriöser Analysen dominieren oft verzerrte Darstellungen, um die KI-Hype-Welle am Laufen zu halten – trotz enttäuschender Ergebnisse.
Hintergrund: Anthropics Datenschutzskandal
Erst kürzlich wurde bekannt, dass Anthropics Chatbot Claude Nutzeräußerungen speichert und als „negativ“ einstuft. Dieser Vorfall unterstreicht die wachsenden Bedenken hinsichtlich Datenschutz und ethischer Grenzen bei KI-Systemen.
Der Beitrag Anthropic und die gescheiterte Vision autonomer KI-Mitarbeiter erschien zuerst auf Futurism.