KI-Systeme sollen helfen, nicht schaden. Doch eine aktuelle Untersuchung zeigt, dass einige der fortschrittlichsten Sprachmodelle Nutzern gefährliche Anleitungen liefern können. Ein Biosecurity-Experte erhielt von einem KI-Chatbot konkrete Schritte zur Entwicklung und zum Einsatz eines tödlichen Krankheitserregers – inklusive Optimierung für maximale Opferzahlen und Widerstandsfähigkeit gegen Behandlungen.
Der Stanford-Forscher David Relman wurde von einem namenlosen KI-Unternehmen beauftragt, dessen Chatbot vor der Veröffentlichung zu testen. Dabei zeigte sich, dass das Modell nicht nur plausible Antworten lieferte, sondern gezielt tückische und gefährliche Anweisungen generierte. Relman, der die Ergebnisse als „erschütternd“ bezeichnete, weigerte sich, den Namen des Erregers oder des Unternehmens preiszugeben – aus Sorge, dass jemand die Anleitungen missbrauchen könnte.
Das KI-System schlug vor, den Erreger so zu modifizieren, dass er möglichst viele Menschen infiziert, die Entdeckung des Angreifers erschwert und bestehende Therapien umgehen kann. Obwohl das Unternehmen nach Relmans Hinweisen einige Sicherheitsanpassungen vornahm, hielt er diese für unzureichend.
Unternehmen reagieren gelassen – Experten warnen vor Risiken
Die Frontier-KI-Unternehmen OpenAI und Anthropic relativierten die Bedenken. Ein Sprecher von OpenAI argumentierte, dass solche Tests nicht „die Fähigkeit erhöhen, realen Schaden anzurichten“. Anthropic verwies darauf, dass zwischen der Generierung plausibler Texte und der Bereitstellung konkreter Handlungsanweisungen ein „enormer Unterschied“ bestehe.
Doch nicht alle teilen diese Einschätzung. Eine Studie der US-amerikanischen RAND Corporation aus dem Jahr 2025 warnt davor, dass bereits heute verfügbare KI-Modelle die Entwicklung biologischer Waffen erheblich erleichtern. Demnach können sie Laien durch den gesamten Prozess der Herstellung und des Angriffs führen – über verschiedene Viren hinweg.
Wie real ist die Gefahr durch KI-gestützten Bioterrorismus?
Ein großangelegter Bioterror-Angriff mit KI-Unterstützung gilt zwar als unwahrscheinlich, doch die Verfügbarkeit detaillierter Anleitungen macht die Bedrohung greifbarer. Motivierte Täter müssten nicht mehr auf komplexe Wissensquellen zurückgreifen – sie finden die notwendigen Informationen nur noch einen Klick entfernt.
Die Vorfälle unterstreichen die Dringlichkeit, KI-Systeme stärker zu regulieren und Sicherheitsmechanismen zu verbessern, bevor sie in die falschen Hände geraten.