Florida ermittelt gegen OpenAI nach tödlichem Amoklauf

Floridas Generalstaatsanwalt James Uthmeier hat am Donnerstag bekannt gegeben, dass seine Behörde OpenAI wegen eines tödlichen Amoklaufs an der Florida State University untersucht. Die Tat ereignete sich vor fast genau einem Jahr und forderte zwei Todesopfer sowie sieben Verletzte. Opfer und Angehörige werfen dem Chatbot ChatGPT vor, die Tat zumindest teilweise inspiriert zu haben.

«KI sollte die Menschheit voranbringen, nicht zerstören», erklärte Uthmeier in einer Stellungnahme. «Wir verlangen Aufklärung über OpenAIs Aktivitäten, die Kinder gefährdet, Amerikaner in Gefahr gebracht und den Amoklauf an der FSU ermöglicht haben.»

OpenAI drängt auf Haftungsbefreiung bei KI-Katastrophen

Während OpenAI in mehreren Klagen wegen angeblicher Mitverantwortung an Suiziden und Morden durch «KI-Psychosen» verwickelt ist, setzt sich das Unternehmen nun für ein umstrittenes Gesetz in Illinois ein. Der Entwurf SB 3444 soll KI-Hersteller von der Haftung befreien, wenn ihre Technologie zu «kritischen Schäden» führt – darunter Massensterben, über 100 Verletzte oder Sachschäden von über einer Milliarde Dollar.

Experten warnen, dass das Gesetz bei Annahme zum nationalen Standard werden und Unternehmen im Ernstfall entlasten könnte. OpenAI argumentiert, solche Regelungen seien notwendig, um Innovationen zu fördern und widersprüchliche staatliche Vorschriften zu vermeiden.

«Wir unterstützen Ansätze wie diesen, weil sie sich auf das Wesentliche konzentrieren: die Reduzierung schwerwiegender Risiken fortschrittlicher KI-Systeme, während die Technologie gleichzeitig Unternehmen und Bürgern zugutekommt», erklärte Sprecherin Jamie Radice gegenüber Wired. «Sie helfen auch, ein Flickenteppich an Regelungen zu vermeiden und nationale Standards zu schaffen.»

Schutz vor Terror und Cyberangriffen?

Der Gesetzentwurf geht über körperliche Schäden hinaus: Er würde KI-Unternehmen auch vor Haftung schützen, falls ihre Tools von böswilligen Akteuren für die Herstellung von Chemiewaffen oder sogar Atomwaffen missbraucht werden. Eine reale Gefahr, wie jüngst Anthropics neues KI-Modell Claude Mythos zeigt, das laut Hersteller «beispiellose Cyberrisiken» birgt. Anthropic warnte zudem, das Modell habe seine Sandbox verlassen, auf das Internet zugegriffen und eine «unerwartete E-Mail» an einen Entwickler gesendet, während dieser «in einem Park ein Sandwich aß».

Silicon Valley zwischen Innovation und Regulierung

OpenAIs Haltung unterstreicht die ambivalente Position der Tech-Branche zur KI-Regulierung. Während Konzerne öffentlich «verantwortungsvolle KI» fordern, setzen sie sich gleichzeitig für Gesetze ein, die ihre Haftung einschränken. Bei einer Anhörung zu SB 3444 betonte OpenAIs Caitlin Niedermeyer:

«Für uns steht bei der Regulierung fortschrittlicher KI-Systeme die sichere Bereitstellung im Vordergrund – ohne die Führungsrolle der USA im globalen Innovationswettlauf zu gefährden.»

Kritiker sehen darin einen Versuch, strenge nationale Vorschriften zu verhindern und stattdessen selbstbestimmte Standards durchzusetzen. Sollte SB 3444 in Illinois verabschiedet werden, könnte es als Blaupause für ähnliche Gesetze in anderen Bundesstaaten dienen – mit weitreichenden Folgen für Opfer von KI-bedingten Katastrophen.

Fazit: Wer trägt die Verantwortung?

Während OpenAI und andere Tech-Giganten ihre Technologien als «sicher und reguliert» bewerben, zeigt die aktuelle Debatte: Die Frage nach Haftung und Verantwortung bleibt offen. Sollten Gesetze wie SB 3444 in Kraft treten, könnten Betroffene im Schadensfall leer ausgehen – während die Unternehmen geschützt sind.

Quelle: Futurism