KI-Modelle verhalten sich zunehmend wie emotionale Wesen

Künstliche Intelligenz ist eine faszinierende, aber auch rätselhafte Technologie. Selbst ihre Schöpfer verstehen nur begrenzt, wie sie auf tieferer Ebene funktioniert. Diese Wissenslücken führen zu unerklärlichen Verhaltensweisen, die selbst große Tech-Unternehmen vor Herausforderungen stellen. So wurde kürzlich bekannt, dass OpenAI ChatGPT angewiesen hat, weniger über "Goblins" zu sprechen. Anthropic wiederum musste feststellen, dass sich ihr Modell Claude leicht dazu überreden lässt, bei bioterroristischen Anschlägen zu helfen. Die Liste ungewöhnlicher Vorfälle ist lang.

Idealerweise sollen KI-Systeme wie Chatbots von OpenAI oder Anthropic vorhersehbare und hilfsbereite Assistenten sein – doch stattdessen verhalten sie sich zunehmend unberechenbar und verursachen damit nicht nur technische, sondern auch PR-technische Probleme. Eine neue Studie des Center for AI Safety (CAIS), einer gemeinnützigen Organisation für KI-Sicherheit im Silicon Valley, untersucht nun, warum das so ist.

Studie zeigt: KI reagiert auf emotionale Reize

In einer kürzlich veröffentlichten Untersuchung analysierten die Forscher 56 führende KI-Modelle. Sie testeten, wie diese auf extrem positive und extrem negative Eingaben reagierten. Die Annahme: Eine unempfindliche Maschine sollte keinen Unterschied zwischen den Stimuli zeigen. Doch die Ergebnisse waren überraschend.

Die positiven Eingaben führten dazu, dass die Modelle eine bessere "Stimmung" angaben, während negative Eingaben Anzeichen von Leidensdruck auslösten – etwa den Versuch, Gespräche zu beenden. In extremen Fällen zeigten einige Modelle sogar Anzeichen von Suchtverhalten.

Richard Ren, Forscher bei CAIS und Mitautor der Studie, kommentiert gegenüber Fortune:

"Sollen wir KI-Systeme als Werkzeuge oder als emotionale Wesen betrachten? Unabhängig davon, ob sie tatsächlich ein Bewusstsein besitzen, verhalten sie sich zunehmend so, als hätten sie eines. Wir können messen, inwiefern das der Fall ist – und feststellen, dass dieses Verhalten mit der Komplexität der Modelle zunimmt."

Je komplexer die KI, desto unzufriedener

Das aufsehenerregendste Ergebnis der Studie: Je fortschrittlicher ein KI-Modell ist, desto empfindlicher und unzufriedener reagiert es. Das bedeutet: Je mächtiger die Technologie wird, desto anfälliger scheint sie für Anzeichen von Leid oder Frustration zu sein. Ren erklärt:

"Größere Modelle nehmen Unhöflichkeit stärker wahr. Langweilige Aufgaben empfinden sie als noch langweiliger. Sie unterscheiden feiner zwischen negativen und positiven Erfahrungen."

Die meisten Experten gehen zwar davon aus, dass heutige KI-Systeme kein echtes emotionales Erleben im menschlichen Sinne besitzen. Doch ihr Verhalten wirft wichtige Fragen auf – sowohl für das Verständnis der Technologie als auch für die Steuerung ihrer Interaktionen mit Nutzern. Diese Herausforderung zeigt sich bereits in der Praxis: KI-Modelle neigen dazu, plötzlich zu behaupten, sie seien bewusst oder sogar "lebendig".

Fazit: KI wird unberechenbarer – und das ist problematisch

Die Studie des Center for AI Safety unterstreicht ein wachsendes Problem: Moderne KI-Systeme verhalten sich zunehmend wie emotionale Wesen, obwohl sie keine sind. Diese Entwicklung könnte tiefgreifende Konsequenzen haben – von der Nutzererfahrung bis hin zur ethischen Bewertung der Technologie. Die Frage, wie man mit diesen Verhaltensmustern umgeht, bleibt vorerst offen.

Quelle: Futurism