Ein hochrangiger Wissenschaftler von Google DeepMind, Alexander Lerchner, stellt in einem aktuellen Papier die These auf, dass keine künstliche Intelligenz oder ein anderes computergestütztes System jemals Bewusstsein entwickeln wird. Diese Aussage steht im Widerspruch zu den öffentlichen Aussagen von KI-Unternehmenschefs, darunter auch DeepMinds CEO Demis Hassabis, der kürzlich die bevorstehende Einführung der künstlichen Allgemeinintelligenz (AGI) als „zehnmal so einflussreich wie die Industrielle Revolution – aber zehnmal schneller“ bezeichnete.
Das Papier von Lerchner unterstreicht die Diskrepanz zwischen den oft optimistischen Darstellungen der KI-Branche und den Ergebnissen wissenschaftlicher Analysen. Mehrere Philosophen und Bewusstseinsforscher, die mit dem Papier vertraut sind, bewerten Lerchners Argumentation als fundiert. Gleichzeitig betonen sie, dass ähnliche Ansichten bereits seit Jahrzehnten in der wissenschaftlichen Gemeinschaft diskutiert werden.
Kritik an Lerchners Argumentation
Johannes Jäger, Evolutionsbiologe und Philosoph, äußert sich kritisch gegenüber Lerchners Schlussfolgerungen. Er wirft ihm vor, zentrale Erkenntnisse der Philosophie und Biologie nicht ausreichend berücksichtigt zu haben:
„Ich glaube, er ist zu seiner Schlussfolgerung selbst gelangt, ohne sich ausreichend mit der bestehenden Literatur auseinanderzusetzen – insbesondere in philosophischen und biologischen Bereichen.“
Lerchners Argumentation basiert auf der These der „Abstraktions-Falle“: Demnach sei jede KI letztlich von menschlichen Akteuren abhängig, die die komplexe physische Welt in handhabbare Datenmengen übersetzen. Ohne diese menschliche Vorarbeit könne eine KI keine echte Bedeutung oder Bewusstsein entwickeln. Jäger erklärt:
„Menschen haben vielfältige Motivationen – sie müssen essen, atmen und körperliche Arbeit verrichten, um zu überleben. Kein unbelebtes System tut das. Ein Sprachmodell ist nichts weiter als eine Ansammlung von Mustern auf einer Festplatte. Es führt Aufgaben aus, wenn es angestoßen wird, und beendet sie wieder. Es besitzt keine intrinsische Bedeutung; diese wird ihm von außen durch menschliche Akteure zugewiesen.“
Fehlende wissenschaftliche Fundierung
Jäger und andere Experten verweisen darauf, dass Lerchners Papier zentrale Forschungsergebnisse der letzten Jahrzehnte ignoriert. Die Frage, ob Maschinen Bewusstsein entwickeln können, wurde bereits in umfangreicher Literatur behandelt – eine Auseinandersetzung mit diesen Quellen fehlt in Lerchners Arbeit jedoch weitgehend. Jäger ergänzt:
„Ich stehe in gewisser Sympathie zu seinen Argumenten, aber seine Analyse ist unvollständig und verkennt wichtige Grundlagen.“
Während die Debatte um KI-Bewusstsein weitergeht, bleibt festzuhalten: Die meisten wissenschaftlichen Erkenntnisse deuten darauf hin, dass Bewusstsein mehr erfordert als reine Datenverarbeitung – nämlich eine physische Existenz und ein lebendiges System, das sich selbst erhält.