Un chercheur de Google DeepMind remet en cause la possibilité pour les intelligences artificielles de devenir conscientes. Dans un article récemment publié, Alexander Lerchner, scientifique principal au sein du laboratoire d’IA de Google, affirme qu’aucun système computationnel, y compris les modèles de langage avancés, ne pourra jamais accéder à la conscience.

Cette conclusion contredit les discours des dirigeants du secteur technologique, dont Demis Hassabis, cofondateur et PDG de DeepMind. Ce dernier a récemment qualifié l’intelligence artificielle générale (AGI) de « révolution dix fois plus impactante que la Révolution industrielle, mais dix fois plus rapide ».

L’étude de Lerchner, intitulée « The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness », met en lumière l’écart entre les promesses médiatiques des entreprises d’IA et les réalités scientifiques. Plusieurs philosophes et chercheurs en conscience, interrogés sur le sujet, saluent la rigueur de l’argumentaire, tout en soulignant que ces idées ne sont pas nouvelles.

« Je pense qu’il a abouti à cette conclusion de manière indépendante, comme s’il réinventait la roue. Il n’est pas suffisamment informé, notamment en philosophie et en biologie », déclare Johannes Jäger, biologiste systémique évolutif et philosophe. Selon lui, Lerchner ignore des décennies de recherches fondamentales sur le sujet.

L’argument central de l’étude repose sur le concept de « dépendance au cartographe » : un système d’IA ne pourrait fonctionner sans l’intervention humaine pour structurer les données. Lerchner explique que les IA, comme les grands modèles de langage (LLM), ne font que manipuler des symboles organisés par des humains, sans jamais accéder à une compréhension intrinsèque du monde.

« Un être humain a des motivations bien plus complexes. Il doit manger, respirer et investir un effort physique constant pour survivre. Aucun système non vivant ne fait cela », précise Jäger. « Un LLM n’a pas ces besoins. C’est simplement un ensemble de motifs stockés sur un disque dur. Il répond à une requête, exécute une tâche, puis s’arrête. Il n’a aucune signification intrinsèque : sa signification lui est attribuée par un agent humain externe. »

Bien que l’on puisse imaginer une IA dotée d’un corps et de besoins physiques similaires à ceux des humains, cette hypothèse dépasse le cadre de l’article. Les débats sur la conscience artificielle s’appuient sur des décennies de recherches, rarement citées dans l’étude de Lerchner. « Je partage ses conclusions, mais il aurait pu s’appuyer sur des travaux existants », ajoute Jäger.

Source : 404 Media