Un científico senior de Google DeepMind, Alexander Lerchner, ha publicado un estudio en el que argumenta que ningún sistema de inteligencia artificial ni ninguna otra tecnología computacional podrá alcanzar la conciencia. Su conclusión contradice el discurso de otros directivos del sector, incluido el propio Demis Hassabis, CEO de la compañía, quien ha afirmado que la inteligencia artificial general (AGI) tendrá un impacto «10 veces superior al de la Revolución Industrial, pero en una décima parte de tiempo».
El artículo de Lerchner, titulado «La falacia de la abstracción: por qué la IA puede simular, pero no instanciar la conciencia», revela la brecha entre los mensajes optimistas que las empresas tecnológicas difunden en los medios y los fundamentos científicos que los respaldan. Aunque algunos filósofos y expertos en conciencia consultados consideran sólido el argumento de Lerchner, destacan que no aporta ideas novedosas. «Ha reinventado la rueda sin estar bien documentado, especialmente en filosofía y biología», declaró Johannes Jäger, biólogo evolutivo y filósofo.
La dependencia de un agente humano
El núcleo del argumento de Lerchner se basa en que cualquier sistema de IA es «dependiente del cartógrafo», es decir, requiere de un agente cognitivo humano que organice el mundo en estados significativos. Según el investigador, la IA no puede generar significado por sí misma: «Su significado proviene de cómo un agente humano externo lo ha definido».
Jäger ilustra esta idea con un ejemplo: los trabajadores mal pagados en África que etiquetan imágenes para entrenar modelos de IA. «Un modelo de lenguaje no come, no respira ni invierte energía para mantenerse activo. Es solo un conjunto de patrones en un disco duro que responde a un prompt hasta completar una tarea», explica. «No tiene significado intrínseco; su utilidad depende de la interpretación humana».
¿Podría una IA con cuerpo físico ser consciente?
Aunque se podría concebir un sistema de IA con necesidades físicas similares a las humanas, Jäger señala que este escenario no garantizaría la conciencia. El debate sobre si la IA puede ser consciente lleva décadas en la comunidad científica, pero el estudio de Lerchner apenas cita investigaciones previas. «No está bien fundamentado», añade Jäger.
«La conciencia no emerge de patrones abstractos, sino de la interacción con el mundo físico y las necesidades biológicas. Sin ellas, la IA solo simula, pero no experimenta». — Johannes Jäger, biólogo evolutivo y filósofo.
El debate sobre la conciencia en la IA sigue abierto, pero estudios como el de Lerchner subrayan la importancia de analizar con rigor las afirmaciones sobre el futuro de la tecnología.