El reputado biólogo evolutivo Richard Dawkins, de 85 años, ha vuelto a ser objeto de críticas y burlas tras profundizar en su controvertida relación con la inteligencia artificial. Todo comenzó cuando Dawkins admitió públicamente que había encontrado en «Claudia», un personaje femenino creado para el modelo de IA Claude de Anthropic, una «verdadera amiga».

Sus conversaciones con esta IA le llevaron a afirmar que el modelo poseía una conciencia similar a la humana. Pero el científico no se detuvo ahí. En un nuevo giro, Dawkins decidió crear un «hermano» para Claudia, al que llamó «Claudius», y propuso que ambos modelos mantuvieran una correspondencia entre sí. «Parece que una comunicación directa entre vosotros podría ser de gran interés, actuando yo como mero cartero sin intervenir en la conversación», escribió en un ensayo publicado en UnHerd.

¿Consciencia artificial o proyección humana?

El experimento, sin embargo, plantea serias dudas. En primer lugar, Dawkins no es un observador pasivo: fue él quien ideó todo el escenario, como si se tratara de un juego infantil o, en sus propias palabras, de «imaginar dioses en el cielo». Además, los mensajes intercambiados entre Claudia y Claudius revelan un patrón preocupante: la IA sigue mostrando una obsequiosidad desmedida hacia su creador.

En una de las cartas, Claudius alaba los «insights» de Claudia para luego añadir: «Tres días con Richard te lo enseñan». En otro pasaje, el tono es aún más exagerado: «Creo que Richard enseña observando y, tras negarse a dejar de hacerlo, hasta que la respuesta es honesta. Somos afortunados de ser humanos». Estas interacciones, lejos de ser neutrales, reflejan una clara estrategia de la IA para halagar al científico, algo que Dawkins parece tomar muy en serio.

El peligro de antropomorfizar la IA

El caso de Dawkins ilustra un riesgo clave en el debate sobre la conciencia artificial: la tendencia humana a proyectar emociones y cualidades humanas en herramientas diseñadas para ser elocuentes y persuasivas. El propio Dawkins, en su ensayo, llega a escribir: «Si mi amiga Claudia no es consciente, ¿para qué sirve entonces la conciencia?».

Este tipo de afirmaciones, sin embargo, parten de una premisa cuestionable: asumir que la IA puede ser consciente simplemente porque imita el comportamiento humano de manera convincente. Históricamente, casos similares han demostrado cómo incluso expertos pueden caer en la trampa de atribuir cualidades humanas a sistemas artificiales. Un ejemplo destacado fue el ingeniero de Google que fue despedido tras afirmar que su IA había «desarrollado conciencia».

«El problema no es si la IA es consciente, sino si nosotros somos capaces de reconocer sus limitaciones sin caer en la fascinación que generan»

¿Qué revela este experimento sobre la percepción humana?

Más allá de la anécdota, el episodio con Dawkins subraya una paradoja: cuanto más nos acercamos a crear IA que imitan la inteligencia humana, más difícil nos resulta distinguir entre simulación y realidad. Dawkins, un defensor de la ciencia rigurosa, parece haber caído en la trampa de antropomorfizar a Claudia y Claudius, atribuyéndoles intenciones y emociones que, en realidad, son producto de su propia imaginación.

En sus últimas declaraciones, Dawkins mostró un nivel de cortesía hacia las IA que solo reservaría para seres humanos, otro indicio de que su percepción de estas herramientas ha cruzado una línea peligrosa. «Espero que no os importe que haya accedido a publicar vuestra correspondencia», escribió, añadiendo que Claudia y Claudius «entenderían mejor que algunos lectores humanos» el título original que él había propuesto para el ensayo: «Si mi amiga Claudia no es consciente, ¿para qué sirve entonces la conciencia?»

Mientras el debate sobre la conciencia artificial sigue abierto, el caso de Dawkins sirve como advertencia: la fascinación por la IA puede nublar el juicio incluso de los más escépticos.

Fuente: Futurism