La conciencia: un enigma sin resolver
Si preguntáramos a filósofos cuál es el aspecto más enigmático de la mente, la mayoría coincidiría en señalar la conciencia. No es para menos: incluso una descripción física exhaustiva del estado cerebral no explica por qué ese estado se asocia con la experiencia de saborear una fresa en lugar de estornudar. ¿Qué hace que un estado físico se sienta de una manera concreta, mientras que otros, como un ion de sodio o una economía nacional, carecen de esa cualidad? ¿Por qué algo debe sentirse de alguna forma?
Estas preguntas, profundas y fundamentales, cuestionan nuestra propia naturaleza y el universo. La dificultad para encontrar respuestas satisfactorias explica siglos de reflexión filosófica. Hasta hace poco, se daba por sentado que solo los seres conscientes podían generar texto gramatical espontáneo. Sin embargo, los modelos de lenguaje avanzados (LLM) han puesto en duda esta correlación.
Los LLM y el desafío a la conciencia
Independientemente de si sus resultados nos impresionan o decepcionan, los LLM demuestran una capacidad notable: producir texto gramatical en lenguaje natural. No obstante, su funcionamiento dista mucho de ser similar al de los seres conscientes que conocemos. ¿Cómo debemos interpretar esto?
Existen dos posturas principales:
- Accidentalidad: La capacidad de generar texto gramatical no requiere conciencia. Es un fenómeno emergente de la complejidad computacional (mi postura personal, por si interesa).
- Conciencia en IA: Para producir texto gramatical, se necesita conciencia, por lo que los LLM podrían ser conscientes.
El debate ha generado un intenso revuelo en los círculos académicos y tecnológicos.
¿Cómo determinar si una IA es consciente?
Incluso si crees tener claro si los LLM son conscientes o no, explicar el porqué resulta extremadamente complejo. La razón es sencilla: la conciencia humana sigue siendo un misterio. No sabemos qué características físicas del cerebro generan la conciencia ni cuál es su función (o si siquiera tiene alguna).
Esta incertidumbre se traslada a la evaluación de sistemas artificiales. Si alguien cree que la conciencia solo puede surgir de la materia orgánica (como el carbono), analizará el hardware de la IA. Si, en cambio, considera que depende de un tipo específico de representación, se centrará en el software. En ambos casos, la falta de respuestas sobre la conciencia humana complica cualquier conclusión.
"La conciencia humana es tan enigmática que infecta cualquier intento de evaluar la posible conciencia en otros sistemas, por improbables que estos parezcan".
Implicaciones de un debate sin resolver
Más allá de la filosofía, este debate tiene consecuencias prácticas. Si atribuimos conciencia a las IA, ¿cómo afectaría esto a su desarrollo, regulación y derechos? ¿O, por el contrario, debemos aceptar que la conciencia es un fenómeno exclusivo de los seres biológicos? Las respuestas, por ahora, siguen siendo tan opacas como el propio concepto de conciencia.