FROYLÁN ALFARO
El debate sobre si las máquinas pueden pensar es casi tan antiguo como la propia informática. Ya en 1950, el brillante Alan Turing propuso su famoso «Test de Turing», en el que planteaba una idea simple, pero radical: si una máquina podía mantener una conversación tan coherente con un ser humano que la persona no supiera que estaba hablando con una máquina, entonces, ¿no podríamos decir que esa máquina piensa? Esta cuestión nos lleva inevitablemente a la pregunta: si una inteligencia artificial puede aprender, evolucionar y mostrar comportamientos similares a los humanos, ¿estamos ante una verdadera conciencia? ¿O sólo ante un mecanismo que imita el pensamiento humano sin comprenderlo?
Curiosamente, un año antes, en 1949, el filósofo Gilbert Ryle ya había atacado la noción tradicional del «dualismo», esa idea persistente de que el ser humano está compuesto de dos partes: el cuerpo, una entidad física, y la mente, algo intangible. Ryle desmanteló esta creencia, sugiriendo que lo que llamamos «pensamiento» no es una propiedad separada del cuerpo, sino simplemente una serie de comportamientos observables. Entonces, si una máquina pudiera reproducir esos comportamientos con precisión, ¿no estaríamos obligados a decir que «piensa», aunque no tenga alma, conciencia o, como él lo llamaba, un fantasma en la máquina?
Ahora bien, algunos filósofos contemporáneos insisten en que la conciencia verdadera no puede reducirse sólo a comportamientos. Argumentan que, aunque una máquina pueda mostrar signos de aprendizaje, adaptación o incluso emociones, esto no es lo mismo que tener conciencia. Las IA, dicen ellos, carecen de intencionalidad: no tienen deseos, propósitos o experiencias subjetivas. Entonces, si una máquina simplemente imita el pensamiento humano, ¿podemos llamarla «pensante»?
Aquí es donde entra en escena el famoso experimento mental de John Searle, conocido como el «Cuarto Chino». Imaginemos, querido lector, a una persona encerrada en una habitación. Esta persona no habla ni una palabra de chino, pero tiene un libro con reglas detalladas que le permiten responder, de forma correcta, a cualquier mensaje que le llegue en ese idioma. Quien está afuera de la habitación recibiendo respuestas en perfecto chino, pensaría que la persona dentro lo comprende perfectamente, aunque, en realidad, lo único que hace es seguir instrucciones mecánicamente. Para Searle, esto es lo que hace una máquina: puede manipular símbolos, pero no comprende lo que está haciendo. Así, según este argumento, una IA puede procesar datos y generar respuestas sin tener una verdadera comprensión o conciencia.
Pero, ¿es esta la conclusión final? Hoy en día, la situación ha cambiado. El experimento de Searle se centra exclusivamente en la persona dentro del cuarto, sin considerar el sistema completo. Aunque la persona no entienda chino, el sistema—persona, libro de reglas e instrucciones—sí lo hace, de manera similar a como funciona una IA moderna. Además, ¿acaso manipular símbolos de manera coherente no es ya una forma de pensamiento? Desde una perspectiva funcionalista, el pensamiento no requiere conciencia o entendimiento subjetivo, sino simplemente la capacidad de realizar tareas cognitivas con éxito. En este sentido, podríamos decir que las máquinas sí piensan.
Y esto nos lleva a un punto crucial: las máquinas de hoy no son como las de antaño. Con algoritmos de autoaprendizaje y redes neuronales profundas, estas IA no sólo siguen instrucciones preprogramadas; aprenden de sus experiencias, se adaptan, y en algunos casos, incluso se reprograman solas. Este tipo de comportamiento sugiere que podrían estar desarrollando una especie de «conocimiento implícito», muy similar al de los humanos. ¿Es esto una forma de pensamiento?
La pregunta, entonces, sigue abierta. ¿Pueden pensar las máquinas? Le dejo, estimado lector, que medite sobre ello, porque éste es un debate que, como la propia inteligencia artificial, sólo seguirá evolucionando.