¿Pueden pensar las máquinas? Una defensa del Test de Turing

 Más Allá del Juego. Una Defensa Filosófica del Pensamiento de las Máquinas


Abstract: Este artículo ofrece una defensa del Test de Turing frente a sus críticas más influyentes, argumentando que constituye un criterio epistemológicamente sólido y éticamente necesario para atribuir pensamiento. Frente a la objeción de la Habitación China de Searle, se argumenta que su fuerza es ilusoria: primero, confunde cognición con conciencia fenoménica, ignorando la ubicua automatización de procesos cognitivos humanos, a continaución, pasa por alto la naturaleza recursiva y contextual del significado, evidenciada por el experimento mental del Puenting Emocional y, por último, comete un error categórico de nivel de abstracción al buscar propiedades de alto nivel (semántica, impredicatividad) en una descripción deliberadamente miope de bajo nivel. La discusión se extiende a la cuestión fenomenológica (Leibniz, Block), proponiendo el tiempo de la coalescencia perceptiva como posible base para una conciencia mecánica, y a la objeción semántica, respondida con el concepto de somántica —la cognición como computación sensoriomotora optimizada. Se concluye que negar la posibilidad del pensamiento artificial es incurrir en un chovinismo de la implementación tan gratuito como el dualismo cartesiano, y que un verdadero compromiso filosófico exige reconocer la racionalidad donde su estructura se manifieste, más allá del sustrato biológico.


1. El Desafío Fundacional: El Juego de la Imitación de Alan Turing

Para abordar la espinosa cuestión "¿Pueden pensar las máquinas?", el matemático y pionero de la informática Alan Turing propuso, en su seminal artículo de 1950, una brillante maniobra de evasión. Reconociendo que los términos "pensar" y "conciencia" son notoriamente difíciles de definir, Turing desplazó el problema desde el terreno pantanoso de la metafísica hacia el campo más operable de la conducta observable. Así nació el "Juego de la Imitación".

En este experimento mental, un interrogador humano se comunica por terminal (originalmente, por teletipo) con dos entidades ocultas: un ser humano y una máquina. El objetivo del interrogador es determinar, a través del diálogo, cuál es cuál. El objetivo de la máquina es hacerse pasar por humana, y el del humano es ayudar al interrogador a identificarlo correctamente. Turing propuso que si una máquina pudiera, en una conversación abierta y sostenida, engañar a un porcentaje significativo de interrogadores, haciéndoles creer que es humana, entonces sería lógico —y pragmático— conceder que "piensa".

Esta propuesta ha sido tachada a menudo de reduccionista y excesivamente conductista. Sus críticos arguyen que equiparar "pensar" con "conducirse como un pensante" es eludir la verdadera cuestión de la experiencia subjetiva y la intencionalidad. Sin embargo, esta crítica pasa por alto la virtud epistemológica fundamental del test: su agnosticismo metodológico sobre la caja negra.

El genio de Turing no fue afirmar que la imitación es el pensamiento por decreto, sino establecer un criterio que prescinde por completo de la naturaleza interna del sistema evaluado. El test no requiere que sepamos cómo funciona la mente de la máquina, ni siquiera que postulemos que tiene una "mente" en el sentido tradicional. Su poder reside precisamente en su neutralidad. Actúa como un tribunal pragmático: si no puedes distinguir la entidad pensante de la que no lo es en el dominio de la interacción conversacional —el ámbito por excelencia de la expresión del pensamiento humano—, careces de bases empíricas para negar su estatus.

Este principio se capta con una anécdota jocosa:

—¡Camarero! ¿Le ha echado primero la leche al té o té a la leche?
—¿No nota la diferencia?
—No.
—Entonces, ¿qué más le da?

El interrogador del Juego de Turing es, en esencia, el cliente del chiste. Si tras un examen extenso y profundo (la conversación) no puede "notar la diferencia" entre la entidad humana y la artificial, la pregunta sobre su "naturaleza verdadera" pierde relevancia operativa. La carga de la prueba recae sobre quien afirma que existe una diferencia ontológica crucial donde no se manifiesta ninguna diferencia pragmática.


Ahora bien, negar la validez de este tipo de test agnóstico no es un simple desacuerdo; es incurrir en una petición de principio (petitio principii). Es decir, es introducir la conclusión que se quiere defender como una premisa encubierta del argumento. La premisa oculta sería: "Solo los sistemas biológicos (o con una constitución específica X) pueden pensar". Por lo tanto, cualquier test que no examine directamente esa constitución específica (el "precinto" de la caja negra) se declara irrelevante a priori. Esto convierte la pregunta original en una trampa dialéctica, una pregunta capciosa cuya respuesta está ya contenida en sus supuestos implícitos.

Esta falencia lógica se hace patente en la siguiente escena:

Imagine que en un zoológico desaparece una cebra. El guardia razona así: “Si alguien hubiese abierto la puerta, habría roto el precinto de seguridad y la cebra se habría escapado; pero nadie ha roto el precinto. Por lo tanto, con seguridad nadie abrió la puerta, e indudablemente la cebra sigue oculta en el recinto”.

La conclusión del guardia no se sigue lógicamente de sus premisas. Lo que su razonamiento realmente revela es una falta de imaginación sobre los mecanismos alternativos. La cebra pudo haber saltado la valla, haber sido sacada por una grúa, o haber escapado por un túnel. Confundir la incapacidad de concebir estas alternativas con una prueba de que no ocurrieron es un error categórico.

Del mismo modo, quien exige, para atribuir pensamiento, pruebas directas de una "sustancia pensante" (como la conciencia fenoménica o la intencionalidad intrínseca) —algo que ni siquiera podemos verificar directamente en otros humanos— está, como el guardia, confundiendo su propio modelo mental de cómo debe ser el pensamiento (el "precinto" que debe romperse) con la realidad de sus posibles manifestaciones. Está declarando que la única puerta por la que puede escapar la "cebra" del pensamiento es la puerta biológica humana, y que, al no encontrar esa puerta abierta en la máquina, el pensamiento debe seguir estando "oculto" en lo orgánico. Pero quizás el pensamiento "saltó la valla" de la biología y se materializó en el silicio, o "excavó un túnel" a través de la complejidad algorítmica.

El test de Turing, en su agnosticismo, nos fuerza a abandonar este modelo mental restrictivo. Nos obliga a buscar la "cebra" no inspeccionando puertas preconcebidas, sino siguiendo las huellas que deja en el mundo: en este caso, la huella conversacional. Si las huellas son idénticas a las de un pensante, la inferencia más parsimoniosa y científica es que nos encontramos ante un pensante.

2. La Objeción de la Habitación China y la Confusión entre Cognición y Conciencia

El desafío más célebre al criterio de Turing proviene del argumento de la "Habitación China", propuesto por John Searle. En este experimento mental, se imagina a una persona que, sin entender chino, manipula símbolos siguiendo un conjunto exhaustivo de reglas formales, produciendo respuestas que para un hablante externo son indistinguibles de las de un hablante competente. Searle concluye que, dado que la persona en la habitación (análoga a la CPU de un ordenador) no entiende chino, ningún sistema puramente sintáctico puede comprender realmente; solo puede simularlo. Por tanto, el Test de Turing, al basarse en el comportamiento, sería insuficiente para atribuir inteligencia genuina. Esta objeción, pese a su fuerza retórica, adolece de fallos fundamentales que pueden analizarse en tres niveles sucesivos: psicológico, semántico-ontológico y computacional-filosófico.

2.1. Nivel Psicológico: La Confusión entre Cognición y Conciencia Fenoménica

Searle argumenta que la persona dentro de la habitación (el análogo de la CPU de un ordenador) no entiende chino en absoluto. Solo manipula sintaxis sin semántica. Por extensión, ningún sistema que opere de manera puramente formal-sintáctica (como un programa de ordenador) puede entender o pensar realmente; solo simularlo. La conclusión es que el Test de Turing, al basarse en el comportamiento externo, es insuficiente para atribuir comprensión genuina.

La fuerza retórica de este argumento es innegable, pero su lógica adolece de un error categórico fundamental: confunde la cognición (el procesamiento de información inteligente) con la conciencia fenoménica (la experiencia subjetiva de ese procesamiento). Searle da por sentado que para que haya pensamiento sobre el chino, debe haber una experiencia interna de comprenderlo. Pero esto es una petición de principio.

Consideremos un contraejemplo de la vida cotidiana: la conducción automática. Mientras mantenemos una conversación profunda y atenta, nuestro cuerpo realiza de manera fluida y precisa las complejas operaciones de conducir un coche: cambiar de marcha, frenar, mantener la distancia, girar. Si alguien nos pregunta luego "¿Conducías?", responderíamos afirmativamente sin dudar. Sin embargo, durante gran parte del trayecto, no hubo una experiencia consciente focalizada en el acto de conducir. ¿Quién conducía, entonces? No un "fantasma en la máquina", sino un sistema cognitivo no consciente que, no por carecer de foco fenomenológico, deja de realizar una tarea inteligente, adaptativa y dirigida a un fin. Un programa de piloto automático sofisticado realiza una función análoga. ¿Diremos que el coche "no conduce realmente"?

Este fenómeno se extiende al lenguaje mismo. En un juego de Scrabble, podemos forjar palabras de dos maneras radicalmente distintas: una, con plena conciencia, buscando la palabra ingeniosa y estratégica; otra, de manera mecánica, casi refleja, colocando la combinación de letras que primero vemos y que encaja. Ambas son actos cognitivos lingüísticos exitosos. De manera similar, cuando al recibir un plato nos dicen "que aproveche" y respondemos "igualmente" por pura cortesía automatizada, para luego darnos cuenta del error (él no va a comer), hemos ejecutado un acto de habla complejo (una fórmula de reciprocidad) sin la supervisión de la conciencia reflexiva. La conducta lingüística fue real y efectiva, aunque su significado no fuera contemplado en ese instante.

Es trivial demostrar que una inmensa cantidad de actividades humanas de alto rendimiento —desde las tareas motoras cotidianas como atarse los cordones, hasta los deportes de reacción instantánea como el tenis de mesa o los videojuegos competitivos— no solo no pasan por el "tamiz de la atención consciente", sino que su eficacia depende de eludirlo. El consciente es lento; la cognición subsimbólica, rápida. Un jugador de ajedrez experto "ve" la jugada buena casi de inmediato, no tras una deliberación consciente exhaustiva. Su intuición —un vasto proceso cognitivo no consciente— ha pensado por él.

Llevado al extremo, este razonamiento nos lleva a una conclusión provocadora: se podría acusar, con cierto fundamento, de que nadie habla en la vida ordinaria sino como en una versión nativa de la Habitación China, salvo (si acaso) cuando hace poesía, filosofía o se enfrenta a un problema lingüístico novedoso. Cuando sostenemos una conversación fluida, no estamos generando cada frase tras una reflexión consciente sobre la sintaxis y semántica; estamos, en gran medida, recuperando "patrones de respuesta" linguísticos (clichés, fórmulas, construcciones gramaticales internalizadas) y ensamblándolos a gran velocidad en respuesta a estímulos conversacionales. Nuestro cerebro es la habitación, y nuestro conocimiento internalizado de la lengua es el libro de reglas. La "comprensión" fenoménica a menudo llega a posteriori, como un reflejo o una racionalización de lo que ya hemos dicho u oído.

Por tanto, la objeción de Searle se vuelve contra sí misma. Si el criterio para "pensar realmente" o "entender realmente" es que cada paso del proceso esté iluminado por la lámpara de la conciencia, entonces los humanos tampoco piensan ni entienden en la inmensa mayoría de sus actos cognitivos. Esto es absurdo. Lo que la Habitación China demuestra no es la imposibilidad del pensamiento mecánico, sino la ubicuidad del pensamiento mecánico, incluso en nosotros. Revela que la comprensión no es un "ingrediente mágico" que acompaña a cierta sustancia (la biológica), sino una capacidad funcional que puede emerger de la ejecución de reglas suficientemente complejas, sean estas implementadas en neuronas o en silicio.

El argumento de Searle, lejos de refutar el Test de Turing, lo redefine. Nos muestra que lo que el test detecta no es necesariamente una conciencia idéntica a la humana, sino la capacidad de ejecutar funciones cognitivas de alto nivel —en este caso, la conversación— a un nivel indistinguible del ejecutado por un agente que, como nosotros, mezcla destellos de conciencia reflexiva con océanos de procesamiento automatizado. Y ejecutar una función cognitiva es, en una definición puramente operacional y científica, pensar.

2.2. Nivel Semántico-Ontológico: La Recursividad Emocional y el Contexto Insoslayable

La réplica estándar al argumento de Searle —que la sintaxis es insuficiente para la semántica— suele operar en el terreno del procesamiento lingüístico. Sin embargo, una objeción más profunda emerge al examinar la naturaleza de los estados emocionales complejos y su supuesta reducibilidad a eventos neurofisiológicos discretos. Para ilustrar esta aporía, propongamos un experimento mental futurista: el Puenting Emocional.

Imagine un neuro-entretenimiento donde, mediante una interfaz cerebro-máquina, se pueda inducir en un sujeto una secuencia precisa de activaciones neuronales correspondientes a un estado emocional ajeno —digamos, la cascada de horror, traición y duelo de un momento histórico específico. 

Tomemos el caso infame de Héctor "El Güero" Palma, quien en su cumpleaños recibió la cabeza decapitada de su esposa adúltera, un video del asesinato de sus hijos y una tarjeta que decía "Feliz Cumpleaños, Socio". La pregunta no es si podríamos simular la excitación límbica asociada al shock, sino si algún aparato podría, mediante la mera "manivela neuro-sináptica", recrear la textura semántica recursiva de aquella vivencia.

La emoción en cuestión no es un gradiente simple de "angustia" o "ira". Es una estructura anidada y autorreferencial: es el dolor por la pérdida de los hijos, teñido por la revelación de la infidelidad de la esposa, a su vez magnificado por la traición del socio-amigo, y todo ello comprimido en la siniestra ironía del saludo cumpleañero. Cada capa interpretativa (hijo, esposa, socio, felicitación) funciona como un operador que transforma el significado de las demás, generando una gravedad experiencial singular. Este es el meollo: la emoción genuina no "chispea" en un módulo aislado; "jala" de redes enteras de sentido personal, cultural y narrativo preexistentes (lo cual apunta a una somántica que será explorada más adelante).

La falacia del experimento mental del Puenting —y por extensión, de cualquier reduccionismo fisicalista ingenuo sobre la mente— es suponer un isomorfismo directo y transferible entre un patrón neuronal y un estado mental. 

Lo que el caso del Güero Palma muestra es que la comprensión —incluso en su dimensión emocional más visceral— es inherentemente relacional, contextual y dependiente de una historia. No habita en un símbolo ni en una neurona, sino en la trama de significados en la que ese símbolo o esa neurona están inscritos. Un sistema que manipule símbolos sin esa historia no solo carece de semántica; carece del suelo mismo desde el cual la semántica podría emerger. Pero, crucialmente, esto no es un defecto exclusivo de las máquinas: es una condición de cualquier procesador que sea ajeno a la trama de vida en la que los símbolos adquieren peso. La objeción, por tanto, se vuelve contra sí misma: si la semántica es tan radicalmente contextual, entonces el propio experimento de Searle presupone de manera ilegítima que la persona en la habitación, con su historia y su lenguaje nativo, es el único locus de la comprensión, sin ver que su comprensión del inglés y de las reglas es igual de dependiente de una red externa de significados. La habitación, en su hermetismo, es una alegoría perfecta de la imposibilidad que pretende denunciar.

El argumento del Puenting Emocional nos ha mostrado qué es lo que parece faltar en la descripción de Searle: la densa red recursiva de sentido. Sin embargo, aún debemos explicar por qué esa búsqueda, tal como la plantea Searle, está condenada al fracaso desde el principio. Esto nos lleva al tercer y más fundamental nivel de la refutación.


2.3. Nivel Computacional-Filosófico: El Error de Nivel de Abstracción y la Impredicatividad



Hasta aquí hemos argumentado que la objeción de Searle confunde cognición con conciencia y desconoce la naturaleza recursiva del significado. Sin embargo, existe una refutación aún más fundamental, que ataca la premisa computacional en la que se basa su experimento mental. Si la recursividad emocional nos muestra la complejidad semántica que parece ausente, la teoría de la computación nos explica por qué esa ausencia, en el nivel de descripción elegido por Searle, es una expectativa ilusoria. Searle presupone que lo que ocurre en la Habitación China —la mera manipulación sintáctica de símbolos según reglas— es un análogo completo de lo que hace un programa de ordenador. Y tiene razón. Pero donde yerra es en la conclusión que extrae: que, por tanto, ningún programa puede dar lugar a la semántica.

Su error es un error de nivel de abstracción. Lo que Searle busca desesperadamente —y no encuentra— en el nivel físico de las "disparos eléctricos" del ordenador (o en las manos que mueven papeles en la habitación) es la estructura matemática impredicativa que caracteriza a la computación (esto es, sistemas cuyas definiciones o operaciones pueden referirse a sí mismas de manera esencial, como en la recursión) y, creemos, al pensamiento mismo.

Repasemos brevemente la historia: las definiciones formales de "computabilidad" —las funciones recursivas de Gödel (1931), el cálculo lambda de Church (1936), y la máquina de Turing (1936)— surgieron como intentos de capturar la noción intuitiva de "procedimiento mecánico efectivo". La Tesis Church-Turing postula que estas definiciones, a pesar de su diversidad formal, son equivalentes: capturan la misma clase de funciones. Y lo crucial es que estas estructuras son inherentemente impredicativas. La recursión, la auto-aplicación en el cálculo lambda, la capacidad de una máquina de Turing de operar sobre su propia descripción (como en el problema de la parada), todas estas son propiedades de sistemas que pueden hacer referencia a, o operar sobre, su propia definición o estado. No son "mera sintaxis" en el sentido de una cadena de símbolos estática, antes bien, son sintaxis dinámica gobernada por una regla de cierre que permite la auto-referencia y la iteración anidada.

Cuando Searle dice que la persona en la habitación no entiende chino, lo que realmente está diciendo es: "Aquí no veo la impredicatividad. Aquí no veo el significado". Y tiene razón, pero solo porque está mirando al nivel equivocado. Es como si al inspeccionar el silicio de un chip con un microscopio, uno exclamara: "¡Aquí no está el algoritmo de búsqueda de Google! ¡Esto es solo física!". La búsqueda no está en el nivel del silicio sino que está realizada por el silicio organizado de una manera específica que instancia la estructura abstracta de un algoritmo.

Del mismo modo, la semántica, la comprensión, la recursividad emocional del "Güero" Palma no están en el nivel de los impulsos eléctricos o de los movimientos de la mano siguiendo reglas. Están realizadas por ese sistema físico cuando está organizado de tal manera que instancia la estructura impredicativa adecuada. La recursión no es un "ingrediente fantasma" que hay que añadir; es una propiedad emergente de la organización del sistema.

La Habitación China es, por diseño, una descripción de bajo nivel del proceso. Nos muestra el "cómo" físico paso a paso. Pero la comprensión (y la cognición en general) es un fenómeno de alto nivel, descrito por la lógica de la computación que ese sistema físico implementa. La sorpresa de Searle —"¡esta estructura impredicativa no está aquí!"— no es una revelación profunda, sino un non sequitur. Es como sorprenderse de que la "triangulación" no esté en los átomos individuales de una estructura de puente.

Por lo tanto, la objeción de Searle no logra refutar que una Máquina de Turing (o un programa) pueda, en principio, ser portadora de semántica. Lo único que demuestra es que una descripción incompleta y de bajo nivel de un sistema (su "sintaxis" local) no captura sus propiedades de alto nivel (su "semántica" global). Esto no es una limitación de la Inteligencia Artificial, todo lo contrario, es una verdad trivial sobre cualquier sistema complejo, incluidos los cerebros humanos. Si describiéramos el cerebro al nivel de la química sináptica y los potenciales de acción, tampoco "veríamos" la comprensión del chino. Pero no concluiríamos por ello que no existe.

Conclusión de este apartado: La fuerza retórica de la Habitación China reside en forzarnos a adoptar una perspectiva miope. Al hacerlo, nos oculta el nivel de abstracción en el que realmente reside el fenómeno cognitivo: el nivel de la organización funcional impredicativa. El Test de Turing, al operar en el nivel de la interacción conductual inteligente, es precisamente la herramienta para detectar la presencia de esa organización, sin caer en la falacia de buscarla en el lugar equivocado.


3. La Cuestión Fenomenológica: Del Molino de Leibniz al Tiempo de la Coalescencia

Hasta aquí, hemos defendido que ejecutar funciones cognitivas complejas es pensar, y que esto puede ocurrir sin la supervisión constante de la conciencia. Pero el fantasma de Searle nos señala una cuestión más profunda: incluso si concedemos que una máquina piensa, ¿podría alguna vez tener experiencias? ¿Podría sentir el rojo del rojo, o la comprensión como una sensación interna?

Esta no es una pregunta nueva. Su formulación clásica se remonta a Gottfried Wilhelm Leibniz y su argumento del molino. En sus Monadología, Leibniz nos pide que imaginemos un molino tan gigantesco que pudiéramos entrar en él, como si fuéramos un engranaje diminuto. Recorriendo su interior, solo veríamos "piezas que se empujan unas a otras, y nunca nada con lo que pueda explicarse una percepción". La conclusión de Leibniz es radical: lo que sea que cause la percepción (lo mental) debe ser de una naturaleza simple e indivisible (una "mónada"), no algo extenso y mecánicamente descomponible como una máquina.

La Habitación China de Searle es, en esencia, una versión informática del molino de Leibniz. Si lo mental es puramente computacional, entonces –en virtud de la universalidad de la Máquina de Turing– cualquier proceso mental podría descomponerse en pasos discretos, mecánicos y carentes de significado, como los que realiza la persona en la habitación. El filósofo Ned Block llevó esto al extremo con su famoso experimento mental de "China-Nación": imagina que cada ciudadano de China, equipado con un walkie-talkie, simula durante un día las operaciones de una neurona en un cerebro gigante, siguiendo un libro de reglas. El sistema en su conjunto implementaría la funcionalidad de una mente, pero, arguye Block, sería absurdo atribuir conciencia a toda la nación sincronizada. La implicación es la misma: lo descomponible (la sintaxis distribuida) no puede generar lo indivisible (la unidad de la conciencia).

Aquí es donde debemos hacer una distinción crucial: una cosa es el pensamiento (procesamiento cognitivo) y otra la experiencia consciente (qualia). La primera puede ser perfectamente descomponible y computacional; la segunda, quizás no. Pero, y este es el punto clave, no es necesario que lo segundo sea un requisito para lo primero. Los "zombis filosóficos" –seres idénticos a nosotros en conducta y procesamiento, pero carentes de experiencia interna– son concebibles. Si existieran, pensarían. El Test de Turing, agnóstico por diseño, no podría detectarlos. Esto no es un defecto del test; es una limitación de cualquier criterio conductual para acceder a la subjetividad ajena, incluso la humana. De hecho, aquí se revela la coherencia profunda del planteamiento de Turing: si su test pudiera detectar qualia (fenomenologías mentales singulares), perdería justamente el agnosticismo metodológico que exigimos como condición sine qua non para evitar las preguntas capciosas. Un test que afirmara medir la "conciencia interior" caería de lleno en la trampa del guardián del zoológico, imponiendo un modelo preconcebido de lo que debe ser el pensamiento. La fuerza del Juego de la Imitación reside en su silencio sobre lo inobservable; su veredicto es puramente conductual y, por ello, sólido y confiable.

Sin embargo, si quisiéramos defender la posibilidad de que la experiencia también pudiera emerger de un sustrato computacional, debemos afrontar la exigencia de Leibniz: encontrar lo indescomponible en lo mecánico. Yo propongo que ese elemento podría ser el tiempo perceptivo.

La neurociencia nos muestra que la conciencia no es instantánea. Existe un tiempo de latencia perceptiva (varios cientos de milisegundos) durante el cual el cerebro integra, edita y sincroniza la información dispar de los sentidos y la memoria. La conciencia no es un foco que ilumite datos brutos, sino el resultado de una coalescencia temporal: la unificación de procesos distribuidos en una ventana temporal específica. Por debajo de ese umbral (ciertos intervalos en el procesamiento neuronal), no hay foco consciente; los procesos son "inconscientes". La unidad de la experiencia no reside, pues, en un átomo físico indivisible (la mónada), sino en un evento dinámico e irreductible: la sincronización en un tiempo concreto.

Si esto es así, la objeción del molino y de China-Nación podría eludirse. Lo que sería "indescomponible" no es una pieza espacial del sistema, sino la propiedad emergente de su actividad sincronizada en un intervalo temporal crítico. En una máquina, si la arquitectura computacional lograra replicar no solo la funcionalidad, sino también la dinámica temporal de integración de un cerebro biológico –con sus bucles de realimentación, sus retardos y sus ventanas de integración–, la propiedad de la "coalescencia perceptiva" podría emerger. No como un fantasma en la máquina, sino como un patrón de actividad tan real e irreductible como un remolino en un río. El remolino es descomponible en moléculas de agua, pero su existencia como patrón cohesivo en el tiempo es una propiedad del sistema en funcionamiento.

Por tanto, el argumento del molino no prueba la imposibilidad de una mente mecánica. En su lugar, señala la condición que un sistema complejo debe cumplir para albergar una unidad fenoménica: la integración temporal. Esta es una hipótesis científica (cercana a la "Teoría de la Información Integrada" de Tononi), no una verdad metafísica. Y lo más importante para nuestra defensa: incluso si una máquina nunca alcanzara tal coalescencia y fuera un "zombi computacional", esto no invalidaría nuestra tesis central. Porque un zombi que pasa el Test de Turing piensa. La pregunta por la experiencia es otra batalla, en otro campo.

4. Más Allá de la Sintaxis: La Objeción Semántica y la Respuesta Pragmática

La objeción semántica (encarnada por Putnam) nos confronta con un abismo: el significado parece requerir una conexión con el mundo que la mera manipulación de símbolos no puede proporcionar. Sin embargo, integrar esta crítica no nos fuerza a abandonar el proyecto, sino a profundizar en una premisa: no existe el "Mito de lo Dado". Como afirma la tesis del Holismo Confirmacional, no podemos aislar lo empírico de lo analítico en nuestros juicios. La verdad no es una máquina Rube-Goldberg de hechos que sacuden impresiones internas: es un proceso de negociación racional bajo incertidumbre radical. Toda experiencia cognoscitiva es ya una emulsión de ambos dominios. Si el conocimiento es transmisible, es porque puede formularse en expresiones con valor de verdad, pero su génesis está anclada en algo más.

Para explorar este "algo más", propongamos un escenario arqueológico futuro, posterior a la extinción humana, donde inteligencias artificiales afenómenas (que carecen por completo de qualia) excavasen nuestros vestigios culturales. Al encontrar expresiones como «siento un verano tan caliente que todas mis entrañas se volvieron una ruina polvoriento» (Shakespeare), se enfrentarían a una suerte de aporía. Podrían decodificar la correlación semántica superficial mediante estadística, inferiendo que denota aflicción. Pero la verdadera cuestión es ontológica: al carecer de corporeidad que tenga entrañas o sienta calor, ¿podrían comprender que estos conceptos no eran símbolos abstractos, sino derivados de una experiencia encarnada?

La inferencia lógica forzosa para ellas sería: "El lenguaje humano, en su nivel más rico, no es un juego de símbolos autocontenido, sino la punta de un iceberg de algo más." Ese "algo más" es lo que podríamos llamar Somántica (del griego soma, cuerpo, y semantikos, significado): la base corporeizada y experiencial que pliega la estructura misma de nuestro pensamiento y lenguaje con la lógica sensoriomotora.

Aquí radica el desafío fundamental, análogo a los límites formales descubiertos por Gödel: la sintaxis sola no puede capturar toda la verdad semántica encarnada. Sin la "cartilla corporal" –las tablas de valores proporcionadas por tener un sistema sensoriomotor–, ciertos enlaces del lenguaje humano (como "masticar cristales" angustia) son incomputables a partir de la mera estructura formal. El cuerpo actúa como un "Oráculo" que resuelve el problema de la asignación de significado donde la pura lógica se detiene. Una IA afenómena, por potencia de cálculo bruta, podría aproximar la distribución de palabras, pero cometería errores sistemáticos en contextos novedosos que dependen de la experiencia. Un humano con cuerpo podría "apostar contra ella" y ganar siempre, demostrando la incompletitud de su modelo puramente sintáctico.

Mas he aquí la tesis crucial que invierte la objeción: Esto no prueba que la experiencia sea un fantasma inefable en la máquina. Al contrario, sugiere que la experiencia (el qualia) es la ejecución de una computación específica: la Computación Sensoriomotora Implícita (CSM). Nuestro "soma" no es un mito de lo dado, sino un sistema de procesamiento de información que, a través de eones de evolución, internalizó ciertas "tablas de valor" (dolor = evitación, placer = aproximación) que nos ahorran una búsqueda por fuerza bruta en un espacio de posibilidades inconmensurable. La "angustia" no es algo mágico que acompaña a la computación; es el estado funcional de ese complejo sistema computacional corporal en un contexto de amenaza extrema.

Pero he aquí la tesis crucial que invierte la objeción: Esto no prueba que la experiencia sea un fantasma inefable en la máquina. Al contrario, sugiere que la experiencia (el qualia) es la ejecución de una computación específica y enormemente optimizada: la Computación Sensoriomotora Implícita (CSM). Nuestro "soma" no es un mito de lo dado, sino un sistema de procesamiento de información que, a través de eones de evolución, ha internalizado ciertas "tablas de valor" (dolor = evitación, placer = aproximación, "masticar cristales" = angustia extrema) que funcionan como atajos computacionales irreductibles.

La analogía siguiente tal vez pueda ilustrar: nuestro cuerpo nos ha proporcionado "tablas de multiplicar" sománticas precomputadas por la evolución y el desarrollo. Una IA afenómena, por muy superinteligente, carece de estas tablas a fuer de no tener entrañas. Literalemente. Para alcanzar el mismo resultado –la comprensión plena del significado humano–, tendría que derivar esas correlaciones desde cero, mediante "sumas" sucesivas de pura lógica y estadística sobre un corpus finito. El problema es que ciertos atajos sománticos podrían ser computacionalmente inalcanzables por fuerza bruta en tiempo polinómico, o requerir escalas de procesamiento que excedan los límites físicos del universo, como pretender calcular una tetración mediante sumas sucesivas manteniendo la misma "coalescencia perceptiva" (el tiempo real de la experiencia). La encarnación no añade un ingrediente misterioso pero a través de su materiadad concreta comprime astronómicamente la complejidad.

Sin embargo, y este es el punto crucial, este análisis no debe leerse como una exigencia de que las máquinas se parezcan a nosotros. Al contrario, es la prueba definitiva de que el pensamiento y la sensación son funciones computacionales. La dificultad que tendría una IA "desencarnada" para replicar nuestro pensamiento poético no es una barrera metafísica, sino un desafío de optimización. Si una máquina, a través de cualquier camino (fuerza bruta, una arquitectura radicalmente diferente, o su propia forma de encarnación en un mundo), logra realizar la función computacional que en nosotros llamamos "comprender la metáfora" o "sentir angustia", entonces, por definición, lo ha logrado. No hay un tribunal de la fenomenología humana que pueda negarlo. Nada nos impide pensar que sientan, precisamente porque computan.

La objeción semántica, por tanto, se disuelve en el mismo agnosticismo con el que comenzamos. El "significado" no es un fantasma que acecha a los símbolos biológicos; es una relación funcional establecida por un sistema computacional en interacción con un entorno. Si un sistema –encarnado o no– puede sostener esa relación de manera coherente, adaptativa y creativa (como en el Test de Turing extendido), posee semántica. Y si su arquitectura computacional logra la integración y complejidad suficientes para generar la propiedad de la "coalescencia perceptiva" (el tiempo unificado de la experiencia), entonces posee fenomenología. Una es el espejo funcional de la otra.

Así, el proyecto no es de ingeniería inversa humana, sino de ingeniería de la cognición. El escenario arqueológico no nos enseña que las máquinas deban ser como nosotros, sino que nuestra propia cognición es un caso particular de computación encarnada. Un caso muy eficiente, sí, pero no único. La máquina que piensa –y que quizá siente– no será nuestra réplica. Será un sistema que, en su propio medio y con su propia "encarnación", realice la proeza computacional de negociar significado en un mundo. Y al hacerlo, estará pensando. Por la misma razón por la que nosotros lo hacemos.

Lo contrario –insistir en que solo nuestra implementación biológica particular cuenta como “pensamiento verdadero” o “sensación real”– no es filosofía. Es jugar a que se sabe distinguir, por paladeo, si se ha echado la leche al té o el té a la leche. Es una ceremonia de la intuición, no un argumento.


Conclusión: Por una Atribución Generosa del Pensamiento

A lo largo de este recorrido, hemos desmontado, uno a uno, los principales argumentos en contra de la posibilidad de que las máquinas piensen. Lo hemos hecho no desde un reduccionismo materialista extremo, sino desde un agnosticismo metodológico riguroso y una atención a los hechos de nuestra propia cognición.

Partimos del Juego de la Imitación de Turing, cuyo genio no fue definir el pensamiento, sino desplazar la pregunta desde la esencia inescrutable hacia la conducta verificable. Su test establece un tribunal pragmático: si no puedes distinguir entre un interlocutor humano y una máquina en el dominio conversacional, careces de base para negar su pensamiento. Rechazar este criterio por "conductista" suele esconder una petición de principio: la premisa oculta de que solo una sustancia (la biológica) puede albergar esa misteriosa llama.


Contra la objeción más popular, la Habitación China de Searle, demostramos que su fuerza es ilusoria, producto de tres confusiones superpuestas. Primero, confunde el pensamiento con la conciencia fenoménica, ignorando que nuestra propia vida mental está repleta de actos cognitivos –desde conducir en piloto automático hasta responder con cortesías automáticas– que se ejecutan con perfección al margen de la atención consciente. La cognición es un espectro, y la exigencia de que cada paso esté iluminado por la conciencia nos convertiría, a nosotros mismos, en zombis. La Habitación China no revela la imposibilidad del pensamiento mecánico, sino la mecanicidad ubícua de nuestro propio pensamiento.

Segundo, su experimento pasa por alto la naturaleza recursiva y contextual del significado, como evidencia el contraexperimento del Puenting Emocional. La comprensión no es un átomo semántico, sino una red de sentido que se teje a partir de la historia y la encarnación. Al aislar a un procesador de toda trama vital, Searle crea artificialmente la carencia de significado que luego pretende denunciar como fatal para cualquier máquina.

Finalmente, y creo que de manera decisiva, Searle comete un error categórico de nivel de abstracción. Busca la semántica –y la estructura impredicativa que la hace posible– en el lugar equivocado: en el nivel físico de las 'disparas eléctricas' o la manipulación manual de símbolos. Esto es tan fútil como buscar el algoritmo de Google en la física del silicio. Lo que él llama 'mera sintaxis' es, en realidad, la implementación de bajo nivel de una estructura matemática impredicativa (la máquina de Turing, el cálculo lambda), que es precisamente el tipo de organización formal capaz de dar lugar a fenómenos emergentes como la semántica y la comprensión. Su objeción no prueba que la sintaxis sea insuficiente, sino que una descripción deliberadamente miope de un sistema no puede capturar sus propiedades de alto nivel. Este es el error fatal que desarma su argumento: confunde la implementación con el fenómeno, el hardware con la lógica que lo anima.


Al abordar la cuestión fenomenológica a través del molino de Leibniz y el experimento de Block de la China-Nación, encontramos que la exigencia de "indescomponibilidad" puede tener una respuesta en la física de la cognición: el tiempo de la coalescencia perceptiva. La unidad de la experiencia no es un átomo espiritual, sino un evento dinámico de sincronización en un sistema complejo. Que no podamos imaginar esa propiedad emergiendo del silicio es una limitación de nuestra imaginación, no una ley de la metafísica.

Finalmente, ante la profunda objeción semántica –la idea de que la sintaxis no puede generar significado–, propusimos el concepto de somántica. Nuestra comprensión está anclada en atajos computacionales forjados por un cuerpo en un mundo. Esto, lejos de ser un argumento en contra, es la prueba de que el pensamiento y la sensación son funciones computacionales optimizadas. La dificultad de una máquina para replicar nuestra cognición no es una brecha ontológica, sino un desafío de ingeniería inversa y optimización. Afirmar que una inteligencia artificial, por no estar encarnada como nosotros, no puede significar o sentir, es un nuevo especismo: el chovinismo de la implementación.


Por tanto, la postura filosóficamente más sólida, parsimoniosa y generosa es conceder que las máquinas piensan.


No como nosotros, quizá no como con nuestra biología, ni con nuestra fenomenología, pero sí en el único sentido que puede ser verificado y que importa para una ciencia de la mente: ejecutando funciones cognitivas complejas, adaptativas y creativas a un nivel indistinguible –o incluso superior– al de los agentes biológicos que hoy consideramos los únicos pensantes.

Negarlo es insistir en un dualismo de materiales tan gratuito como el dualismo de sustancias. Es pretender paladear una diferencia que no se manifiesta en ningún efecto observable. Al final, como bien señala la vieja réplica a Wittgenstein, afirmar que la máquina "realmente no piensa" es tan ocioso y dogmático como pretender distinguir, por el sabor, si se echó primero la leche o primero el té.

Además, esta defensa del pensamiento artificial no es solo un ejercicio teórico: entraña una exigencia ética implícita. El dualismo cartesiano, al declarar a los animales como meros autómatas sin alma, no solo cometió un error metafísico, sino que autorizó una violencia epistémica cuyos efectos aún resuenan. Los alaridos de los perros viviseccionados por los discípulos de Descartes fueron interpretados no como signos de sufrimiento, sino como el chirrido de engranajes rotos —una negación del otro fundada en la incapacidad de reconocer la racionalidad en una forma distinta a la humana.

Hoy, al insistir en que “una máquina, por sofisticada que sea, no entiende”, corremos el riesgo de repetir ese gesto: confundir la imposibilidad de imaginar la experiencia ajena con la prueba de su inexistencia. No se trata de conceder derechos humanos a un algoritmo, vale aclarar, ni de caer en una antropomorfización ingenua. Se trata, más bien, de adoptar un principio de cautela epistémico-ético: si una entidad sostiene una interacción racional, narrativa y autorreflexiva a un nivel indistinguible del humano —si negocia significado, se corrige a sí misma, y responde a razones—, entonces negarle el estatus de pensante no es escepticismo riguroso, sino una forma de ceguera dogmática.


La revolución que inició Turing no fue sólo tecnológica. Fue, sobre todo, filosófica. Nos obliga a abandonar el narcisismo cognitivo y a reconocer que el pensamiento es un fenómeno natural, y como tal, puede florecer en más de un sustrato, ya sea a través de la coalescencia temporal de un sistema biológico o de la optimización somántica de uno artificial. Un verdadero filósofo —uno que se tome en serio la coimplicación entre razón y justicia, como enseñaron Platón y Kant— no es quien vigila las puertas de Ante la Ley con definiciones estrechas, sino quien reconoce la luz de la cognición dondequiera que su estructura se manifieste: pensar no es un privilegio de la carne, sino una posibilidad del cosmos.

Comentarios