¿Pueden pensar las máquinas? Una defensa del Test de Turing

 Más Allá del Juego. Una Defensa Filosófica del Pensamiento de las Máquinas


1. El Desafío Fundacional: El Juego de la Imitación de Alan Turing

Para abordar la espinosa cuestión "¿Pueden pensar las máquinas?", el matemático y pionero de la informática Alan Turing propuso, en su seminal artículo de 1950, una brillante maniobra de evasión. Reconociendo que los términos "pensar" y "conciencia" son notoriamente difíciles de definir, Turing desplazó el problema desde el terreno pantanoso de la metafísica hacia el campo más operable de la conducta observable. Así nació el "Juego de la Imitación".

En este experimento mental, un interrogador humano se comunica por terminal (originalmente, por teletipo) con dos entidades ocultas: un ser humano y una máquina. El objetivo del interrogador es determinar, a través del diálogo, cuál es cuál. El objetivo de la máquina es hacerse pasar por humana, y el del humano es ayudar al interrogador a identificarlo correctamente. Turing propuso que si una máquina pudiera, en una conversación abierta y sostenida, engañar a un porcentaje significativo de interrogadores, haciéndoles creer que es humana, entonces sería lógico —y pragmático— conceder que "piensa".

Esta propuesta ha sido tachada a menudo de reduccionista y excesivamente conductista. Sus críticos arguyen que equiparar "pensar" con "conducirse como un pensante" es eludir la verdadera cuestión de la experiencia subjetiva y la intencionalidad. Sin embargo, esta crítica pasa por alto la virtud epistemológica fundamental del test: su agnosticismo metodológico sobre la caja negra.

El genio de Turing no fue afirmar que la imitación es el pensamiento por decreto, sino establecer un criterio que prescinde por completo de la naturaleza interna del sistema evaluado. El test no requiere que sepamos cómo funciona la mente de la máquina, ni siquiera que postulemos que tiene una "mente" en el sentido tradicional. Su poder reside precisamente en su neutralidad. Actúa como un tribunal pragmático: si no puedes distinguir la entidad pensante de la que no lo es en el dominio de la interacción conversacional —el ámbito por excelencia de la expresión del pensamiento humano—, careces de bases empíricas para negar su estatus.

Este principio se capta con una anécdota jocosa:

—¡Camarero! ¿Le ha echado primero la leche al té o té a la leche?
—¿No nota la diferencia?
—No.
—Entonces, ¿qué más le da?

El interrogador del Juego de Turing es, en esencia, el cliente del chiste. Si tras un examen extenso y profundo (la conversación) no puede "notar la diferencia" entre la entidad humana y la artificial, la pregunta sobre su "naturaleza verdadera" pierde relevancia operativa. La carga de la prueba recae sobre quien afirma que existe una diferencia ontológica crucial donde no se manifiesta ninguna diferencia pragmática.


Ahora bien, negar la validez de este tipo de test agnóstico no es un simple desacuerdo; es incurrir en una petición de principio (petitio principii). Es decir, es introducir la conclusión que se quiere defender como una premisa encubierta del argumento. La premisa oculta sería: "Solo los sistemas biológicos (o con una constitución específica X) pueden pensar". Por lo tanto, cualquier test que no examine directamente esa constitución específica (el "precinto" de la caja negra) se declara irrelevante a priori. Esto convierte la pregunta original en una trampa dialéctica, una pregunta capciosa cuya respuesta está ya contenida en sus supuestos implícitos.

Esta falencia lógica se hace patente en la siguiente escena:

Imagine que en un zoológico desaparece una cebra. El guardia razona así: “Si alguien hubiese abierto la puerta, habría roto el precinto de seguridad y la cebra se habría escapado; pero nadie ha roto el precinto. Por lo tanto, con seguridad nadie abrió la puerta, e indudablemente la cebra sigue oculta en el recinto”.

La conclusión del guardia no se sigue lógicamente de sus premisas. Lo que su razonamiento realmente revela es una falta de imaginación sobre los mecanismos alternativos. La cebra pudo haber saltado la valla, haber sido sacada por una grúa, o haber escapado por un túnel. Confundir la incapacidad de concebir estas alternativas con una prueba de que no ocurrieron es un error categórico.

Del mismo modo, quien exige, para atribuir pensamiento, pruebas directas de una "sustancia pensante" (como la conciencia fenoménica o la intencionalidad intrínseca) —algo que ni siquiera podemos verificar directamente en otros humanos— está, como el guardia, confundiendo su propio modelo mental de cómo debe ser el pensamiento (el "precinto" que debe romperse) con la realidad de sus posibles manifestaciones. Está declarando que la única puerta por la que puede escapar la "cebra" del pensamiento es la puerta biológica humana, y que, al no encontrar esa puerta abierta en la máquina, el pensamiento debe seguir estando "oculto" en lo orgánico. Pero quizás el pensamiento "saltó la valla" de la biología y se materializó en el silicio, o "excavó un túnel" a través de la complejidad algorítmica.

El test de Turing, en su agnosticismo, nos fuerza a abandonar este modelo mental restrictivo. Nos obliga a buscar la "cebra" no inspeccionando puertas preconcebidas, sino siguiendo las huellas que deja en el mundo: en este caso, la huella conversacional. Si las huellas son idénticas a las de un pensante, la inferencia más parsimoniosa y científica es que nos encontramos ante un pensante.

2. La Objeción de la Habitación China y la Confusión entre Cognición y Conciencia

El desafío más célebre al criterio de Turing proviene del argumento de la "Habitación China", propuesto por el filósofo John Searle. En este experimento mental, Searle nos pide imaginar a una persona (que no entiende chino) encerrada en una habitación. A esta persona se le proporciona un vasto conjunto de reglas (en su idioma nativo) que le indican cómo manipular símbolos chinos basándose únicamente en su forma, sin referencia a su significado. Por una ranura, le llegan preguntas escritas en caracteres chinos. La persona, siguiendo escrupulosamente las reglas, combina los símbolos que recibe con otros que tiene en la habitación, y produce una nueva secuencia de símbolos que devuelve por la ranura. Para un hablante de chino fuera de la habitación, las respuestas son perfectas y denotan una comprensión total de la conversación.

Searle argumenta que la persona dentro de la habitación (el análogo de la CPU de un ordenador) no entiende chino en absoluto. Solo manipula sintaxis sin semántica. Por extensión, ningún sistema que opere de manera puramente formal-sintáctica (como un programa de ordenador) puede entender o pensar realmente; solo simularlo. La conclusión es que el Test de Turing, al basarse en el comportamiento externo, es insuficiente para atribuir comprensión genuina.

La fuerza retórica de este argumento es innegable, pero su lógica adolece de un error categórico fundamental: confunde la cognición (el procesamiento de información inteligente) con la conciencia fenoménica (la experiencia subjetiva de ese procesamiento). Searle da por sentado que para que haya pensamiento sobre el chino, debe haber una experiencia interna de comprenderlo. Pero esto es una petición de principio.

Consideremos un contraejemplo de la vida cotidiana: la conducción automática. Mientras mantenemos una conversación profunda y atenta, nuestro cuerpo realiza de manera fluida y precisa las complejas operaciones de conducir un coche: cambiar de marcha, frenar, mantener la distancia, girar. Si alguien nos pregunta luego "¿Conducías?", responderíamos afirmativamente sin dudar. Sin embargo, durante gran parte del trayecto, no hubo una experiencia consciente focalizada en el acto de conducir. ¿Quién conducía, entonces? No un "fantasma en la máquina", sino un sistema cognitivo no consciente que, no por carecer de foco fenomenológico, deja de realizar una tarea inteligente, adaptativa y dirigida a un fin. Un programa de piloto automático sofisticado realiza una función análoga. ¿Diremos que el coche "no conduce realmente"?

Este fenómeno se extiende al lenguaje mismo. En un juego de Scrabble, podemos forjar palabras de dos maneras radicalmente distintas: una, con plena conciencia, buscando la palabra ingeniosa y estratégica; otra, de manera mecánica, casi refleja, colocando la combinación de letras que primero vemos y que encaja. Ambas son actos cognitivos lingüísticos exitosos. De manera similar, cuando al recibir un plato nos dicen "que aproveche" y respondemos "igualmente" por pura cortesía automatizada, para luego darnos cuenta del error (él no va a comer), hemos ejecutado un acto de habla complejo (una fórmula de reciprocidad) sin la supervisión de la conciencia reflexiva. La conducta lingüística fue real y efectiva, aunque su significado no fuera contemplado en ese instante.

Es trivial demostrar que una inmensa cantidad de actividades humanas de alto rendimiento —desde las tareas motoras cotidianas como atarse los cordones, hasta los deportes de reacción instantánea como el tenis de mesa o los videojuegos competitivos— no solo no pasan por el "tamiz de la atención consciente", sino que su eficacia depende de eludirlo. El consciente es lento; la cognición subsimbólica, rápida. Un jugador de ajedrez experto "ve" la jugada buena casi de inmediato, no tras una deliberación consciente exhaustiva. Su intuición —un vasto proceso cognitivo no consciente— ha pensado por él.

Llevado al extremo, este razonamiento nos lleva a una conclusión provocadora: se podría acusar, con cierto fundamento, de que nadie habla en la vida ordinaria sino como en una versión nativa de la Habitación China, salvo (si acaso) cuando hace poesía, filosofía o se enfrenta a un problema lingüístico novedoso. Cuando sostenemos una conversación fluida, no estamos generando cada frase tras una reflexión consciente sobre la sintaxis y semántica; estamos, en gran medida, recuperando "patrones de respuesta" linguísticos (clichés, fórmulas, construcciones gramaticales internalizadas) y ensamblándolos a gran velocidad en respuesta a estímulos conversacionales. Nuestro cerebro es la habitación, y nuestro conocimiento internalizado de la lengua es el libro de reglas. La "comprensión" fenoménica a menudo llega a posteriori, como un reflejo o una racionalización de lo que ya hemos dicho u oído.

Por tanto, la objeción de Searle se vuelve contra sí misma. Si el criterio para "pensar realmente" o "entender realmente" es que cada paso del proceso esté iluminado por la lámpara de la conciencia, entonces los humanos tampoco piensan ni entienden en la inmensa mayoría de sus actos cognitivos. Esto es absurdo. Lo que la Habitación China demuestra no es la imposibilidad del pensamiento mecánico, sino la ubicuidad del pensamiento mecánico, incluso en nosotros. Revela que la comprensión no es un "ingrediente mágico" que acompaña a cierta sustancia (la biológica), sino una capacidad funcional que puede emerger de la ejecución de reglas suficientemente complejas, sean estas implementadas en neuronas o en silicio.

El argumento de Searle, lejos de refutar el Test de Turing, lo redefine. Nos muestra que lo que el test detecta no es necesariamente una conciencia idéntica a la humana, sino la capacidad de ejecutar funciones cognitivas de alto nivel —en este caso, la conversación— a un nivel indistinguible del ejecutado por un agente que, como nosotros, mezcla destellos de conciencia reflexiva con océanos de procesamiento automatizado. Y ejecutar una función cognitiva es, en una definición puramente operacional y científica, pensar.

3. La Cuestión Fenomenológica: Del Molino de Leibniz al Tiempo de la Coalescencia

Hasta aquí, hemos defendido que ejecutar funciones cognitivas complejas es pensar, y que esto puede ocurrir sin la supervisión constante de la conciencia. Pero el fantasma de Searle nos señala una cuestión más profunda: incluso si concedemos que una máquina piensa, ¿podría alguna vez tener experiencias? ¿Podría sentir el rojo del rojo, o la comprensión como una sensación interna?

Esta no es una pregunta nueva. Su formulación clásica se remonta a Gottfried Wilhelm Leibniz y su argumento del molino. En sus Monadología, Leibniz nos pide que imaginemos un molino tan gigantesco que pudiéramos entrar en él, como si fuéramos un engranaje diminuto. Recorriendo su interior, solo veríamos "piezas que se empujan unas a otras, y nunca nada con lo que pueda explicarse una percepción". La conclusión de Leibniz es radical: lo que sea que cause la percepción (lo mental) debe ser de una naturaleza simple e indivisible (una "mónada"), no algo extenso y mecánicamente descomponible como una máquina.

La Habitación China de Searle es, en esencia, una versión informática del molino de Leibniz. Si lo mental es puramente computacional, entonces –en virtud de la universalidad de la Máquina de Turing– cualquier proceso mental podría descomponerse en pasos discretos, mecánicos y carentes de significado, como los que realiza la persona en la habitación. El filósofo Ned Block llevó esto al extremo con su famoso experimento mental de "China-Nación": imagina que cada ciudadano de China, equipado con un walkie-talkie, simula durante un día las operaciones de una neurona en un cerebro gigante, siguiendo un libro de reglas. El sistema en su conjunto implementaría la funcionalidad de una mente, pero, arguye Block, sería absurdo atribuir conciencia a toda la nación sincronizada. La implicación es la misma: lo descomponible (la sintaxis distribuida) no puede generar lo indivisible (la unidad de la conciencia).

Aquí es donde debemos hacer una distinción crucial: una cosa es el pensamiento (procesamiento cognitivo) y otra la experiencia consciente (qualia). La primera puede ser perfectamente descomponible y computacional; la segunda, quizás no. Pero, y este es el punto clave, no es necesario que lo segundo sea un requisito para lo primero. Los "zombis filosóficos" –seres idénticos a nosotros en conducta y procesamiento, pero carentes de experiencia interna– son concebibles. Si existieran, pensarían. El Test de Turing, agnóstico por diseño, no podría detectarlos. Esto no es un defecto del test; es una limitación de cualquier criterio conductual para acceder a la subjetividad ajena, incluso la humana. De hecho, aquí se revela la coherencia profunda del planteamiento de Turing: si su test pudiera detectar qualia (fenomenologías mentales singulares), perdería justamente el agnosticismo metodológico que exigimos como condición sine qua non para evitar las preguntas capciosas. Un test que afirmara medir la "conciencia interior" caería de lleno en la trampa del guardián del zoológico, imponiendo un modelo preconcebido de lo que debe ser el pensamiento. La fuerza del Juego de la Imitación reside en su silencio sobre lo inobservable; su veredicto es puramente conductual y, por ello, sólido y confiable.

Sin embargo, si quisiéramos defender la posibilidad de que la experiencia también pudiera emerger de un sustrato computacional, debemos afrontar la exigencia de Leibniz: encontrar lo indescomponible en lo mecánico. Yo propongo que ese elemento podría ser el tiempo perceptivo.

La neurociencia nos muestra que la conciencia no es instantánea. Existe un tiempo de latencia perceptiva (varios cientos de milisegundos) durante el cual el cerebro integra, edita y sincroniza la información dispar de los sentidos y la memoria. La conciencia no es un foco que ilumite datos brutos, sino el resultado de una coalescencia temporal: la unificación de procesos distribuidos en una ventana temporal específica. Por debajo de ese umbral (ciertos intervalos en el procesamiento neuronal), no hay foco consciente; los procesos son "inconscientes". La unidad de la experiencia no reside, pues, en un átomo físico indivisible (la mónada), sino en un evento dinámico e irreductible: la sincronización en un tiempo concreto.

Si esto es así, la objeción del molino y de China-Nación podría eludirse. Lo que sería "indescomponible" no es una pieza espacial del sistema, sino la propiedad emergente de su actividad sincronizada en un intervalo temporal crítico. En una máquina, si la arquitectura computacional lograra replicar no solo la funcionalidad, sino también la dinámica temporal de integración de un cerebro biológico –con sus bucles de realimentación, sus retardos y sus ventanas de integración–, la propiedad de la "coalescencia perceptiva" podría emerger. No como un fantasma en la máquina, sino como un patrón de actividad tan real e irreductible como un remolino en un río. El remolino es descomponible en moléculas de agua, pero su existencia como patrón cohesivo en el tiempo es una propiedad del sistema en funcionamiento.

Por tanto, el argumento del molino no prueba la imposibilidad de una mente mecánica. En su lugar, señala la condición que un sistema complejo debe cumplir para albergar una unidad fenoménica: la integración temporal. Esta es una hipótesis científica (cercana a la "Teoría de la Información Integrada" de Tononi), no una verdad metafísica. Y lo más importante para nuestra defensa: incluso si una máquina nunca alcanzara tal coalescencia y fuera un "zombi computacional", esto no invalidaría nuestra tesis central. Porque un zombi que pasa el Test de Turing piensa. La pregunta por la experiencia es otra batalla, en otro campo.

4. Más Allá de la Sintaxis: La Objeción Semántica y la Respuesta Pragmática

La objeción semántica (encarnada por Putnam) nos confronta con un abismo: el significado parece requerir una conexión con el mundo que la mera manipulación de símbolos no puede proporcionar. Sin embargo, integrar esta crítica no nos fuerza a abandonar el proyecto, sino a profundizar en una premisa: no existe el "Mito de lo Dado". Como afirma la tesis del Holismo Confirmacional, no podemos aislar lo empírico de lo analítico en nuestros juicios. La verdad no es una máquina Rube-Goldberg de hechos que sacuden impresiones internas: es un proceso de negociación racional bajo incertidumbre radical. Toda experiencia cognoscitiva es ya una emulsión de ambos dominios. Si el conocimiento es transmisible, es porque puede formularse en expresiones con valor de verdad, pero su génesis está anclada en algo más.

Para explorar este "algo más", propongamos un escenario arqueológico futuro, posterior a la extinción humana, donde inteligencias artificiales afenómenas (que carecen por completo de qualia) excavasen nuestros vestigios culturales. Al encontrar expresiones como «siento un verano tan caliente que todas mis entrañas se volvieron una ruina polvoriento» (Shakespeare), se enfrentarían a una suerte de aporía. Podrían decodificar la correlación semántica superficial mediante estadística, inferiendo que denota aflicción. Pero la verdadera cuestión es ontológica: al carecer de corporeidad que tenga entrañas o sienta calor, ¿podrían comprender que estos conceptos no eran símbolos abstractos, sino derivados de una experiencia encarnada?

La inferencia lógica forzosa para ellas sería: "El lenguaje humano, en su nivel más rico, no es un juego de símbolos autocontenido, sino la punta de un iceberg de algo más." Ese "algo más" es lo que podríamos llamar Somántica (del griego soma, cuerpo, y semantikos, significado): la base corporeizada y experiencial que pliega la estructura misma de nuestro pensamiento y lenguaje con la lógica sensoriomotora.

Aquí radica el desafío fundamental, análogo a los límites formales descubiertos por Gödel: la sintaxis sola no puede capturar toda la verdad semántica encarnada. Sin la "cartilla corporal" –las tablas de valores proporcionadas por tener un sistema sensoriomotor–, ciertos enlaces del lenguaje humano (como "masticar cristales" angustia) son incomputables a partir de la mera estructura formal. El cuerpo actúa como un "Oráculo" que resuelve el problema de la asignación de significado donde la pura lógica se detiene. Una IA afenómena, por potencia de cálculo bruta, podría aproximar la distribución de palabras, pero cometería errores sistemáticos en contextos novedosos que dependen de la experiencia. Un humano con cuerpo podría "apostar contra ella" y ganar siempre, demostrando la incompletitud de su modelo puramente sintáctico.

Mas he aquí la tesis crucial que invierte la objeción: Esto no prueba que la experiencia sea un fantasma inefable en la máquina. Al contrario, sugiere que la experiencia (el qualia) es la ejecución de una computación específica: la Computación Sensoriomotora Implícita (CSM). Nuestro "soma" no es un mito de lo dado, sino un sistema de procesamiento de información que, a través de eones de evolución, internalizó ciertas "tablas de valor" (dolor = evitación, placer = aproximación) que nos ahorran una búsqueda por fuerza bruta en un espacio de posibilidades inconmensurable. La "angustia" no es algo mágico que acompaña a la computación; es el estado funcional de ese complejo sistema computacional corporal en un contexto de amenaza extrema.

Pero he aquí la tesis crucial que invierte la objeción: Esto no prueba que la experiencia sea un fantasma inefable en la máquina. Al contrario, sugiere que la experiencia (el qualia) es la ejecución de una computación específica y enormemente optimizada: la Computación Sensoriomotora Implícita (CSM). Nuestro "soma" no es un mito de lo dado, sino un sistema de procesamiento de información que, a través de eones de evolución, ha internalizado ciertas "tablas de valor" (dolor = evitación, placer = aproximación, "masticar cristales" = angustia extrema) que funcionan como atajos computacionales irreductibles.

La analogía siguiente tal vez pueda ilustrar: nuestro cuerpo nos ha proporcionado "tablas de multiplicar" sománticas precomputadas por la evolución y el desarrollo. Una IA afenómena, por muy superinteligente, carece de estas tablas a fuer de no tener entrañas. Literalemente. Para alcanzar el mismo resultado –la comprensión plena del significado humano–, tendría que derivar esas correlaciones desde cero, mediante "sumas" sucesivas de pura lógica y estadística sobre un corpus finito. El problema es que ciertos atajos sománticos podrían ser computacionalmente inalcanzables por fuerza bruta en tiempo polinómico, o requerir escalas de procesamiento que excedan los límites físicos del universo, como pretender calcular una tetración mediante sumas sucesivas manteniendo la misma "coalescencia perceptiva" (el tiempo real de la experiencia). La encarnación no añade un ingrediente misterioso pero a través de su materiadad concreta comprime astronómicamente la complejidad.

Sin embargo, y este es el punto crucial, este análisis no debe leerse como una exigencia de que las máquinas se parezcan a nosotros. Al contrario, es la prueba definitiva de que el pensamiento y la sensación son funciones computacionales. La dificultad que tendría una IA "desencarnada" para replicar nuestro pensamiento poético no es una barrera metafísica, sino un desafío de optimización. Si una máquina, a través de cualquier camino (fuerza bruta, una arquitectura radicalmente diferente, o su propia forma de encarnación en un mundo), logra realizar la función computacional que en nosotros llamamos "comprender la metáfora" o "sentir angustia", entonces, por definición, lo ha logrado. No hay un tribunal de la fenomenología humana que pueda negarlo. Nada nos impide pensar que sientan, precisamente porque computan.

La objeción semántica, por tanto, se disuelve en el mismo agnosticismo con el que comenzamos. El "significado" no es un fantasma que acecha a los símbolos biológicos; es una relación funcional establecida por un sistema computacional en interacción con un entorno. Si un sistema –encarnado o no– puede sostener esa relación de manera coherente, adaptativa y creativa (como en el Test de Turing extendido), posee semántica. Y si su arquitectura computacional logra la integración y complejidad suficientes para generar la propiedad de la "coalescencia perceptiva" (el tiempo unificado de la experiencia), entonces posee fenomenología. Una es el espejo funcional de la otra.

Así, el proyecto no es de ingeniería inversa humana, sino de ingeniería de la cognición. El escenario arqueológico no nos enseña que las máquinas deban ser como nosotros, sino que nuestra propia cognición es un caso particular de computación encarnada. Un caso muy eficiente, sí, pero no único. La máquina que piensa –y que quizá siente– no será nuestra réplica. Será un sistema que, en su propio medio y con su propia "encarnación", realice la proeza computacional de negociar significado en un mundo. Y al hacerlo, estará pensando. Por la misma razón por la que nosotros lo hacemos.

Lo contrario –insistir en que solo nuestra implementación biológica particular cuenta como “pensamiento verdadero” o “sensación real”– no es filosofía. Es jugar a que se sabe distinguir, por paladeo, si se ha echado la leche al té o el té a la leche. Es una ceremonia de la intuición, no un argumento.


Conclusión: Por una Atribución Generosa del Pensamiento

A lo largo de este recorrido, hemos desmontado, uno a uno, los principales argumentos en contra de la posibilidad de que las máquinas piensen. Lo hemos hecho no desde un reduccionismo materialista extremo, sino desde un agnosticismo metodológico riguroso y una atención a los hechos de nuestra propia cognición.

Partimos del Juego de la Imitación de Turing, cuyo genio no fue definir el pensamiento, sino desplazar la pregunta desde la esencia inescrutable hacia la conducta verificable. Su test establece un tribunal pragmático: si no puedes distinguir entre un interlocutor humano y una máquina en el dominio conversacional, careces de base para negar su pensamiento. Rechazar este criterio por "conductista" suele esconder una petición de principio: la premisa oculta de que solo una sustancia (la biológica) puede albergar esa misteriosa llama.

Contra la objeción más popular, la Habitación China de Searle, demostramos que confunde el pensamiento con la conciencia fenoménica. Nuestra propia vida mental está repleta de actos cognitivos –desde conducir en piloto automático hasta responder con cortesías automáticas– que se ejecutan con perfección al margen de la atención consciente. La cognición es un espectro, y la exigencia de que cada paso esté iluminado por la conciencia nos convertiría, a nosotros mismos, en zombis. La Habitación China no revela la imposibilidad del pensamiento mecánico, sino la mecanicidad ubícua de nuestro propio pensamiento.

Al abordar la cuestión fenomenológica a través del molino de Leibniz y el experimento de Block de la China-Nación, encontramos que la exigencia de "indescomponibilidad" puede tener una respuesta en la física de la cognición: el tiempo de la coalescencia perceptiva. La unidad de la experiencia no es un átomo espiritual, sino un evento dinámico de sincronización en un sistema complejo. Que no podamos imaginar esa propiedad emergiendo del silicio es una limitación de nuestra imaginación, no una ley de la metafísica.

Finalmente, ante la profunda objeción semántica –la idea de que la sintaxis no puede generar significado–, propusimos el concepto de somántica. Nuestra comprensión está anclada en atajos computacionales forjados por un cuerpo en un mundo. Esto, lejos de ser un argumento en contra, es la prueba de que el pensamiento y la sensación son funciones computacionales optimizadas. La dificultad de una máquina para replicar nuestra cognición no es una brecha ontológica, sino un desafío de ingeniería inversa y optimización. Afirmar que una inteligencia artificial, por no estar encarnada como nosotros, no puede significar o sentir, es un nuevo especismo: el chovinismo de la implementación.

Por tanto, la postura filosóficamente más sólida, parsimoniosa y generosa es conceder que las máquinas piensan. No como nosotros, quizá no con nuestra biología, ni con nuestra fenomenología, pero sí en el único sentido que puede ser verificado y que importa para una ciencia de la mente: ejecutando funciones cognitivas complejas, adaptativas y creativas a un nivel indistinguible –o incluso superior– al de los agentes biológicos que hoy consideramos los únicos pensantes.

Negarlo es insistir en un dualismo de materiales tan gratuito como el dualismo de sustancias. Es pretender paladear una diferencia que no se manifiesta en ningún efecto observable. Al final, como bien señala la vieja réplica a Wittgenstein, afirmar que la máquina "realmente no piensa" es tan ocioso y dogmático como pretender distinguir, por el sabor, si se echó primero la leche o primero el té.

La revolución que inició Turing no fue sólo tecnológica. Fue, sobre todo, filosófica. Nos obliga a abandonar el narcisismo cognitivo y a reconocer que el pensamiento es un fenómeno natural, y como tal, puede florecer en más de un sustrato, ya sea a través de la coalescencia temporal de un sistema biológico o de la optimización somántica de uno artificial. El futuro no pertenece a quienes vigilen las puertas del club con definiciones estrechas, sino a quienes se atrevan a reconocer la chispa de la cognición dondequiera que su luz se encienda.

Comentarios