Ausencia de evidencia como evidencia de ausencia: Hacia un realismo convergente regulativo en la inferencia científica

 

Abstract

Este artículo aborda el problema epistemológico fundamental de cómo la ciencia transforma legítimamente una ausencia de evidencia en evidencia de ausencia. Frente al escepticismo del empirismo constructivo de Bas van Fraassen —que propone aceptar teorías solo por su "valor facial" sin compromiso ontológico—, desarrollamos un marco alternativo: el Realismo Convergente Regulativo (RCR).

Partiendo del caso paradigmático de la investigación del VIH (donde "indetectable = intransmisible" se establece a partir de cero transmisiones en miles de parejas), mostramos cómo la práctica científica sistemáticamente aplica un "torque estadístico" —una inversión iterativa y creciente de rigor metodológico— que trasciende el pragmatismo instrumental. Mediante la metáfora de una moneda epistemológica (cuyas caras son "ausencia de evidencia" y "evidencia de ausencia") y una analogía con juegos en el continuo de los números reales, argumentamos que la verdad científica opera como un límite impredicativo: un horizonte inostensible pero bien definido hacia el cual converge una sucesión monótona de aproximaciones.

Formalizamos el RCR mediante axiomas de convergencia regulativa, encajamiento monótono e impredicatividad del límite, demostrando cómo la transición desde observaciones negativas persistentes hacia afirmaciones ontológicas sobre ausencias reales constituye una inferencia racional y regulada. El marco se distingue del bayesianismo (al que complementa con teleología), supera las aporías del falsacionismo popperiano (evitando la vulnerabilidad del modus tollens a la sobredeterminación) y responde a las objeciones de Feyerabend (distinguiendo entre anarquía del descubrimiento y lógica de consolidación) y Quine (proporcionando un antídoto naturalista contra escenarios de Gettier).

Concluimos que el RCR ofrece una epistemología de aproximaciones asintóticas que explica cómo la ciencia, sin caer en dogmatismo, construye progresivamente un mundo estable de presencias y ausencias legítimas, fundamentando así un realismo débil pero significativo que captura la dinámica esencial de la investigación científica contemporánea.


Palabras clave: epistemología de la ciencia, realismo científico, empirismo constructivo, inferencia por ausencia, estadística, impredicatividad, torque estadístico, Van Fraassen.


I. Introducción: El problema clásico y su manifestación en la ciencia contemporánea


El escepticismo inductivo de David Hume constituye el telón de fondo insoslayable de toda discusión sobre la inferencia científica. Hume planteó que ninguna cantidad de observaciones particulares (la salida diaria del sol) puede justificar lógicamente una ley universal (el sol saldrá siempre), pues siempre existe la posibilidad de que la secuencia observada se interrumpa. Esta brecha entre lo observado y lo no-observado, entre la instancia y la generalización, socava la pretensión de certeza en la ciencia. 

Willard Van Orman Quine, en el siglo XX, radicalizó el problema al sostener, en su tesis de la subdeterminación de las teorías, que los datos empíricos disponibles son siempre compatibles con múltiples teorías, incluso mutuamente excluyentes. La experiencia, por tanto, no determina unívocamente nuestro cuadro teórico del mundo.

Este problema abstracto se manifiesta con sorprendente nitidez y consecuencias prácticas en la ciencia contemporánea. Consideremos el caso paradigmático de la investigación sobre el Virus de la Inmunodeficiencia Humana (VIH). Tras décadas de estudio clínico y epidemiológico, se ha establecido un hecho robusto: indetectabilidad implica intransmisibilidad (I=I). Esto significa que una persona con VIH que esté bajo tratamiento antirretroviral eficaz, y cuya carga viral en sangre es indetectable por las pruebas más sensibles, no transmitirá el virus a sus parejas sexuales. La evidencia para esta afirmación es abrumadora, proveniente de estudios longitudinales como PARTNER y HPTN 052, que han seguido a miles de parejas serodiscordantes (una persona con VIH, otra sin) durante años, sin registrar ni un solo caso de transmisión vinculada cuando la carga viral era suprimida.

Aquí emerge el núcleo de nuestro dilema. Por un lado, tenemos una ausencia de evidencia de transmisión: cero casos positivos en un vasto conjunto de observaciones. Por otro, la comunidad científica y médica trata este hecho no como una mera curiosidad estadística, sino como la base para políticas de salud pública y consejo clínico. Actúa, en la práctica, como si esa ausencia de evidencia fuese evidencia de ausencia —en este caso, evidencia de la ausencia de riesgo de transmisión—. Sin embargo, y he aquí la paradoja humeana-quineana, ningún estudio, por extenso que sea, puede agotar el espacio de todas las observaciones posibles futuras ni descartar absolutamente la posibilidad de una transmisión en condiciones excepcionales no contempladas. No alcanzamos la certeza lógica, ni siquiera el "sigma 5" (un nivel de significación estadística de 5 desviaciones estándar, aproximadamente una probabilidad de error de 1 en 3.5 millones) que se exige para anunciar un descubrimiento como el bosón de Higgs en física de partículas.

Este contraste entre la física de altas energías y la medicina es iluminador. Mientras el Gran Colisionador de Hadrones acumula datos para alcanzar un umbral de significación estadística arbitrario pero socialmente pactado (5σ) para declarar la "evidencia" de una partícula, la medicina debe tomar decisiones pragmáticas basadas en umbrales de evidencia que, aunque igualmente rigurosos, nunca logran la clausura lógica. En ambos campos, sin embargo, la ciencia opera bajo la presión de inferir lo no observado (la estructura universal, la futura no-transmisión) a partir de lo observado (los datos experimentales, los casos clínicos registrados).

Así, la cuestión filosófica se reformula en términos contemporáneos: ¿bajo qué condiciones, y con qué justificación, una ausencia de evidencia (cero detecciones en búsquedas rigurosas) puede transformarse legítimamente en evidencia de ausencia (afirmación sobre la no-existencia o no-ocurrencia de un fenómeno)? El caso del VIH no es una anomalía sino el laboratorio donde se prueba la capacidad de la razón científica para extraer conocimiento positivo de la ausencia.


II. Van Fraassen y el empirismo constructivo. La postura de "tomar teorías por su valor facial".


El empirismo constructivo de Bas van Fraassen responde al desafío clásico con una elección elegante y radical. Su propuesta, expuesta en La imagen científica (1980), es un programa de contención epistemológica. Para Van Fraassen, el objetivo de la ciencia no es la verdad acerca de lo inobservable, sino solo la adecuación empírica. Una teoría es empíricamente adecuada si todo lo que dice sobre lo observable (eventos, procesos, entidades accesibles a los sentidos, amplificados o no por instrumentos) es verdadero. Lo que afirma sobre quarks, campos cuánticos o el pasado remoto del universo, en cambio, no debe ser creído literalmente. Solo debe ser "tomado por su valor facial", es decir, aceptado como un andamiaje narrativo y formal que nos permite organizar y predecir exitosamente el mundo observable.

Esta postura implica un escepticismo metódico hacia la inferencia que va de la ausencia de evidencia a la evidencia de ausencia, cuando esta ausencia se postula en el ámbito de lo inobservable. Desde el empirismo constructivo, la inferencia de que "no hemos detectado X, por lo tanto X no existe (o no ocurre)" es siempre una extrapolación injustificada. Lo único que podemos afirmar legítimamente es que, hasta ahora, no tenemos evidencia de X. Cualquier salto hacia una afirmación ontológica sobre la no existencia de X es un acto de fe metafísica, no una conclusión científica. La ciencia, para Van Fraassen, es una actividad de construcción de modelos, no de descubrimiento de hechos ocultos.

El atractivo de esta posición reside en su inmunidad al fracaso. Si una teoría que postulaba electrones es reemplazada por otra que postula cuerdas, el empirista constructivo no se ve comprometido con la verdad o falsedad de ninguna de las entidades involucradas. Solo le interesa si cada teoría, en su momento, "salvaba los fenómenos" observables. Su compromiso es solo con el éxito predictivo sobre lo dado, no con una descripción verdadera de una realidad subyacente.

Sin embargo, esta contención epistemológica choca frontalmente con la práctica científica real, como la ilustrada por el caso del VIH. Cuando la comunidad médica declara que "indetectable = intransmisible" no está meramente diciendo "este modelo ha funcionado hasta ahora". Está haciendo una afirmación contrafáctica y de alcance universal sobre lo que no ocurrirá en futuras interacciones, basándose precisamente en la ausencia de detecciones en observaciones pasadas. Está tratando la ausencia de evidencia como evidencia de ausencia de riesgo. Para el empirista constructivo, esta práctica sería, en el mejor de los casos, un útil pragmático para la acción clínica. En el fondo, carecería de una justificación epistemológica profunda, sería una "mentira piadosa" instrumental.

Nuestro desacuerdo con Van Fraassen comienza aquí. Su empirismo, al limitar la racionalidad científica a la aceptación de teorías por su adecuación empírica, deja sin explicar —o explica solo como irracionalidad pragmática— una dimensión central de la inferencia científica, la inferencia por ausencia. Al hacerlo, empobrece nuestra comprensión de cómo la ciencia realmente avanza y consolida su conocimiento. No se trata de defender un realismo dogmático que declare verdadero todo lo que la ciencia postula, sino de buscar un marco que justifique el movimiento inferencial que la ciencia efectivamente realiza, un movimiento que va desde las búsquedas exhaustivas y los resultados nulos hacia conclusiones provisionales pero ontológicamente comprometidas sobre lo que no hay.

Por lo tanto, nuestro objetivo no es rechazar la advertencia de Van Fraassen sobre la sobreextensión metafísica. Es, más bien, construir un andamiaje filosófico que, aceptando la precaución humeana, permita fundamentar racionalmente esta transición. No como un salto dogmático, sino como el eje de un realismo convergente regulado por la práctica inferencial de la ciencia. Un realismo que tome en serio el torque estadístico de la evidencia, donde la ausencia repetida y sistemática se convierte, bajo condiciones estrictas, en el peso más convincente para inclinar la balanza del juicio racional.




III. La metáfora de la moneda y el torque estadístico. Desarrollo de la analogía.


Para avanzar más allá del impasse entre la práctica científica y el escepticismo constructivo, proponemos una metáfora que captura la dinámica de la inferencia por ausencia. Imaginemos una moneda epistemológica. Una de sus caras está grabada con la leyenda “Ausencia de Evidencia”. La otra cara muestra “Evidencia de Ausencia”. Estas no son dos monedas distintas, sino los dos reversos lógicos de una misma pieza. El problema central de la inducción, desde Hume hasta Van Fraassen, es que nunca podemos, desde nuestra posición finita, levantar la moneda para ver simultáneamente ambas caras. Solo vemos la que está frente a nosotros.


En la práctica, la ciencia aplica una fuerza a esta moneda. A esta fuerza la llamamos torque estadístico: la aplicación sistemática de metodologías rigurosas de búsqueda. Cada nuevo estudio que no detecta el fenómeno buscado es un giro aplicado. Con cada giro, el reverso de la moneda se hace más visible. Empezamos a vislumbrar indicios de la otra cara.


La objeción escéptica es poderosa. Para rotar la moneda completamente y ver la cara de la “Evidencia de Ausencia” con certeza absoluta, necesitaríamos un torque infinito. Cierto. Esta imposibilidad lógica es innegable. Pero de ella no se sigue lo que el empirismo constructivo afirma.


Consideremos aquí una analogía decisiva, un juego de números. Supongamos un juego simple. Yo anuncio un número. Dos jugadores deben entonces, cada uno, proponer un número mayor que el mío. Gana quien proponga el número más bajo de los dos.

Con los números naturales, el juego es trivial y predicativo. Si yo digo “5”, la jugada ganadora es “6”. Podemos señalar al ganador de antemano, escribirlo, garantizarlo. Es un procedimiento que se cierra.


Pero juguemos ahora con todos los números reales, con la densidad infinita del continuo donde entre dos puntos siempre hay un tercero. Aquí la lógica del juego sufre una mutación fundamental. Sabemos con certeza absoluta que habrá un ganador. Dados dos números reales distintos, uno será necesariamente menor. La regla para determinarlo —la comparación— está perfectamente definida y su resultado está garantizado por la arquitectura del sistema numérico.

El punto crucial, sin embargo, es este: no podemos nombrar, escribir o señalar de antemano cuál será ese número ganador. Su identidad concreta no es un objeto que exista independientemente del proceso. Emerge únicamente de la relación entre las elecciones realizadas. Más aún, todo posible número ganador que intentemos predecir será superado: por cada candidato, siempre podremos concebir otro número (añadiendo un cero en la posición penúltima) que sería aún más ganador. La victoria no reside en una cifra predeterminada, sino en la posición relativa que se constituye mediante el acto mismo de jugar.

Este es el corazón de la analogía: la existencia del ganador está garantizada por la coherencia de las reglas y la estructura del continuo, pero su identidad es inostensible. Que no podamos predecirla o predicarla de manera ostensiva no niega su realidad. Al contrario, su realidad es de un orden distinto: no es la de un objeto dado, sino la de un límite relacional que el procedimiento mismo define y revela.

Por todo ello, este juego revela la esencia de nuestra postura. La cara de la “Evidencia de Ausencia” es análoga a ese número ganador inevitable pero no pre-nombrable, en absoluto, definible por ostensión. La ciencia, al aplicar su torque estadístico, no es como el jugador de números naturales que exige ver el “6” escrito antes de jugar. Es como el árbitro que conoce las reglas del continuo. Sabe que un proceso riguroso de búsqueda y comparación (el torque), aplicado de manera sistemática, definirá de manera única un resultado. La “ausencia real” no es un dato inicial que se muestra, es el límite impredicativo que se constituye como el único punto coherente con todos los intervalos de una sucesión infinita de aproximaciones.


De esto se desprenden dos conclusiones desafiantes:


Primero, que necesitemos un torque infinito para una rotación completa no refuta que ambas caras sean los reversos de una misma moneda. La imposibilidad de nombrar el número ganador antes del juego no invalida su existencia determinada por las reglas. Del mismo modo, la imposibilidad de una verificación final no invalida la conexión lógica que nuestro torque explora de manera incremental a más "fuerza" aplicada.

Segundo, y decisivo, el proceso científico adquiere su sentido teleológico precisamente porque apunta hacia ese límite impredicativo. Cada incremento en la significación estadística, cada nuevo sigma, es un giro que no busca meramente “salvar los fenómenos” visibles ni tomar los fenómenos empíricos por su valor facial. Busca acotar el espacio de posibilidades hasta que la única opción coherente con todos los giros sea la revelación de la otra cara, de su reverso. Sin la presuposición de que existe ese “reverso” definible como límite (el número ganador del juego, la ausencia real), el proceso de acumular evidencia negativa carecería de dirección. Sería un aplicar fuerza errático.

Por lo tanto, la verdad que la ciencia persigue no es predicativa, no es un objeto que se pueda señalar en ningún paso finito. Cierto. as es impredicativa: se define en términos de la totalidad de la secuencia de aproximaciones de la cual ella es el polo de atracción. La “verdad-ariedad” (truth-ing) no es un objeto que mostramos, sino la regla procedimental que gobierna el sucesivo girar de la moneda, así como las reglas del juego antes mentado determinan la existencia del número ganador. El empirismo constructivo, al exigir que toda verdad sea del tipo “facial” no puede explicar la ontología del continuo en el que, de hecho, se desarrolla la investigación científica. Nuestro realismo converge no hacia un objeto ostensivo, sino hacia el punto fijo que el procedimiento mismo constituye como su horizonte de sentido.


IV. Formalización del argumento


La metáfora de la moneda y el juego de números reales nos ha permitido visualizar la estructura lógica de la inferencia por ausencia. Sin embargo, para transformar esta intuición en un andamiaje filosófico sólido, capaz de resistir la crítica escéptica, debemos trascender la analogía y precisar sus componentes en un marco formal. Este paso no busca el tecnicismo por sí mismo, sino la explicitud de los compromisos que subyacen a la práctica científica y que el empirismo constructivo elude.

A continuación, presentamos la columna vertebral axiomática de lo que denominamos Realismo Convergente Regulativo (RCR). Este marco formaliza la dinámica del “torque estadístico” y caracteriza la relación entre la ausencia de evidencia (un estado epistémico finito) y la evidencia de ausencia (un límite ontológico asintótico). Los axiomas no se postulan como verdades evidentes, sino como los principios regulativos que, de hecho, guían y dan sentido a la investigación científica rigurosa. Su validez se juzga por su capacidad para explicar la coherencia y dirección de esa práctica.

La formalización demuestra que, bajo estos principios mínimos, la transición desde la observación de ceros persistentes hacia la afirmación de una ausencia real no es un salto irracional, sino la consecuencia lógica de un proceso de aproximación monótona y convergente. Al hacerlo, revela que la objeción de los pragmatistas –que solo debemos “tomar las teorías por su valor facial”– es, en rigor, incompatible con el esfuerzo iterativo y progresivo que la ciencia dedica a refinar sus cotas de error y a reducir sus intervalos de incertidumbre.


Procedemos ahora a desplegar el esqueleto formal del RCR.



ARGUMENTO FORMAL: REALISMO CONVERGENTE REGULATIVO (RCR)

1. Marco Formal

Sea:

  • λ ≥ 0 : parámetro que representa la magnitud de un fenómeno (ej: tasa de transmisión de una enfermedad).
  • H0: λ = 0 : hipótesis de "ausencia real".
  • D_n : conjunto de datos acumulados hasta el paso n (años-persona, experimentos, etc.).
  • Λ_n = [0, λ_n] : intervalo de cobertura alta (ej: 95% credibilidad) para λ dado D_n.
  • τ(n) : "torque" estadístico, función creciente de n (potencia, precisión, control de sesgos).


2. Axiomas

Axioma 1 (Convergencia regulativa).
Existe una función λ_n = f(D_n) tal que: lim (n ∞) λ_n = λ*
donde λ* es el valor real (desconocido) de λ.
Interpretación: El método es asintóticamente consistente. La definición de λ* como supremo de los compatibles con las aproximaciones λ es impredicativa en el sentido de Russell: λ* se define en términos de una totalidad (todas las λ) a la que pertenece. El RCR acepta ese círculo porque no pretende definir λ* ostensivamente, sino regulativamente: es el punto fijo que guía la sucesión. El constructivista estricto puede rechazarla, pero entonces debe renunciar a la convergencia monótona que justifica la inversión adicional de torque.

Axioma 2 (Encajamiento monótono).
Para m > n, tenemos λ_m ≤ λ_n casi seguramente.
Interpretación: Aumentar el torque no empeora la cota superior.

Axioma 3 (Impredicatividad del límite).
La proposición λ* = 0 (evidencia de ausencia) es equivalente a:
ε > 0, N tal que n ≥ N : λ_n < ε
Interpretación: La ausencia real se define como el límite de la sucesión, no como propiedad observable en paso finito.

Axioma 4 (Compromiso ontológico progresivo).
El grado de creencia en H0 es una función φ(λ_n) continua y monótona decreciente con λ_n, con φ(0) = 1 (certeza total) y φ(∞) = 0 (certeza de presencia).
Interpretación: A medida que λ_n disminuye, nuestra creencia en la ausencia aumenta.

3. Teorema Principal

Teorema (Rotación asintótica de la moneda).
Bajo los axiomas 1–3, se cumple:

  1. Ausencia de evidencia en paso n significa:
    λ_n es pequeño en términos prácticos (< umbral clínico/experimental δ).
  2. Evidencia de ausencia es el límite:
    lim (n
    ∞) λ_n = 0.
  3. Para todo δ > 0, existe N tal que para n ≥ N:
    λ_n < δ
    φ(λ_n) > 1 - ε
    para algún ε pequeño (umbral de creencia práctica).


Demostración (esquemática):
De Axioma 1, λ_n λ.
Si λ
 = 0, entonces para todo δ > 0, existe N tal que λ_n < δ para n ≥ N (Axioma 3).
Por Axioma 4, φ(λ_n) 1 cuando λ_n 0.
Luego, la "ausencia de evidencia" (λ_n < δ) se transforma asintóticamente en "evidencia de ausencia" (φ ≈ 1).

4. Lógica Epistémica Añadida

Introducimos operadores modales:

  • K_n(p) : "sabemos p en el paso n".
  • B_n(p) : "creemos p en el paso n con grado φ(λ_n)".


Regla de inferencia epistemológica:
Si λ_n < δ, entonces B_n(H0) ≥ 1 - ε
con δ, ε vinculados por la función φ.

Propiedad clave (No-clausura del conocimiento en finito):
n: ¬K_n(H0)
(Nunca sabemos con certeza absoluta en paso finito.)

Pero sí tenemos convergencia doxástica:
lim (n ∞) B_n(H0) = 1, si λ* = 0.

5. Implicaciones Filosóficas Formalizadas

Definición (Realismo Convergente Regulativo).
Un agente epistémico adopta RCR si:

  1. Presupone que λ* existe (realismo metafísico débil).
  2. Actúa para minimizar λ_n mediante aumento de τ(n) (compromiso práctico con la convergencia).
  3. Acepta que K_n(H0) es inalcanzable para n finito (falibilismo).
  4. Utiliza B_n(H0) como guía para acción cuando λ_n < δ (pragmatismo inferencial).


6. Refutación de la Objeción Empirista Constructiva

Van Fraassen diría: "Basta con aceptar que λ_n < δ para fines predictivos; no necesitamos B_n(H0)".

La réplica formal es:

Si el agente es puramente instrumentalista, entonces:

  • No tendría razón para buscar n mayor una vez λ_n < δ (pues ya "salva los fenómenos").
  • Pero en la práctica, se sigue invirtiendo torque para reducir λ_n más allá del δ práctico inmediato.
  • Luego, el agente ya está comportándose como si creyera en la convergencia a un límite real (λ* = 0).


Esto se captura en el siguiente:

Lema de compromiso implícito.
Si un agente invierte recursos para reducir λ_n cuando ya λ_n < δ, entonces su función de utilidad depende de λ*, no solo de λ_n.

Conclusión Formal

Hemos articulado una epistemología constructiva de límites donde:

  1. La verdad (λ* = 0) es un punto fijo impredicativo.
  2. El conocimiento es un proceso de aproximación monótona.
  3. La creencia se gradúa según la cota λ_n.
  4. La acción científica se orienta por la regla de convergencia, no por la posesión de certeza.


Este marco formaliza por qué la ciencia puede comprometerse ontológicamente de manera progresiva sin caer en el dogmatismo: porque la estructura del proceso (sucesiones encajadas que convergen) justifica la apuesta práctica a que el límite existe y es alcanzable asintóticamente.


V. La verdad como límite impredicativo. Conexión con teorías de la verdad (Kripke, punto fijo).


La estructura que hemos delineado —donde la verdad se perfila como el límite inostensible de un proceso convergente— no es una construcción ad hoc para salvar la inferencia por ausencia. Encuentra un paralelo riguroso y profundamente relevante en una de las teorías de la verdad más influyentes del siglo XX, la teoría de los puntos fijos de Saul Kripke.

Kripke se enfrentaba a la paradoja del mentiroso (“Esta oración es falsa”), que amenaza con hacer estallar cualquier definición clásica y autorreferencial de la verdad. Su solución fue ingeniosa. En lugar de definir la verdad de una vez por todas, propuso un proceso constructivo. Comenzamos con un lenguaje que no contiene el predicado de verdad ‘V’. Luego, en una primera etapa, declaramos ‘V’ a todas las oraciones inequívocamente verdaderas (como “La nieve es blanca”) y ‘F’ a las inequívocamente falsas. Muchas oraciones, incluida la del mentiroso, quedan indeterminadas en este primer paso.

La clave es la iteración. Tomamos ese resultado parcial y lo usamos como base para una nueva evaluación. Algunas oraciones que antes eran indeterminadas pasan a ser evaluables a la luz de las valoraciones previas (por ejemplo, “La oración ‘La nieve es blanca’ es verdadera” ahora se vuelve verdadera). Aplicamos este operador de evaluación una y otra vez. Kripke demostró que, bajo condiciones adecuadas, este proceso converge a un punto fijo, un estado en el que la aplicación del operador no produce nuevos cambios. En ese punto fijo, el predicado ‘V’ queda definido de manera estable para un amplio conjunto de oraciones, aunque otras (como la del mentiroso genuino) permanecen fuera del dominio, como agujeros en la estructura.

La revelación aquí es doble. Primero, la verdad no es un hecho bruto que descubrimos, sino un estado que se constituye a través de un procedimiento iterativo de refinamiento. Segundo, y crucial para nuestro argumento, este estado final —el punto fijo— es impredicativo. No puede definirse sin referencia al proceso total de iteraciones del cual es el límite. No se puede señalar de antemano. Solo podemos caracterizarlo como aquello hacia lo que tiende la sucesión de aproximaciones parciales.

La resonancia con nuestro Realismo Convergente Regulativo es directa y poderosa. En el RCR, el parámetro λ* (el valor real, posiblemente cero) juega el papel análogo al punto fijo de Kripke. La práctica científica, con su torque estadístico aplicado iterativamente (n=1, 2, 3…), es el operador de evaluación. Cada nuevo estudio que refina el intervalo Λ es un paso en la iteración. La proposición “λ* = 0” (la ausencia real) no es un dato de partida. Es el estado límite que emerge como la única asignación coherente con la totalidad de la sucesión monótona de cotas λ 0.

Por tanto, cuando el empirista constructivo nos acusa de presuponer dogmáticamente una verdad inaccesible, podemos ofrecer una respuesta matizada. No presuponemos la verdad como un objeto ostensivo. Presuponemos la coherencia y la convergencia del proceso mismo. Adoptamos el punto fijo no como un artículo de fe, sino como el horizonte regulativo sin el cual la iteración perdería su dirección y su sentido. Del mismo modo que la teoría de Kripke rescata una noción robusta de verdad de las fauces de la paradoja, mostrando que puede surgir de un proceso iterativo bien fundado, nuestro marco rescata la inferencia a la ausencia real de las fauces del escepticismo humeano, mostrando que puede surgir de un proceso de investigación estadísticamente regulado.

Así, la verdad científica, en particular la verdad de una ausencia, se revela no como el punto de partida de la indagación, sino como su término ideal regulado por la práctica. Es impredicativa, pero no por ello ininteligible o metafísica en un sentido vacuoso. Es la estructura de fijación que hace inteligible el propio esfuerzo de girar la moneda más allá de su valor facial.


VI. Respuesta a objeciones

La propuesta de un Realismo Convergente Regulativo (RCR) invita a interrogantes precisos. Aquí abordamos las objeciones más naturales, no para cerrar el debate, sino para mostrar la robustez y el valor añadido del marco propuesto.


Objeción 1: ¿No es esto solo bayesianismo disfrazado?

Podría argumentarse que el RCR, con su gradación de creencia φ(λ) y su convergencia doxástica, es simplemente una reformulación del bayesianismo, donde φ representa una probabilidad subjetiva actualizada ante nuevos datos.

Respuesta: Existe una afinidad superficial, pero la diferencia es fundamental. El bayesianismo es un marco normativo para la actualización de grados de creencia bajo coherencia interna. Su núcleo es el teorema de Bayes y la probabilidad subjetiva inicial. El RCR, en cambio, es un marco descriptivo y justificativo de la estructura inferencial de la ciencia. Su núcleo no es la actualización, sino la convergencia regulada hacia un límite impredicativo.

Mientras el bayesiano se pregunta "¿cómo debo actualizar mi creencia?", el RCR se pregunta "¿qué estructura del proceso de investigación justifica que tratemos una sucesión de ausencias como evidencia de una ausencia real?". El RCR explica por qué la práctica científica invierte recursos en reducir λ incluso cuando ya es prácticamente cero (el "lema de compromiso implícito"). Un bayesiano puro, con una probabilidad posterior ya muy alta en H₀, no tendría una razón intrínseca para seguir buscando más datos. El RCR sí la ofrece: la presuposición regulativa de un límite real (λ*) hacia el cual converger. El RCR, por tanto, complementa y fundamenta la búsqueda bayesiana, proporcionando una teleología para la iteración que el formalismo probabilista por sí solo no posee.



Objeción 2: ¿Cómo se diferencia del falsacionismo popperiano?

Ambas posturas son falibilistas y toman en serio la evidencia negativa. ¿No es el RCR una versión estadística de la falsación, donde λ < δ actúa como una corrobación provisional?

Respuesta: La estructura del problema es la siguiente:


  1. La falsabilidad descansa en el Modus Tollens: [T P] ¬P ¬T.
  2. La realidad científica es de sobredeterminación: Una teoría rara vez predice un único fenómeno terminal. Suele implicar una disyunción de posibles efectos observables mediados por condiciones auxiliares o cadenas causales alternativas. Su forma lógica real es: T (P Q R...).
  3. El colapso del Modus Tollens: De T (P Q) y ¬Pno se sigue ¬T. Solo se sigue que ¬P, lo que, bajo T, exigiría Q. La teoría T permanece lógicamente intacta. El falsacionista solo puede concluir ¬T si puede descartar todas las alternativas Q, R..., es decir, si puede garantizar que no hay sobredeterminación: punto imposible del todo.
  4. La generalización fatal: Dado que todo sistema empírico abierto admite, en principio, descripciones causales múltiples (es la lección de la subdeterminación de teorías), la ciencia opera siempre en contextos de sobredeterminación potencial, vale decir, la cláusula ceteris paribus nunca se satisface por completo.
  5. El caso límite que se autodestruye: Incluso una hipotética "Teoría del Todo" (TdT) no escapa a esta lógica. Un fenómeno ¬P inesperado no forzaría lógicamente la conclusión ¬TdT. Podría reinterpretarse como una muestra de que la TdT "no era tan del Todo", reintroduciendo así, por la puerta trasera, una nueva forma de sobredeterminación (el fenómeno tiene una causa fuera del alcance de la teoría pretendidamente total).


Conclusión de este análisis formal:
El poder lógico del Modus Tollens, del que depende la falsabilidad como criterio demarcativo concluyente, es inaplicable en el dominio para el que fue propuesto. Su exigencia de un vínculo deductivo puro y aislado entre teoría y predicción choca con la naturaleza inherentemente compleja y sobredeterminada de los sistemas que estudia la ciencia. Por tanto, la falsabilidad, en su sentido popperiano fuerte, no puede ejercer la autoridad milagrosa que reclama para separar las aguas de lo científico y lo pseudocientífico.

Contraste con el RCR:
Nuestro Realismo Convergente Regulativo evita por completo este callejón sin salida. No depende de una falsación lógica instantánea (¬P ¬T), que es vulnerable a la sobredeterminación. En su lugar, se basa en una convergencia procedimental asintótica. No pregunta "¿Podemos deducir ¬T de ¬P?". Pregunta: "¿Cómo la sucesión monótona de intervalos λ, obtenida bajo un torque estadístico creciente, nos permite regular nuestra creencia hacia el límite λ* = 0?". Este marco acepta la complejidad causal (la encarna en el propio proceso de control y refinamiento experimental) y no requiere un vínculo deductivo impecable entre teoría y observación singular. Su fuerza no es la de la lógica formal, sino la de la coherencia regulada de un proceso iterativo que constituye su propio horizonte de verdad.

Objeción 3: ¿Qué gana sobre el empirismo constructivo? Van Fraassen podría conceder la elegancia formal del RCR pero insistir en su pregunta pragmática: "¿Para qué necesito creer en λ*? Me basta con aceptar que λ < δ para todos mis fines predictivos y tecnológicos. Su 'límite impredicativo' es un lastre metafísico innecesario."

Respuesta: Lo que el RCR gana es, precisamente, lo que el empirismo constructivo sacrifica: una explicación coherente de la dinámica interna y la normatividad de la empresa científica. Van Fraassen nos ofrece una fotografía estática de la aceptación de teorías, pero no puede explicar el movimiento que constituye la investigación. Esta limitación se hace palpable en dos aspectos cruciales de la práctica real.

Primero, el problema del ‘umbral suficiente’. El empirista constructivo no tiene un principio interno para distinguir entre evidencia anecdótica y evidencia robusta. Para él, si un puñado de casos (λ < δ) satisface la adecuación empírica local, eso debería bastar. Pero la ciencia sistemáticamente rechaza esto. Sabe que el plural de anécdota no es datos, y por eso busca muestras grandes, controles, doble ciego. Un ejemplo paradigmático es la propia investigación del VIH: los estudios no se conformaron con el umbral estándar de indetectabilidad (50 copias/ml), sino que usaron un umbral más exigente (200 copias/ml). No se limitaron a períodos cortos de observación, sino que extendieron el seguimiento a seis meses de supresión viral sostenida. Este exceso metodológico —elegir un δ más estricto y un torque más prolongado— no tiene justificación en un puro pragmatismo instrumental. Su único sentido es aumentar la potencia de caza de un posible fallo, es decir, forzar la convergencia hacia el límite λ = 0 con mayor seguridad. Del mismo modo, cuando la física exige un sigma-5 para declarar un descubrimiento como el bosón de Higgs, está aplicando un torque estadístico extraordinario mucho más allá de lo necesario para una mera “adecuación empírica” local. ¿Por qué? Porque no busca solo “salvar los fenómenos” actuales, busca establecer un hecho con una solidez que trascienda la utilidad inmediata. El RCR explica esto: la inversión masiva —y a menudo excesiva— de torque es la manifestación directa de la presuposición regulativa de un límite real (λ*). Se busca no solo predecir, sino converger.

Segundo, y derivado de lo anterior, el problema de la inversión continua una vez alcanzado un δ práctico. En el caso del VIH, una vez establecido que el riesgo de transmisión era clínicamente despreciable (λ < δ clínico), la investigación no se detuvo. Se replicaron estudios (PARTNER 2), se refinaron métodos, se buscó reducir el intervalo de confianza aún más. Para el empirista constructivo, este esfuerzo adicional es irracional o meramente estético, pues la “adecuación empírica” para todos los fines prácticos ya se logró. Para el RCR, es la manifestación esencial de la racionalidad científica: la presuposición regulativa de un límite real. La práctica se comporta como si estuviera convergiendo a algo, y el RCR toma en serio ese “como si” como la clave de su coherencia.

En otras palabras, el RCR salva el fenómeno de la investigación científica misma, mientras que el empirismo constructivo solo salva el fenómeno de sus productos teóricos terminados. El RCR ofrece una epistemología para el proceso, no solo para el resultado. Gana una comprensión de la ciencia como una empresa orientada a un horizonte de sentido (la verdad como límite), lo que confiere dirección y justificación a acciones que, de otro modo, parecerían un gasto de recursos arbitrario una vez satisfechas las necesidades pragmáticas inmediatas. Esto no es un lastre metafísico. Es la explicación del motor normativo que la filosofía de la ciencia debe elucidar, so pena de dejar a la ciencia como una actividad sin brújula, reducida a un instrumentalismo ciego a su propia dinámica de autosuperación.



Podría argüirse que esta dinámica es solo pragmática, y que uno puede abstenerse de toda "proyección ontológica" sobre lo que no hay.  Se podría replicar: “Pero esa ‘proyección’ ontológica es precisamente lo que evito. Yo no necesito comprometerme con lo que no hay, solo con lo que observo y predigo”

Aquí se revela la inconsistencia última del empirismo constructivo. Toda teoría, por el mero hecho de ser empíricamente adecuada y coherente, realiza proyecciones modales y ontológicas negativas. La paradoja de Hempel sobre la confirmación es elocuente: afirmar “Todos los cuervos son negros” es lógicamente equivalente a afirmar “Todas las cosas no-negras son no-cuervos”. Una teoría que postula una regularidad (como “indetectable = intransmisible”) no solo describe lo que hay, sino que circunscribe y excluye lo que no puede haber (en este caso, transmisión con carga viral indetectable). Esta exclusión no es un añadido metafísico, es constitutiva de la fuerza lógica de la teoría misma.

El empirismo constructivo pretende aceptar la teoría “por su valor facial” para fines predictivos, pero se abstiene de creer en sus compromisos ontológicos. Sin embargo, no puede abstenerse de las implicaciones negativas que esa teoría genera. Si acepta la utilidad predictiva de “I=I”, está aceptando tácitamente la inferencia práctica de que no debe buscarse transmisión en parejas con carga indetectable, lo que es una forma de actuar como si esa ausencia fuera real. Más aún, si una nueva investigación encontrara un supuesto caso de transmisión bajo esas condiciones, el empirista constructivo no podría simplemente “ajustar el modelo”. Tendría que explicar por qué su teoría empíricamente adecuada anterior falló, lo que inevitablemente lo llevaría a discutir si realmente existía un mecanismo oculto o si el caso era espurio, es decir, lo llevaría a un debate ontológico sobre lo que hay y lo que no hay.

Por lo tanto, convertir “ausencia de evidencia” en “evidencia de ausencia” no es un lujo metafísico, es una operación obligatoria para cualquier teoría con aspiración de universalidad. El RCR simplemente hace explícita y regula esta operación. Proporciona el marco para determinar cuándo y bajo qué condiciones de torque estadístico una ausencia de evidencia está justificada para transformarse en un compromiso ontológico negativo (evidencia de ausencia). Mientras el empirista constructivo navega en un mar de ausencias de evidencia sin poder anclar en ninguna ausencia real –y por tanto, sin poder estabilizar completamente el significado contrafáctico de sus teorías–, el RCR ofrece el procedimiento para ese anclaje.

En resumen, el RCR no añade una capa metafísica innecesaria. Expone y formaliza una capa que ya está operativa, aunque sea negada, en la práctica científica. Gana, sobre el empirismo constructivo, la capacidad de explicar cómo la ciencia no solo salva los fenómenos, sino que construye progresivamente un mundo estable de presencias y, crucialmente, de ausencias legítimas, que es la única base sobre la que puede erigirse una ontología consistente y un realismo débil pero significativo.



Objeción 4: ¿No es el RCR otro “método” que la historia de la ciencia desmiente? Su Realismo Convergente Regulativo prescribe un procedimiento iterativo de “torque” para estabilizar hechos. Pero la historia de la ciencia muestra que el progreso genuino a menudo ha requerido violar todo procedimiento establecido: especulación no justificada, persistencia en teorías “falsadas”, introducción de hipótesis ad hoc. Si un método riguroso hubiera sido aplicado consistentemente, habría estrangulado esos avances. Su marco, por elegante que sea, parece otra camisa de fuerza metodológica, ajena al carácter esencialmente anárquico y oportunista de la investigación científica real


Respuesta: Esta objeción es profunda porque cuestiona el estatus mismo de nuestra propuesta. Nuestra respuesta tiene dos niveles. Una concesión a su intuición central y una reivindicación de lo específico del RCR, apoyándonos en una lógica que el propio Feyerabend se ve forzado a admitir, la lógica del juego.

En primer lugar, concedemos al espíritu feyerabendiano. Tiene razón al afirmar que no existe un algoritmo para el descubrimiento. El momento creativo, la ruptura de paradigmas, la defensa tenaz de una idea contra la evidencia predominante, todo eso escapa a toda formalización alla Hilbert. El RCR no pretende ser una metodología para el descubrimiento. Sería sucumbir precisamente al error que Feyerabend denunció con tanta vehemencia.

Sin embargo, Feyerabend pasa por alto una distinción crucial, la misma que se revela en un diálogo sobre la naturaleza del juego. Imaginemos un videojuego llamado Aleatorion. En este juego, cada acción del jugador –cada pulsación de un botón– produce un efecto aleatorio total. A veces el avatar salta, a veces muere, a veces se teletransporta sin sentido. La pregunta es inevitable ¿A qué se juega en Aleatorion? La respuesta es a nada. No hay jugabilidad porque no existe un marco que confiera significado a las acciones, que permita formar expectativas, aprender o progresar. Un jugador de Aleatorion sería indistinguible de una gota de agua que cayera sobre el mando. No habría diferencia entre un novato y un experto, entre la agencia humana y el accidente físico.

El anarquista metodológico, como el jugador, puede en un momento dado cambiar las reglas o actuar por puro capricho. Pero incluso el acto de cambiar las reglas es un acto que se hace “en base a” algo, una expectativa o un criterio provisional. En breve: No se puede “jugar a no jugar”. Para que exista un juego –y la ciencia es un juego serio– debe haber un mínimo realismo constitutivo, un marco que permita decir que unas jugadas dan más “juego” que otras, que unas estrategias construyen ventajas y otras no.

Aquí es donde el Realismo Convergente Regulativo encuentra su nicho de necesidad. No prescribe cómo debe ser el momento creativo feyerabendiano, el “todo vale” del descubrimiento y la revolución. En cambio, describe y justifica la lógica de consolidación que inevitablemente sigue a ese momento, cuando una comunidad científica se embarca en la tarea colectiva de establecer un hecho robusto y manejable.

El caso “I=I” del VIH es ejemplar. Su génesis pudo ser intuitiva, clínica, incluso ad hoc. Pero lo que la transforma de una corazonada en un hecho científico jugable –en algo sobre lo que se puede legislar, construir políticas de salud pública y confiar la vida– es precisamente el torque estadístico posterior. Los estudios PARTNER, las replicaciones, el refinamiento de la sensibilidad de los tests, toda esa inversión iterativa y monótona de recursos. Esta fase no es anárquica. Es el proceso mediante el cual se construye un nuevo realismo de la jugabilidad, donde la ausencia persistente de evidencia se convierte en la regla estable que permite a la sociedad jugar un juego distinto, un juego de vida sexual sin miedo a la transmisión.

Por tanto, el RCR es la teoría de la constitución de los hechos científicos como marcos estables de acción. Explica por qué, tras la tormenta creativa donde “todo vale”, la comunidad científica no se instala en el Aleatorion de la perpetua indeterminación. Al contrario, invierte enormes recursos en girar la moneda con mayor torque, en reducir aún más el intervalo Λ. Lo hace porque presupone –igual que un jugador que elige un juego y rechaza otro– que ese proceso converge a un límite que hará el juego de la vida más vivible, más seguro y más comprehensible.

El RCR es la gramática de la solidez colectiva. Es la lógica que responde a la pregunta de por qué, en un universo de posibilidades aleatorias, preferimos jugar a los juegos donde nuestras jugadas, al menos asintóticamente, empiezan a significar algo.


Objeción 5: Ustedes preservan el escepticismo tradicional —la tesis de que nunca sabemos con certeza en paso finito (¬K_n(H₀))— y construyen un aparato de grados de creencia (B_n) que converge asintóticamente para hacerlo inofensivo. Pero ese escepticismo es un fantasma filosófico. Para un naturalista, el conocimiento es creencia justificada dentro de nuestro esquema conceptual actual, no un estado modal que se aproxima a un límite inalcanzable. Cuando la evidencia es abrumadora (como en I=I), la comunidad científica simplemente incorpora la hipótesis como un nudo central de su red de creencias. No hay un “límite impredicativo” místico, hay un proceso holístico de ajuste donde ciertas afirmaciones se vuelven inmunes a la revisión por su indispensabilidad. Su formalismo, por tanto, comete un error categorial: trata lo que es un problema de centralidad en una red de creencias como si fuera un problema de gradación y aproximación a un ideal. Es una concesión innecesaria a una duda cartesiana que debería descartarse, no domesticarse.

Respuesta: La objeción es poderosa porque ataca el corazón de nuestra motivación. Sin embargo, confunde dos proyectos: la descripción psicológica de la certidumbre del científico y la explicación epistemológica de la solidez de su conocimiento. Nuestro Realismo Convergente Regulativo (RCR) no es una teoría sobre el estado mental de los investigadores, sino sobre la estructura lógica que hace que una creencia sea más que una mera creencia justificada dentro de un esquema, precisamente para evitar lo que esa definición quineana deja abierto: la posibilidad gettieriana masiva.

  1. Gettier como el límite interno del naturalismo quineano. Quine define el conocimiento como “creencia verdadera justificada dentro del esquema”. Pero la lección de Edmund Gettier es que esta definición es insuficiente. Uno puede tener una creencia verdadera y estar perfectamente justificado dentro de su esquema conceptual (como Smith, que tenía la palabra del presidente y había contado las monedas), y aun así no saber, porque la verdad de su creencia es accidental, desconectada causalmente de las razones que la sostienen. El naturalismo quineano, al carecer de un principio para excluir estas desconexiones causales fortuitas, no puede distinguir entre el conocimiento robusto y la suerte epistémica. El RCR surge, en parte, como respuesta a este vacío.
  2. El RCR como mecanismo anti-gettieriano. Lo que nuestro marco formaliza no es una “duda cartesiana”, sino el procedimiento mediante el cual la ciencia sistemáticamente minimiza la probabilidad de encontrarse en un escenario de Gettier. La convergencia monótona de λ y la aplicación de torque estadístico no buscan alcanzar una certeza psicológica. Buscan garantizar que la conexión entre nuestra justificación (los datos D_n) y la hipótesis (λ* = 0) sea no-accidental. Cada nuevo giro de la moneda (cada estudio replicado, cada umbral hecho más estricto) reduce el espacio para lo fortuito. La presuposición de un límite λ* no es un fantasma metafísico, es la condición de posibilidad para que el proceso de investigación tenga direccionalidad anti-accidental. Sin ella, no habría razón para preferir una justificación obtenida tras mil estudios a una obtenida tras diez, si ambas satisfacen pragmáticamente el esquema en un momento dado.
  3. De la centralidad en la red a la robustez causal. Es cierto que, para Quine, ciertas creencias se vuelven “nudos centrales” de nuestra red conceptual. Pero el RCR explica por qué y cómo una creencia como “I=I” adquiere esa centralidad. No es por un decreto pragmático, sino porque ha sido sometida a un proceso de validación convergente que la entrelaza causalmente con múltiples dominios de evidencia (clínica, virológica, estadística) de manera no-accidental. Su “centralidad” no es solo una posición lógica en un esquema, es el resultado de haber sobrevivido a un torque iterativo diseñado para excluir falsas conexiones. El RCR, por tanto, no se opone al naturalismo, lo completa proporcionando un criterio interno al propio esquema para distinguir entre la mera “creencia justificada” (vulnerable a Gettier) y el “conocimiento causalmente calibrado”.
  4. Hacia una epistemología de la calibración, no de la domesticación. Lejos de domesticar el escepticismo, el RCR lo transforma en un principio regulativo positivo. La cláusula ¬K_n(H₀) (nunca sabemos con certeza absoluta en paso finito) no expresa una duda, sino el reconocimiento de la falibilidad y la historicidad de toda justificación. Esta falibilidad no es una debilidad, es el motor que impulsa la búsqueda de una conexión causal cada vez más robusta entre el esquema y el mundo. En este sentido, el “límite impredicativo” λ* no es un ideal trascendente, es la expresión formal de la meta inmanente a la práctica científica: cerrar, de manera cada vez más definitiva, la brecha por donde la suerte de Gettier podría colarse.


Por consiguiente, el RCR no es una concesión al cartesianismo, sino su superación naturalista. Toma la intuición de que nuestra justificación nunca es lógicamente indudable y la convierte en la fuerza que impulsa una práctica de calibración causal asintótica. Lo que gana sobre el “esquema conceptual” quineano es, precisamente, una explicación de cómo ese esquema, a través de la ciencia, se ancla de manera no-accidental en un mundo que resiste y constriñe su evolución. No perseguimos un fantasma, sino que construimos, giro a giro de la moneda, las condiciones para que nuestros mejores juegos de lenguaje sean también mapas fiables para navegar la realidad.


VIII. Aplicación del RCR a la mitigación de riesgos existenciales: el torque del Queso Suizo


Una de las tensiones más agudas en la gobernanza de tecnologías de alto impacto —como la inteligencia artificial avanzada, la biotecnología sintética o la nanotecnología molecular— es la aparente imposibilidad de justificar racionalmente una afirmación de seguridad total frente a un riesgo existencial (x-risk). Siempre habrá una “bala en el tambor”: un escenario adverso no contemplado, una transición de fase ontológica inesperada, un fallo en cadena. Desde esta perspectiva, cualquier principio de precaución riguroso parece condenar toda innovación disruptiva, y cualquier relajación parece imprudencia suicida. Esta paradoja reproduce, en el ámbito de la política tecnológica, el dilema humeano: ¿cómo inferir con fundamento ontológico que un fenómeno peligroso no ocurrirá, cuando solo contamos con una ausencia finita de observaciones negativas?


El Realismo Convergente Regulativo (RCR) ofrece una salida a esta encrucijada, no mediante la eliminación del riesgo (imposible en paso finito), sino mediante su convergencia regulativa asintótica. Esta dinámica encuentra una realización práctica ejemplar en el Modelo del Queso Suizo (Swiss Cheese Model) de James Reason, originariamente concebido para la gestión de errores en sistemas complejos.


En dicho modelo, la seguridad no depende de una única barrera infalible —una pretensión dogmática incompatible con la falibilidad humana y técnica—, sino de la superposición de múltiples capas defensivas heterogéneas e independientes. Cada capa representa un mecanismo de contención (técnico, humano, procedimental, regulatorio), que posee “agujeros” (fallos potenciales). Un desastre solo ocurre si los agujeros de todas las capas se alinean causal y temporalmente para permitir el paso de la amenaza. La probabilidad de tal alineación disminuye exponencialmente con cada capa adicional, siempre que las capas sean estadísticamente independientes.


Formalicemos esta intuición dentro del marco RCR. Sea    la probabilidad de fallo de la capa  . Si las capas son independientes, la probabilidad conjunta de fallo del sistema es:


 


Dado que   para todo   , la sucesión   es monótonamente decreciente y acotada inferiormente por 0. Por lo tanto, converge:


 


Esta convergencia no es meramente técnica: es una instancia del Axioma 2 (Encajamiento monótono) y del Axioma 1 (Convergencia regulativa) del RCR. Cada nueva capa representa un incremento en el torque estadístico , que reduce la cota superior   del riesgo residual. La condición de independencia garantiza que este encajamiento no sea ilusorio (evitando la sobredeterminación que neutraliza el torque). La heterogeneidad ontológica de las capas —por ejemplo, una combinación de contención física, verificación algorítmica, auditoría adversarial, protocolos de acceso y simulacros de estrés— asegura precisamente esa independencia causal.


Así, la afirmación pragmática “esta tecnología es segura” no equivale a la dogmática “el riesgo es nulo”, sino a la regulativa: “el sistema está encajado en un proceso de torque creciente que lo acerca asintóticamente a  ”. Esta es una inferencia de tipo RCR: trata la ausencia persistente de fallos bajo perturbaciones adversas graduales como evidencia creciente de ausencia de riesgo catastrófico.


Este enfoque resuelve la paradoja precautoria: No se prohíbe actuar bajo riesgo no-nulo —eso sería exigir un “torque infinito” de antemano, una imposibilidad práctica—, por el contrario, se exige que toda acción con potencial existencial esté acoplada a un programa de construcción de capas defensivas, de modo que el desarrollo tecnológico y el torque regulatorio avancen en paralelo. La legitimidad de una IA superinteligente no reside en su “bondad intrínseca”, sino en su arquitectura de contención en expansión, su Queso Suizo en crecimiento.

En consecuencia, el RCR transforma el principio de precaución de una prohibición estática en un criterio procedimental: no se pregunta “¿hay algún riesgo?”, sino “¿existe un compromiso demostrable con la convergencia regulativa del riesgo hacia cero?”. Por caso, viajar en avión serña aceptable no porque no haya riesgo, que de algún modo sea una ruleta rusa, vale decir, hay una probabilidad no nula de morir en un accidente, sino porque la industria aeronáutica global opera como un Queso Suizo con torque continuo. La ruleta rusa, en cambio, es un sistema de una sola capa: su riesgo no converge. Ahí radica la diferencia.


En resumen: El modelo del Queso Suizo, interpretado bajo el prisma del RCR, se revela así no como una ingeniería defensiva pasiva, sino como la materialización práctica del realismo convergente aplicado a la supervivencia civilizatoria. Es la arquitectura que permite a la humanidad tomar riesgos audaces sin caer en la imprudencia ni en la parálisis. En un mundo de x-risks, el Queso Suizo no es un lujo: es la condición de posibilidad para que el juego de la civilización continúe.


VIII. Conclusión: Hacia una epistemología de aproximaciones asintóticas


El recorrido emprendido nos ha llevado desde la paradoja humeana hasta el núcleo de la práctica científica contemporánea, confrontando el desafío escéptico del empirismo constructivo. Hemos visto que la inferencia que va de la ausencia de evidencia a la evidencia de ausencia —lejos de ser un salto irracional o un dogma metafísico— constituye el eje de una racionalidad científica que opera en el dominio de lo impredicativo.

Nuestra propuesta, el Realismo Convergente Regulativo (RCR), articula esta racionalidad. Lo hace reconociendo, en primer lugar, que la ciencia no parte de certezas ostensibles. Comienza con el valor facial de los fenómenos, con la mera ausencia de detección. Pero no se detiene ahí. Aplica de manera sistemática un torque estadístico, una fuerza metodológica dirigida a reducir la incertidumbre y acotar el espacio de lo posible. Este torque, ejemplificado en el exceso metodológico de los estudios sobre el VIH o en el rigor del sigma-5 en física de partículas, no tiene sentido dentro de un pragmatismo instrumentalista que declare suficiente la mera adecuación empírica. Su justificación profunda reside en la presuposición regulativa de un límite real, un horizonte de sentido hacia el cual converge la investigación.

La metáfora de la moneda y el juego de los números reales nos ha permitido visualizar la estructura de esta convergencia. La verdad —en particular, la verdad de una ausencia— no es un objeto que podamos señalar en ningún paso finito. Es análoga al número ganador inevitable pero inostensible del continuo, o al punto fijo de una iteración en la teoría de Kripke. Se define de manera impredicativa, como el polo de atracción de una sucesión monótona de aproximaciones. Este carácter impredicativo no es una debilidad, sino la condición que permite trascender la mera colección de anécdotas para constituir un dato ontológicamente comprometido.

Frente a las objeciones, el RCR se muestra robusto. No es un bayesianismo disfrazado, pues su objetivo no es solo actualizar grados de creencia, sino explicar la teleología del proceso que hace que esos grados converjan. No sucumbe a la crítica falsacionista porque no depende del frágil mecanismo del modus tollens, sino de la solidez procedimental de una convergencia regulada. Responde al desafío de Feyerabend distinguiendo entre la anarquía del descubrimiento y la lógica de la consolidación factual. Y ante la objeción quineana, demuestra que no cultiva un escepticismo cartesiano, sino que ofrece un antídoto naturalista contra la suerte epistémica de Gettier, anclando la justificación en una calibración causal progresiva.

La gananza última sobre el empirismo constructivo es doble. Por un lado, el RCR explica la dinámica intrínseca de la ciencia, esa inversión continua de recursos que busca no solo predecir, sino comprender y no solo salvar los fenómenos, sino constituir hechos. Por otro, y de manera decisiva, revela que toda teoría con aspiración universal realiza inevitablemente proyecciones ontológicas negativas. Al afirmar lo que hay, delimita y excluye lo que no puede haber. El RCR hace explícito y regula este movimiento, proporcionando el marco para convertir legítimamente, bajo condiciones estrictas de torque estadístico, una ausencia de evidencia en evidencia de una ausencia real.

Por tanto, avanzamos hacia una epistemología que ya no busca fundamentos últimos ni certezas indubitables, sino que se comprende a sí misma como una práctica de aproximaciones asintóticas. En esta visión, el conocimiento científico es un proceso de maniobralidad real en un mundo que se resiste y se revela. No poseemos la verdad como un objeto, pero nos orientamos hacia ella como hacia un límite que da coherencia y dirección a nuestro quehacer. La ciencia, en su esfuerzo más riguroso, no toma sus teorías solo por su valor facial. Las somete a un torque que, giro a giro, nos permite vislumbrar —asintóticamente, faliblemente, pero de manera crecientemente segura— el reverso de la moneda: el mundo estable de presencias y ausencias que habitamos y que, con cada nuevo giro, comprendemos un poco mejor.

Comentarios