Hacia una Frontera Móvil: El Realismo Convergente Regulativo como Criterio Dinámico de Demarcación Científica

 Abstract


El problema de demarcación entre ciencia y pseudociencia está en un punto muerto: la falsabilidad popperiana falla frente a la sobredeterminación empírica, y el anarquismo metodológico renuncia a toda normatividad epistémica. Este artículo supera este dilema redefiniendo la demarcación como evaluación de la direccionalidad dinámica de una práctica cognitiva. Para ello, integramos tres marcos.

Primero, el Realismo Convergente Regulativo (RCR), que modela la investigación rigurosa como la aplicación monótona de un "torque estadístico" que converge asintóticamente hacia un límite impredicativo (λ*), un horizonte regulativo de verdad. Segundo, la Teoría de los Estados Epistémicos Guardados (SES), que describe cómo las comunidades racionales establecen "puntos de guardado" (SPs): configuraciones epistémicas provisionales que marcan el terreno ganado. Violar esta norma mediante el "reseteo de Quine" es un fraude comunicativo. Tercero, una visión del conocimiento como red sintrópica, donde el valor de un nodo se mide por su contribución a la sintropía global: su capacidad para generar SPs que aumenten la conectividad y reduzcan la entropía epistémica de la red.

La síntesis produce un criterio de demarcación unificador. Una práctica es científica si manifiesta una direccionalidad convergente, respeta los puntos de guardado y actúa como un nodo sintrópico. Es pseudocientífica si muestra estancamiento, evasión o inmunización, viola la norma del punto de guardado y opera como un nodo parásito.

Este criterio, aplicable más allá de las ciencias naturales, explica la solidez común de la física (bosón de Higgs), la lógica (teoremas de Gödel) y la filosofía (Rawls), al revelar su adhesión compartida a una lógica procedimental convergente y a una normatividad comunicativa. El artículo se ofrece como un punto de guardado para la filosofía de la ciencia, cuya validez dependerá de su capacidad para reconfigurar productivamente la conversación sobre la demarcación.



I. Introducción: El Fantasma de la Demarcación y la Necesidad de un Nuevo Enfoque



El problema de la demarcación entre ciencia y pseudociencia persiste como un fantasma en la filosofía de la ciencia. Un espectro que, pese a los numerosos exorcismos intentados, continúa acechando nuestra comprensión de la racionalidad científica. La propuesta canónica de Karl Popper, que erigía la falsabilidad como criterio demarcativo, ofrecía una línea clara y normativa. Sin embargo, su elegancia lógica se resquebraja ante la complejidad de la práctica científica real. La estructura lógica del modus tollens, piedra angular del falsacionismo, se revela frágil ante la omnipresente sobredeterminación de las teorías. En los sistemas empíricos abiertos, un resultado negativo rara vez falsa de manera concluyente una teoría, sino que suele señalar la necesidad de ajustar hipótesis auxiliares, revisar instrumentos o explorar cadenas causales alternativas. La crítica, bien fundamentada, mostró que la falsabilidad como criterio lógico era a la vez demasiado estricta (excluyendo prácticas de indudable rigor, como la historia o partes de la cosmología) y demasiado permisiva (incapaz de distinguir entre una teoría científicamente prometedora y una construida ad hoc para eludir toda refutación). El fantasma, pues, no fue conjurado.

Ante este fracaso, una corriente influyente optó por disolver el problema. Encabezada por Paul Feyerabend, esta posición celebró un aparente "todo vale" metodológico, argumentando que la historia de la ciencia revela un progreso dependiente de la transgresión, no de la adherencia, a reglas metodológicas rígidas. Si bien esta crítica histórica era valiosa, su conclusión epistemológica resultaba corrosiva. Al abandonar toda aspiración a una normatividad epistémica transcultural, esta disolución postmoderna o anarquista dejaba a la comunidad científica sin recursos conceptuales para distinguir, de manera no arbitraria, entre el avance legítimo y la charlatanería, entre la controversia fértil y el dogmatismo estéril. El precio de exorcizar el fantasma con el fuego del relativismo fue quemar la propia casa de la razón. La demarcación, así, quedó atrapada en un dilema insatisfactorio: un criterio rígido e inaplicable o una disolución que renuncia a toda normativa.

Frente a este impasse, este artículo propone un nuevo enfoque. Sostenemos que el error fundamental reside en concebir la demarcación como el trazado de una frontera estática entre dos conjuntos de enunciados o métodos, como si la "ciencia" y la "no-ciencia" fueran territorios bien delimitados en un mapa conceptual. En contraposición, argumentamos que la demarcación debe entenderse como un criterio dinámico y direccional. La pregunta relevante no es "¿pertenece esta afirmación a la categoría 'ciencia'?", sino "¿participa esta práctica en un proceso convergente de constitución de hechos?".

Para desarrollar y defender esta tesis, articulamos dos marcos conceptuales complementarios. En primer lugar, presentamos el Realismo Convergente Regulativo (RCR), una epistemología que entiende la investigación científica como la aplicación sistemática de un "torque estadístico" destinado a reducir la incertidumbre de manera monótona, convergiendo asintóticamente hacia un límite impredicativo que funciona como horizonte regulativo de verdad. En segundo lugar, integramos el RCR con una teoría de los puntos de guardado epistémicos, derivada de una normatividad básica de la comunicación racional. Esta teoría sostiene que las comunidades de conocimiento progresan estableciendo estados epistémicos intersubjetivamente aceptados como bases para futuras investigaciones, y que violar esta práctica constituye un fraude comunicativo.

Juntos, el RCR y la teoría de los puntos de guardado proporcionan las herramientas para trazar una frontera móvil pero real. Móvil, porque lo que cuenta como "convergencia" o como "punto de guardado" legítimo puede evolucionar con las prácticas y los estándares de una disciplina. Real, porque describe una asimetría objetiva entre prácticas que se someten a la disciplina de la convergencia fáctica y aquellas que la evaden o corrompen. Este marco busca, pues, ofrecer una vía para restaurar la normatividad epistémica sin recaer en el dogmatismo metodológico, explicando cómo la ciencia, falible y en perpetuo movimiento, puede distinguirse racionalmente de su mímesis patológica.



II. El Realismo Convergente Regulativo (RCR): Ciencia como Práctica de Torque Asintótico



El núcleo de nuestra propuesta reside en el Realismo Convergente Regulativo (RCR), un marco epistemológico que reconceptualiza la dinámica fundamental de la investigación científica. Como se ha desarrollado en otros trabajos (Hector Meda, Ausencia de evidencia como evidencia de ausencia: Hacia un realismo convergente regulativo en la inferencia científica), el RCR no ofrece una definición esencialista de la ciencia, sino una caracterización de su modo de proceder cuando aspira a constituir hechos robustos.

En su formulación concisa, el RCR se estructura en torno a tres axiomas fundamentales que modelan la inferencia por ausencia. 

Primero, el axioma de convergencia regulativa, que postula la existencia de un parámetro real λ* (por ejemplo, la tasa real de un fenómeno) hacia el cual converge la sucesión de nuestras mejores estimaciones λ, obtenidas a partir de los datos D acumulados mediante metodologías progresivamente más rigurosas. 

Segundo, el axioma de encajamiento monótono, que establece que, al incrementar el rigor metodológico o el volumen de datos (aumentando el “torque estadístico”), nuestra cota superior de error λ no aumenta, sino que decrece o se mantiene. Esta monotonicidad es crucial, pues garantiza que el esfuerzo investigador no es errático, sino direccional. 

Tercero, el axioma de impredicatividad del límite, que afirma que la proposición “λ* = 0” (es decir, la ausencia real del fenómeno) no es un hecho observable en ningún paso finito, sino que se define precisamente como el límite de la sucesión convergente λ 0. La verdad así entendida es impredicativa: no se puede señalar de manera ostensiva, sino que es el polo de atracción que confiere sentido a todo el proceso iterativo de medición y control.

Este compromiso con un límite real λ* no es una petición de principio metodológica, sino la expresión de una ontología subyacente que hemos desarrollado en otro lugar bajo el nombre de Monismo Infinitesimal (Meda, 2026). Según esta ontología, la realidad fundamental no está compuesta de objetos discretos y ostensibles, sino que constituye un campo continuo isomorfo a la densidad algorítmicamente irreductible del número Ω de Chaitin. En tal campo, las identidades —ya sean las de un fenómeno físico, un concepto o un hecho social— no preexisten como sustancias, sino que emergen como límites impredicativos mediante procedimientos iterativos de discriminación. El RCR, por tanto, no postula λ* como una ficción heurística, sino que lo reconoce como el polo de convergencia real hacia el cual tiende la sucesión de aproximaciones, en la medida en que el campo continuo que constituye lo real admite y exige tal convergencia. La justificación última de la práctica científica de seguir aplicando torque incluso cuando la incertidumbre es ya pragmáticamente insignificante reside precisamente en esta estructura ontológica: el campo es inagotable y su exploración asintótica es la forma que tiene la razón finita de acercarse a una realidad que la excede pero la constriñe.

La potencia heurística del RCR se capta en su metáfora central. La inferencia científica frente a la ausencia de evidencia es análoga a la rotación de una moneda epistemológica. Una cara muestra “ausencia de evidencia”, la otra “evidencia de ausencia”. El escepticismo humeano y su heredero contemporáneo, el empirismo constructivo, insisten en que, dado que nunca podemos aplicar un torque infinito, solo vemos siempre la primera cara. El RCR, en cambio, sostiene que la práctica científica aplica de forma sistemática un torque estadístico —diseños experimentales más precisos, muestras más grandes, controles más estrictos— que, giro a giro, hace visible el reverso de la moneda. No logramos una rotación completa (certeza absoluta), pero el proceso de convergencia monótona justifica racionalmente la creencia graduada en que el reverso se está revelando. La transición de “no hemos visto X” a “X no ocurre” deja de ser un salto dogmático para convertirse en la conclusión asintótica de un procedimiento regulado.

Este marco conlleva un compromiso ontológico débil pero ineludible. Presupone la existencia de un límite real λ* como horizonte regulativo. Este compromiso no es la afirmación dogmática de que ya conocemos λ*, sino la presuposición que da dirección y sentido al esfuerzo investigador. Sin ella, la inversión continuada de recursos en reducir un intervalo de confianza una vez alcanzado un umbral pragmáticamente suficiente carecería de explicación. La ciencia se comporta como si estuviera afinando sucesivas aproximaciones hacia un valor fijo en el mundo, y el RCR toma este “como si” en serio, como la expresión de su racionalidad profunda.

Finalmente, el RCR proporciona una respuesta naturalista al desafío de la suerte epistémica o los escenarios de Gettier. En estos, un agente tiene una creencia verdadera y justificada, pero la conexión entre la justificación y la verdad es accidental. El proceso científico, modelado por el RCR, puede entenderse como una calibración causal anti-Gettier. Cada iteración, cada aumento del torque estadístico, no solo actualiza una probabilidad subjetiva, sino que refuerza activamente el vínculo causal no-accidental entre nuestra red de justificaciones (los datos D, los métodos) y el hecho del mundo que se pretende capturar (λ*). Al buscar sistemáticamente fuentes de error, controlar variables confusoras y replicar resultados, la práctica científica construye gradualmente una justificación cuya relación con la verdad deja de ser fortuita para volverse estructural y robusta. La convergencia no es solo matemática, sino causal. De este modo, el RCR explica no solo cómo creemos, sino cómo llegamos a saber de manera fiable, cerrando progresivamente la brecha por la que la mera suerte epistémica podría colarse.


III. La Pseudociencia como Fallo en la Lógica de Convergencia (La Frontera Negativa)


Si la ciencia, según el Realismo Convergente Regulativo, se caracteriza por una dirección —la aplicación monótona de torque estadístico hacia un límite impredicativo—, entonces su opuesto pseudocientífico debe definirse por su oposición o evasión de esa misma dirección. La demarcación, así entendida, no es una clasificación de doctrinas, sino un diagnóstico de dinámicas. La pseudociencia no es simplemente un conjunto de afirmaciones falsas o extravagantes, es una práctica que, en su estructura misma, rechaza la lógica de convergencia que hace posible la constitución progresiva de hechos.

Este rechazo se manifiesta en tres modos de fallo fundamentales, cada uno correspondiente a la violación de uno de los axiomas del RCR.

El primer modo de fallo es el estancamiento o la no-monotonía del torque. Corresponde a la violación del axioma de encajamiento monótono. Una práctica pseudocientífica carece de mecanismos internos que sistemáticamente reduzcan la incertidumbre estimada λ. Su evidencia es típicamente anecdótica, aislada y no acumulativa. Los "resultados" no se encajan en una sucesión convergente sino que se presentan como instancias desconectadas, a menudo seleccionadas por su poder de confirmación. No existe un protocolo iterativo cuyo siguiente paso refinaría de manera predecible la cota de error. Por ejemplo, la homeopatía opera en este régimen. A pesar de la abrumadora evidencia meta-analítica que sitúa su efecto en λ ≈ 0 (indistinguible del placebo), su investigación no genera un torque convergente que reduzca de manera monótona esa estimación. En su lugar, produce narrativas sobre "memoria del agua" o "energía vital" que son inmunes a la refutación cuantitativa y no especifican un parámetro λ* que pudiera, en principio, ser acotado asintóticamente. La dinámica es circular, no direccional.

El segundo modo de fallo es la evasión del límite impredicativo. Corresponde a la violación del axioma de convergencia regulativa y de la naturaleza impredicativa de la verdad. En la pseudociencia, la "verdad" no funciona como un horizonte inalcanzable hacia el cual se converge mediante un procedimiento público, sino como una posesión ostensible o un dogma. Es revelada por una autoridad, intuida directamente, o deducida de principios incuestionables. Al no haber un λ* definido operativamente como el límite de una sucesión de aproximaciones controladas, no hay un criterio independiente para medir el progreso. Las teorías de conspiración ejemplifican este fallo de manera paradigmática. Su núcleo afirmativo —la existencia de un complot oculto y omnipotente— es, por construcción, elusivo. Cualquier evidencia en contra puede ser reinterpretada como parte del encubrimiento, haciendo que el "hecho" central se retraiga siempre más allá del alcance de cualquier torque empírico. No hay un estado de conocimiento que pueda constituirse como un punto de guardado, porque el objeto de estudio está definido por su resistencia a ser fijado. La verdad conspirativa es un espectro que huye, no un límite que atrae.

El tercer modo de fallo es el desacople entre creencia y convergencia. Corresponde a la violación del vínculo normativo entre el grado de creencia φ(λ) y la cota de error λ, y del lema de compromiso implícito. En una práctica científica, la confianza en una hipótesis está calibrada, aunque sea de manera compleja, con la solidez y estrechez de los intervalos de evidencia. En la pseudociencia, ocurre una inmunización epistémica: el grado de creencia permanece alto (cercano a 1) independientemente del valor de λ. Incluso cuando la evidencia acumulada hace que λ sea grande o indeterminado, la adhesión dogmática no se modera. Este desacople es activo, no pasivo. Se implementa mediante una serie de estrategias de inmunización: la movilización de hipótesis ad hoc para explicar cada fracaso, el rechazo de los estándares metodológicos dominantes como "estrechos" o "sesgados", o el recurso a racionalizaciones que convierten la contraevidencia en una prueba de fe. El negacionismo climático ilustra este fallo. Frente a un consenso científico construido mediante un torque convergente masivo y multifacético —que ha reducido de manera monótona la incertidumbre sobre el forzamiento antropogénico—, la creencia negacionista persiste. Lo hace desconectándose de la lógica de convergencia: se seleccionan datos atípicos (violando la monotonicidad), se cuestionan los modelos y los mecanismos de consenso sin proponer una alternativa convergente (evadiendo el límite impredicativo), y, sobre todo, se mantiene una convicción que es impermeable a la calibración que la evidencia exige.

Estos tres modos de fallo no son siempre excluyentes y a menudo se refuerzan mutuamente. Juntos, definen la frontera negativa de la demarcación. No trazan una línea que diga "esto es falso", sino que señalan una dinámica disfuncional: una práctica que, en lugar de aspirar a constituir estados epistémicos cada vez más sólidos y compartidos (puntos de guardado), genera ruido, elusión e inmunización. La pseudociencia es, en esencia, la patología de una comunicación que se niega a jugar el juego de la convergencia, rechazando así la posibilidad misma de establecer esos nodos de baja entropía cognitiva desde los cuales el conocimiento colectivo puede avanzar.


IV. La Teoría de los Estados Epistémicos Guardados: La Normatividad de la Conversación Científica


El Realismo Convergente Regulativo proporciona una descripción potente de la dinámica científica, pero enfrenta una pregunta normativa ineludible. ¿Por qué deberíamos adherirnos a su lógica de convergencia? La respuesta requiere transitar del análisis descriptivo a la fundamentación de la racionalidad comunicativa. La teoría de los Estados Epistémicos Guardados (SES) ofrece este fundamento, mostrando que la adhesión a la convergencia no es una preferencia metodológica arbitraria, sino una condición de posibilidad para la comunicación racional misma.

Proponemos una formalización abstracta de la dinámica normativa del discurso científico, que llamaremos la Teoría de los Estados Epistémicos Guardados (Saved Epistemic States, SES). Un Espacio de Discurso (D) se entiende como un dominio de problemas, afirmaciones y argumentos sobre un tema determinado. En él interactúan Agentes Epistémicos (A₁, A₂, … A) que hacen afirmaciones, ofrecen argumentos y críticas. El Estado Epistémico (S) de D en un tiempo *t* es una configuración que incluye los Problemas abiertos (P), el conjunto de Afirmaciones en juego (C), una Estructura de soporte y refutación (R) que mapea las relaciones argumentativas entre dichas afirmaciones, y los Estándares de evaluación (E) que los agentes emplean tácita o explícitamente para aceptar, rechazar o modificar los elementos del sistema.

La noción central es la de Punto de Guardado (Save Point, SP). Un Punto de Guardado es un Estado Epistémico S que ha sido intersubjetivamente marcado como un estado desde el cual es legítimo continuar la investigación. No representa una verdad absoluta, sino un consenso provisional sobre el terreno ganado. Este estatus se alcanza cuando los elementos clave del estado han sido explícitamente articulados, sometidos a un escrutinio crítico significativo bajo los estándares vigentes, y cuando los agentes relevantes acuerdan tácita o explícitamente que las discusiones futuras pueden presuponer SP sin necesidad de rederivarlo desde cero. Un Punto de Guardado funciona así como un nodo de baja entropía cognitiva dentro del espacio discursivo, una configuración estable que reduce la incertidumbre interpretativa, canaliza la atención hacia problemas abiertos relevantes y permite la coordinación cognitiva. Su robustez no es estática, sino dinámica, radicando en su capacidad para estructurar y orientar nuevos flujos de investigación sin colapsar la red de discurso.

De esto se desprende una norma dialógica fundamental, la Norma del Punto de Guardado (Norma-SP). En un Espacio de Discurso D, si existe un Punto de Guardado SP ampliamente reconocido, constituye una falta comunicativa y una violación de la cooperación dialógica que un agente Aₓ actúe discursivamente como si SP no existiera, reintroduciendo problemas que SP resolvió o ignorando sus restricciones, sin ofrecer una razón epistémicamente aceptable para revertir a un estado anterior. Esta norma no describe un mero “efecto trinquete” lineal e irreversible. La dinámica es no lineal, pues desde un SP pueden surgir múltiples ramas de investigación. Es revisable, pues con razones suficientes se puede retroceder y abandonar un SP. Y es estructural, pues un SP es un estado integral del sistema epistémico, no un simple escalón en una escalera.

Para que un Punto de Guardado SP cuente como “ampliamente reconocido” dentro de una comunidad epistémica C deben cumplirse ciertas condiciones que evidencian su paso por un filtro crítico riguroso. En primer lugar, debe observarse una Transitividad de la Crítica, donde SP es operativo como premisa o presupuesto en los trabajos de miembros de C no directamente vinculados a sus creadores originales, señalando su adopción como herramienta por una segunda generación de usuarios críticos. En segundo lugar, requiere Visibilidad de las Objeciones, de modo que las principales críticas a SP sean conocidas y hayan recibido respuestas públicas dentro de C, mostrando que su reconocimiento incluye el de sus límites. En tercer lugar, debe demostrar Fertilidad Discursiva, generando nuevas preguntas y programas de investigación que serían ininteligibles sin él, siendo reconocido por su utilidad para hacer avanzar la conversación. Finalmente, debe mostrar Supervivencia a la Rotación Generacional, transmitiéndose a nuevos miembros como parte del equipamiento básico necesario para participar en C. Por tanto, “ampliamente reconocido” no denota incuestionabilidad o acuerdo mayoritario, sino una solidez y fertilidad demostradas tales que ignorar el SP sea visto como un signo de incompetencia o mala fe dentro de la práctica de C.

Una “razón epistémicamente aceptable” para revertir y dejar de presuponer un SP existente incluye, por ejemplo, el descubrimiento de un error interno en SP, como una contradicción lógica en sus afirmaciones centrales o un fraude en su evidencia clave. También puede deberse a un cambio en los Estándares de Evaluación (E) de la comunidad, que adopta criterios nuevos y más exigentes que SP no satisface. O puede surgir de la aparición de un nuevo Punto de Guardado SP₊₁ más robusto, que explique todo lo que SP explicaba más algunos problemas nuevos, y lo haga de forma más económica o elegante. Lo crucial es que revertir no es borrar. Es un movimiento regresivo consciente y justificado que implica retroceder a SP y explicar públicamente las razones para abandonarlo, asumiendo el coste epistémico de perder el progreso construido sobre él. Esta distinción es crucial. La reversión legítima no borra la historia: emite una señal metadiscursiva explícita (“Vuelvo a SP porque encontré una contradicción en R”) que preserva la memoria del progreso anterior. El reseteo de Quine, en cambio, opera por omisión: actúa como si el intercambio crítico nunca hubiera ocurrido, negando tácitamente la huella que el discurso del otro dejó en el estado cognitivo del agente. Uno es reconstrucción crítica; el otro, amnesia estratégica. No es un reseteo caprichoso, sino un acto de reconstrucción crítica que lleva la cicatriz de haber abandonado un estado que alguna vez orientó la investigación.

La conexión con el RCR se vuelve entonces natural y necesaria. Un Punto de Guardado legítimo es, en esencia, la encarnación finita y provisional del proceso de convergencia. Es el momento en que, para un dominio específico, la aplicación de torque estadístico ha producido un valor de λ "suficientemente pequeño" bajo unos estándares "suficientemente rigurosos", y la comunidad, tras un debate, decide marcar ese estado epistémico como una base firme para construir. El consenso "I=I" en virología es un SP monumental precisamente porque es el resultado de un torque convergente masivo. No es un dogma, es un terreno ganado. Este terreno ganado no implica clausura epistémica, sino estabilización provisional. Un Punto de Guardado legítimo corresponde a un estado en el que la comunidad ha decidido que el valor de λ es suficientemente pequeño bajo estándares rigurosos, y que el torque adicional puede redirigirse hacia nuevos problemas —sin renunciar a la posibilidad de reabrirlo si emergen razones válidas. El SP no es el fin del proceso, sino un nodo desde el cual el proceso se ramifica con mayor eficiencia.

Desde esta perspectiva unificada, la patología de la pseudociencia —ya diagnosticada como rechazo a la convergencia— se revela también como una violación sistemática de la Norma-SP y una fuente perpetua de "reseteos de Quine". Al no poder establecer puntos de guardado legítimos (por su estancamiento metodológico, su evasión del límite impredicativo y su desacople inmunizador), la pseudociencia se condena a operar en un ciclo de "roguelike" epistémico. Cada intercambio, cada controversia, vuelve a comenzar desde un estado básico similar, sin acumulación, sin terreno ganado. Un homeópata y un médico, un teórico de la conspiración y un historiador, no discuten desde puntos de guardado compartidos. La parte pseudocientífica opera desde un espacio discursivo que no reconoce los SPs de la comunidad experta, ejecutando así un reseteo constante que hace imposible cualquier coordinación cognitiva genuina. Su discurso consume atención pero no produce los nodos estables desde los cuales el conocimiento colectivo puede avanzar.

Por lo tanto, la normatividad que buscamos emerge de las condiciones más básicas de una empresa cooperativa de búsqueda de verdad. Adherirse a la lógica de convergencia del RCR y respetar los puntos de guardado no es seguir un método entre otros. Es aceptar las reglas constitutivas del único juego en el que nuestras palabras pueden modificar legítimamente el estado de los otros y, juntos, construir un mapa del mundo que mejore con el tiempo. Es la elección entre participar en una conversación que aprende y avanza, o condenarse a la repetición estéril de monólogos que nunca se tocan.



V. La Pragmática de la Memoria Discursiva: Comunicación como No-Olvídate



V.1. Hacia una política de los commons cognitivos sintrópica

La articulación del RCR y la teoría SES revela una relación de codependencia estructural. Por un lado, el proceso de convergencia descrito por el RCR es el mecanismo generativo de puntos de guardado legítimos. Sin la aplicación sistemática de torque estadístico que reduce λ de manera monótona, no se produce el estado de "baja entropía cognitiva" que justifica marcar un consenso provisional como base firme. El consenso 'I=I' no es un acuerdo retórico, antes bien, es la cristalización social de una sucesión convergente de intervalos de confianza.

Por otro lado, los puntos de guardado son los hitos que dan dirección y sentido económico al proceso de convergencia. Sin ellos, la aplicación de torque sería un esfuerzo errático y potencialmente infinito. Los puntos de guardado funcionan como 'atractores' en el espacio discursivo: concentran los recursos de la comunidad en problemas abiertos a partir de una base compartida, evitando el despilfarro de reinventar continuamente la rueda. Establecen el 'desde dónde' de la siguiente iteración de torque.

Así, por cierto, la pseudociencia fracasa en ambos frentes: al rechazar la lógica de convergencia (RCR), se vuelve incapaz de generar puntos de guardado legítimos; al violar la Norma-SP, destruye la arquitectura social que utiliza esos puntos para coordinar la investigación. Su dinámica es doblemente patológica: no produce terreno firme y, si por azar lo pisara, inmediatamente lo desestabilizaría.

No obstante, la Norma del Punto de Guardado no debe interpretarse como un imperativo moral elevado, sino como una inferencia pragmática básica para distinguir la comunicación genuina del mero ruido. Los agentes epistémicos no son sustancias previas que luego interactúan, sino que emergen como nodos diferenciados precisamente en la medida en que respetan ciertos protocolos de coordinación, como la Norma-SP. Ignorar un punto de guardado no es, por tanto, un simple error lógico. Es negar la agencia del otro como fuente de modificación legítima de tu propio estado interno. En términos relacionales, constituye un acto de desconexión unilateral cuyo costo no es solo epistémico, sino profundamente atencional.

Podemos formalizar esta explicación partiendo de una situación de base conductista. Consideremos dos agentes, A y B, que emiten sonidos o grafías, esto es, comportamientos observables, el uno hacia el otro. Necesitamos un criterio para determinar si se están comunicando —cooperando en una empresa de ajuste mutuo de representaciones— o si simplemente están emitiendo conductas en paralelo. El síntoma inequívoco de la no-comunicación es lo que podríamos denominar el "reseteo de Quine". Este síntoma se observa en un ciclo donde, tras una secuencia de intercambios en la que A emite la señal X y B emite la señal Y —la cual, en contexto, se interpreta como una respuesta a X—, el agente A actúa a continuación como si la secuencia {XY} no hubiera modificado el estado del sistema. Esto se manifiesta al repetir X o emitir una señal X' que resulta incompatible con haber registrado e incorporado Y. Ante este patrón, un observador, y eventualmente el propio B, tiene razones poderosas para inferir que no hay comunicación genuina.

La razón por la que este síntoma es inequívoco radica en que la función mínima de la comunicación es la coordinación. Un "reseteo" demuestra una ausencia total de dicha coordinación. La señal Y no ha funcionado como un input que modifica el estado interno de A de una manera relevante para la interacción en curso. Es análogo a pulsar un botón y comprobar que la máquina no transita a un nuevo estado. Se deja de inferir que es un botón y se empieza a inferir que es un mero adorno. Por consiguiente, la Norma-SP puede reformularse en términos conductuales y pragmáticos. Si un agente desea que sus señales sean tratadas como actos de comunicación —y no como ruido o monólogo—, debe comportarse de manera que sus interlocutores puedan inferir que el intercambio previo ha modificado su estado epistémico de forma no aleatoria. La forma más básica de demostrar esta modificación es no reiniciar ciclos ya recorridos, a menos que se emita una señal especial de 'error y reversión', equivalente a proporcionar una razón epistémicamente aceptable para el retroceso.

Actuar como si se estuviera comunicando —tomando turnos, usando una sintaxis compartida— mientras se ejecuta de forma encubierta el "reseteo de Quine", constituye un fraude comunicativo. Es simular la forma de la coordinación sin su sustancia. Consiste en aprovecharse de la disposición cooperativa del otro, de su presuposición de que ambos participan en el mismo juego de ajuste mutuo, para consumir su tiempo y atención sin ofrecer el retorno mínimo exigible: el reconocimiento de que sus actos discursivos han dejado una huella en el propio estado cognitivo. La exigencia de respetar los puntos de guardado no es, por tanto, una exigencia elitista sobre los contenidos que deben aceptarse. Es una exigencia constitutiva que describe lo que hace que una interacción sea comunicación y no una farsa. La práctica académica de marcar y respetar puntos de guardado —a través de mecanismos como la revisión por pares, las réplicas y los debates— no es sino la institucionalización explícita y robusta de este principio pragmático básico, que en una conversación ordinaria opera de manera tácita. Esta patología no es meramente académica. En contextos de alta incertidumbre —como la gobernanza de inteligencia artificial avanzada o la bioseguridad, en suma, x-risks—, el fraude comunicativo puede tener consecuencias existenciales. Si los actores clave simulan cooperación discursiva mientras ignoran puntos de guardado sobre riesgos bien establecidos (por ejemplo, la posibilidad de alineamiento fallido en sistemas autónomos), impiden la formación colectiva de SPs robustos que permitan anticipar y mitigar amenazas sistémicas. La entropía cognitiva se convierte así en un vector de vulnerabilidad civilizatoria. En este sentido, una política de los commons cognitivos debe necesariamente incluir mecanismos para detectar y aislar aquellos nodos que, bajo la apariencia de diálogo, generan ruido epistémico, ya que consumen valiosos recursos atencionales de la comunidad sin devolver ningún valor estructural a la red discursiva.


V.2. Rings de interlocución: la topografía de la atención epistémica

La teoría de los puntos de guardado no solo describe cómo se estabiliza el conocimiento, sino que también configura una topografía de la interlocución legítima. Los SPs no son meros depósitos de información, antes bien, son hitos que definen rings discursivos: espacios donde ciertas intervenciones cuentan como movimientos válidos y otras no. Para que una objeción sea tomada en serio en un ring dado, quien la formula debe demostrar que domina el terreno ganado —esto es, que conoce los SPs pertinentes, que ha procesado las objeciones previas, que puede situar su crítica en relación con la madeja constitutiva del debate. No se trata de un mero requisito aristocrático, sino de una condición de posibilidad de la conversación acumulativa: si cualquier intervención, venga de donde venga y con independencia del trabajo previo, reclamara el mismo derecho a ser respondida al más alto nivel, la red colapsaría por saturación atencional.

La célebre observación atribuida a Abraham Lincoln —<<Puedes engañar a todo el mundo algún tiempo, puedes engañar a algunos todo el tiempo, pero no puedes engañar a todo el mundo todo el tiempo>>— adquiere aquí una dimensión topográfica. Quien se limita a lanzar objeciones desde rings periféricos (un tuit, un blog, una conversación informal) puede, ciertamente, mantener a "algunos todo el tiempo" en su propio circuito. Pero para que su objeción penetre en el ring principal —aquel donde los SPs están vivos y en fricción— debe pagar el peaje de situarse en él: publicar en los canales pertinentes, responder a la literatura, mostrar que ha entendido por qué los SPs que impugna fueron establecidos. Exigir que la comunidad abandone sus puntos de guardado para atender una intervención que no ha realizado ese trabajo es una forma de reseteo de Quine ampliado: no se ignoran solo los contenidos previos, sino la propia arquitectura de rings que esos contenidos han generado.

El caso de Michael Behe es ilustrativo. Con independencia de la validez final de sus argumentos, Behe situó su intervención en el ring adecuado: publicó un libro, escribió papers, participó en debates académicos. Por eso mereció (y recibió) respuestas en ese mismo ring. Quien, por el contrario, se limita a espetar "eso no lo ha hecho el azar" en una red social, pretendiendo que esa ocurrencia tenga el mismo peso que décadas de investigación, está realizando un movimiento ilegítimo: actúa como si los SPs no existieran y como si el ring en el que se sitúa fuera equivalente al de la ciencia establecida. Esa pretensión no es solo epistemológicamente ingenua, sino comunicativamente fraudulenta: consume atención sin haber contribuido a la red que la hace posible, lo cual constituye un uso entrópico de la red cognitiva —un drenaje de recursos atencionales que, al no devolver ningún valor estructural, acelera la degradación del espacio discursivo compartido.


V.3.Genio, charlatán y la topografía de rings

Esta topografía de rings, y la dinámica temporal que la cita de Lincoln revela, nos proporciona precisamente las herramientas para disolver un dilema clásico de la filosofía de la ciencia: ¿cómo distinguir, en el momento de su irrupción, entre un genio revolucionario que viola legítimamente los puntos de guardado establecidos y un charlatán que simplemente los ignora? La respuesta no reside en un análisis intrínseco de sus ideas —pues en el instante inicial ambas pueden resultar igualmente disruptivas— sino en la disposición a someterse a la topografía de rings que la red epistémica ha configurado.

Un genio, por revolucionario que sea, paga el peaje: sitúa su propuesta en los rings adecuados (publicaciones revisadas, debates académicos, respuesta a objeciones), demuestra conocimiento del terreno que pretende impugnar, y acepta que su idea sea sometida al torque de la crítica en los términos que la propia red ha estabilizado. Incluso cuando su propuesta implica una reconfiguración profunda de los SPs existentes, lo hace desde dentro del proceso discursivo, no exigiendo que el proceso se suspenda para atenderlo.

El charlatán, por el contrario, opera mediante atajos: pretende que su intervención sea atendida al más alto nivel sin haber recorrido los rings intermedios, exige que la comunidad abandone sus puntos de guardado para responder a objeciones formuladas desde rings periféricos (redes sociales, divulgación superficial, cámaras de eco), y cuando no recibe esa atención, denuncia conspiración o cerrazón institucional. Su movimiento no es la revolución, sino el reseteo de Quine ampliado: ignora no solo los contenidos previos, sino la propia arquitectura de interlocución que esos contenidos han generado.

La diferencia, por tanto, no está en la verdad o falsedad de lo que se dice —eso solo puede determinarse asintóticamente— sino en la actitud hacia el proceso: el genio lo habita para transformarlo; el charlatán lo exige para parasitarlo. La red epistémica, aplicando los criterios prospectivos ya expuestos (VI.3) y respetando su propia topografía, puede ir discriminando entre ambos sin necesidad de un veredicto instantáneo ni de un criterio esencialista. El tiempo, los rings y el torque compartido se encargan de revelar, asintóticamente, la diferencia.



VI. La Frontera Móvil: Demarcación como Evaluación de Direccionalidad



VI.1. Codependencia estructural RCR-SES


La síntesis del Realismo Convergente Regulativo y la teoría de los Estados Epistémicos Guardados permite reformular el problema de la demarcación en términos que trascienden la metáfora espacial de una frontera. Proponemos que la demarcación debe entenderse como la evaluación de si una práctica adopta una lógica procedimental relacional específica, cuya estructura puede elucidarse mediante una analogía con la teoría de los números reales y el concepto de límite impredicativo.

Considérese un proceso definido en un dominio denso y totalmente ordenado, como el continuo de los números reales. En tal dominio, es posible definir procedimientos que garantizan la existencia y unicidad de un resultado —por ejemplo, el ínfimo de un conjunto acotado— sin que este resultado pueda ser calculado o nombrado de manera constructiva en un paso finito. 

 Un ejemplo mínimo ilustra esto: supóngase que un juez propone un número de referencia *r*. Dos jugadores, A y B, deben proponer, cada uno, un número mayor que *r*. Se declara ganador quien proponga el número más bajo. Si el juego se restringiera a los números naturales, la estrategia ganadora sería trivial y predicativa: dado *r*, el número *r+1* es garantía de victoria. Sin embargo, sobre el continuo de los reales, la situación es lógicamente distinta. Aunque está determinado con absoluta certeza que habrá un ganador (pues dados dos números reales distintos, uno es necesariamente menor), es imposible especificar de antemano cuál será el número ganador concreto. Cualquier candidato *x* que se proponga como "el ganador" podría ser superado por un número x' tal que r < x' < x. La victoria no es una propiedad intrínseca de un número predeterminado, sino una relación de orden que emerge únicamente de la comparación efectiva de las elecciones realizadas. La existencia del ganador es una consecuencia relacional de la estructura del dominio y de las reglas del procedimiento. En la terminología de la filosofía de las matemáticas, se trata de un objeto impredicativo: se define implícitamente como el elemento que satisface una condición ("ser el menor de los propuestos") que hace referencia a la totalidad de las elecciones posibles

Su existencia es real, pero no aprehensible de manera objetual o ostensiva, vale decir, su existencia se valida procedimentalmente, no objetualmente pero porque es una consecuencia relacional de la estructura del dominio y de las reglas del procedimiento (e.g., axiomas de completitud, definición de orden). En la terminología de la filosofía de las matemáticas, se trata de un objeto impredicativo: se define haciendo referencia a una totalidad (el conjunto de todas las cotas inferiores) a la que él mismo pertenece. La legitimidad de tal objeto no reside en su exhibibilidad ostensiva, sino en la coherencia del procedimiento que lo define como el único punto que satisface ciertas condiciones límite.

La práctica científica, en su expresión más rigurosa, instancia esta lógica en el dominio empírico. Opera bajo la presuposición regulativa de que existe un parámetro real λ* (una tasa causal, una constante física, la presencia o ausencia de un fenómeno) que juega un papel análogo al del ínfimo en el ejemplo matemático. Este λ* es impredicativo: no es un dato observacional, sino el límite hacia el cual converge una sucesión monótona de aproximaciones empíricas {λ}, obtenidas mediante la aplicación iterada y crecientemente rigurosa de métodos de investigación (el "torque estadístico"). La verdad de una proposición como "λ* = 0" no es, por tanto, una propiedad que se constate directamente, sino el punto fijo relacional que se constituye como el único valor coherente con la totalidad de la evidencia negativa acumulada bajo condiciones de control estricto y mejora metodológica. Los puntos de guardado epistémicos son las ratificaciones sociales provisionales de que, dado el estado actual del torque aplicado, un valor particular de λ es suficientemente próximo a ese límite impredicativo como para servir de base estable para la acción y la investigación posterior.

Esta analogía con el continuo matemático no es una mera ilustración pedagógica. Encuentra su anclaje metafísico en el Monismo Infinitesimal (Meda, 2026), según el cual el mundo empírico, el espacio semántico y el dominio de lo social comparten una estructura de campo continuo análoga a la del número Ω de Chaitin: un dominio perfectamente definido pero algorítmicamente incompresible, donde toda determinación (todo "objeto", todo "hecho") es el resultado de un procedimiento de cortadura que actualiza un límite potencial. Así, cuando el RCR describe la convergencia hacia λ* como un proceso asintótico, no está usando una metáfora prestada, sino describiendo la modalidad misma en que lo real se deja determinar por procedimientos racionales. La ciencia, la delimitación de fronteras y la fijación de conceptos son, en este sentido, tecnologías de cortadura que operan sobre el mismo tipo de sustrato: un continuo denso que constriñe y orienta la convergencia.

En contraste, la práctica pseudocientífica se caracteriza por el rechazo o la corrupción de esta lógica procedimental relacional. Este rechazo adopta al menos dos formas discernibles, que reflejan dos fracasos ante la estructura del problema:


  1. Reduccionismo predicativista ingenuo: Exige que toda afirmación fáctica sea justificada por una verificación ostensiva inmediata o por una deducción a partir de primeros principios autoevidentes. Rechaza la legitimidad de inferencias que dependan de límites impredicativos o de convergencias asintóticas, tratándolas como "metafísica" injustificada. Para esta actitud, la ausencia de evidencia nunca puede transformarse en evidencia de ausencia, porque equivale a demandar que el ínfimo del conjunto sea uno de sus elementos exhibibles, confundiendo la definición relacional con la exhibición de un testigo.


  1. Corrupción del procedimiento de comparación: Aunque puede aparentar un compromiso con los datos, internaliza reglas metodológicas que destruyen la posibilidad de convergencia monótona. Esto se logra mediante la introducción sistemática de hipótesis auxiliares ad hoc no contrastables, la movilidad de los criterios de validación, o la inmunización discursiva frente a la evidencia negativa. El procedimiento resultante carece de la propiedad de encajamiento monótono; no define una sucesión convergente {λ}, sino una secuencia cuyos valores pueden reajustarse arbitrariamente para preservar un núcleo dogmático. Es análogo a un "juego" en el continuo cuyas reglas se reescriben después de cada jugada para declarar vencedor a un participante predeterminado.


La demarcación, por consiguiente, se revela como una evaluación de la validez del procedimiento relacional que una práctica emplea para constituir afirmaciones fácticas. Una práctica es científica en la medida en que su dinámica internaliza un procedimiento análogo al de determinación de un límite impredicativo: un método de torque creciente que genera una sucesión monótona de aproximaciones, respeta los puntos de guardado que cristalizan su progreso, y acepta el estatus regulativo de un límite real λ* como polo de la convergencia. Es pseudocientífica en la medida en que su dinámica refleja un reduccionismo predicativista que rechaza la inferencia impredicativa, o una corrupción del procedimiento que hace imposible toda convergencia estable.

Esta elucidación arroja luz también sobre ciertas patologías en la filosofía y las humanidades. La postura que podríamos llamar fundacionalismo adánico —la pretensión de que cada argumento debe reconstruir su mundo ex nihilo, sin presuponer puntos de guardado establecidos por la tradición o la evidencia— comete el error del reduccionismo predicativista. Al tratar cada intercambio como un juego de lenguaje de suma cero que debe comenzar desde axiomas no cuestionados, imposibilita la acumulación de terreno epistémico y convierte el discurso en una serie de monólogos inconmensurables. Viola la normatividad básica del punto de guardado y, al hacerlo, abandona la posibilidad misma de participar en una empresa cooperativa de conocimiento, la cual, como la ciencia, depende esencialmente de la aceptación de límites impredicativos constituidos a través de procedimientos relacionales rigurosos y acumulativos.


VI.2. Heurística prospectiva: criterios orientadores para la demarcación en tiempo real


El criterio de demarcación hasta aquí desarrollado —basado en la direccionalidad convergente y el respeto a los puntos de guardado— permite diagnósticos robustos en retrospectiva. Sin embargo, el desafío más apremiante se presenta en el momento vivo de la controversia, cuando una nueva propuesta irrumpe desafiando los SPs establecidos. ¿Cómo distinguir, en tiempo real, entre una revolución científica legítima —que viola puntos de guardado para instaurar otros más profundos— y una pseudociencia que simplemente simula esa violencia sin capacidad de generar nuevo terreno?

Necesitamos una heurística prospectiva: un conjunto de criterios orientadores que, sin pretender un veredicto automático, permitan a la comunidad epistémica asignar atención, recursos y crédito de manera estratégica y por tanto razonable incluso en la incertidumbre del presente. 

Es importante subrayar, desde el principio, el estatus epistemológico de estos criterios. Son el resultado de una hermenéutica empírica de la historia de la ciencia y la filosofía: emergen a posteriori del análisis de casos exitosos y fallidos, de la observación de qué prácticas tendieron a generar convergencia y cuáles a estancarse. No pretenden, por tanto, un predicamento normativista fuerte, son, más bien, herramientas sedimentadas por la experiencia, cuya validez reside en su utilidad demostrada para orientar la discriminación, y que permanecen esencialmente abiertas a la reevaluación, al refinamiento e incluso al abandono si la práctica acumulada así lo aconseja.

En coherencia con el marco general de este artículo, estos criterios deben entenderse como puntos de guardado de segundo orden: configuraciones epistémicas provisionales que la comunidad ha ido estabilizando a través de la práctica, pero que —como todo SP— no han sido deducidos de un campo base objetual inapelable. Funcionan, en terminología wittgensteiniana, como bisagras (hinges): presupuestos prácticos que no se cuestionan en cada operación porque hacen posible la operación misma, pero que pueden girar si el juego de la indagación se transforma. Esto significa que cualquier nodo de la red epistémica está sujeto a una revisión de su madeja constituyente, vale decir, su constelación constitutiva puede ser reconfigurada. Ahora bien, esta revisabilidad no implica un relativismo sin rumbo: la red de prácticas y SPs solo puede ascender hacia una mayor monotonicidad y una mayor capilaridad empírica —esto es, hacia un refinamiento del torque que la ciencia puede aplicar— porque esa es la dirección que la ciencia busca y, en esa búsqueda, así se encuentra a Lo Real disponible como constricción. Los criterios, por tanto, no son convenciones arbitrarias, sino herramientas que han mostrado su fertilidad para orientar el avance hacia ese horizonte de convergencia.

Proponemos cuatro criterios interrelacionados, cada uno con indicadores positivos y negativos que orientan la evaluación sin mecanizarla:


Criterio 1: Promesa de torque (especificidad de la contrastabilidad futura).
La propuesta debe indicar, aunque sea tentativamente, qué tipo de evidencia, procedimiento o desarrollo la pondría en riesgo. No se exige que ya tenga todas las respuestas, sino que señale una dirección en la que buscar confirmación o refutación.

Indicador positivo: El proponente puede esbozar (a) un experimento, observación o desarrollo teórico que, de no darse, debilitaría su posición; (b) una condición bajo la cual consideraría que su propuesta ha sido refutada; (c) una trayectoria de refinamiento posible a medida que se acumulen más datos o mejores métodos.

Indicador negativo: La propuesta reinterpreta toda evidencia posible como confirmación, pospone indefinidamente la contrastación ("eso se sabrá cuando..."), o apela a instancias inaccesibles por principio (conocimiento oculto, conspiraciones, dimensiones no contrastables).


Criterio 2: Apertura de espacio problemático (fertilidad discursiva).
La propuesta no debe limitarse a negar los SPs vigentes, sino que debe hacer posibles preguntas nuevas que antes no podían formularse, conectar dominios antes separados, o revelar fenómenos que el marco anterior no podía ver.

Indicador positivo: (a) Genera nuevas líneas de investigación identificables; permite reformular problemas viejos de manera más productiva. (b) Establece conexiones inesperadas con otros campos. (c) Sus conceptos son importables por otras disciplinas.

Indicador negativo: Solo produce crítica estéril, repite las mismas objeciones sin abrir caminos, conduce a callejones sin salida, o su aplicación a nuevos casos no genera más que repetición del dogma.


Criterio 3: Resistencia a la inmunización ad hoc (honestidad procedimental).
Cuando aparece evidencia en contra o crítica bien formulada, la propuesta debe responder modificándose en aspectos que no blinden su núcleo dogmático, o al menos ofrecer razones específicas para no hacerlo.

Indicador positivo: (a) Las revisiones son específicas, contrastables, y no proliferan arbitrariamente. (b) El núcleo de la propuesta puede evolucionar sin perder identidad. (c) Se reconocen los problemas y se busca activamente resolverlos.

Indicador negativo: Cada objeción genera una nueva hipótesis auxiliar que solo sirve para neutralizar esa objeción sin mejorar el poder explicativo o predictivo.  El núcleo permanece intacto pase lo que pase. Las respuestas a la crítica son sistemáticamente circulares o autorreferenciales.


Criterio 4: Capacidad de integrar SPs previos (conservación de terreno ganado).
Aunque una revolución pueda ignorar o incluso negar puntos de guardado particulares, debe poder explicar por qué funcionaban en su dominio de aplicación. No se trata de conservarlos dogmáticamente, sino de mostrar que el nuevo marco los contiene como casos límite, aproximaciones, o perspectivas parciales.

Indicador positivo: (a) La nueva teoría puede derivar los éxitos de la anterior como aproximaciones bajo ciertas condiciones. (b) Da cuenta de los fenómenos que la anterior explicaba bien, aunque sea reinterpretándolos. (c) No deja agujeros explicativos allí donde la anterior era sólida.

Indicador negativo: La nueva teoría no puede dar cuenta de los fenómenos que la anterior explicaba bien, limitándose a declararlos "irrelevantes", "mal planteados", o "producto de una ideología superada"; ignora sistemáticamente el terreno ganado sin ofrecer una reconstrucción racional de por qué ese terreno era firme.

Estos cuatro criterios no operan de forma aislada ni mecánica. Funcionan como una red de preguntas orientadoras que la comunidad aplica iterativamente, y es en la convergencia de sus respuestas a lo largo del tiempo donde emerge el juicio de demarcación. Aquí cobra pleno sentido epistemológico la célebre observación de Abraham Lincoln que ya citamos al hablar de los rings: <<Puedes engañar a todo el mundo algún tiempo. Puedes engañar a algunos todo el tiempo. Pero no puedes engañar a todo el mundo todo el tiempo.>>


    • "Algún tiempo": Una propuesta pseudocientífica puede simular cumplir los criterios durante un período, generando la apariencia de fertilidad, promesa de torque, etc. Puede incluso generar sus propios SPs internos dentro de una comunidad cerrada.


    • "Algunos todo el tiempo": Puede mantener una comunidad de creyentes aislada que opera con sus propios estándares y puntos de guardado, inmunizada frente a la crítica externa. Es el caso de sectas, escuelas dogmáticas o tradiciones pseudocientíficas estables.


    • "Todo el mundo todo el tiempo": Pero no puede sostener la simulación indefinidamente ante una comunidad amplia y diversa que aplica iterativamente los criterios, porque el coste de la simulación crece: (a) cada nueva objeción requiere una nueva capa ad hoc, (b) cada promesa incumplida erosiona la credibilidad, (c) la falta de integración con otros SPs se vuelve insostenible, y (d) la comunidad más amplia, con su diversidad de perspectivas y métodos, termina por exponer la inconsistencia.


La heurística prospectiva no es, por tanto, una máquina de decidir ex ante. Es un filtro temporalmente extendido que opera a través de la iteración de la crítica y la acumulación de evidencia. Como en el juego del continuo, la determinación final —el veredicto de "pseudociencia" o "ciencia legítima"— es un límite al que convergemos asintóticamente, no un juicio inmediato.

Es importante notar que esta propuesta no incurre en la "deriva metafísica" que Bas van Fraassen atribuye al realismo objetualista. Según su crítica, el problema del realismo consiste en dar absoluta primacía a las demandas de explicación y satisfacerlas mediante explicaciones vía postulación, esto es, explicaciones que postulan la realidad de ciertas entidades o aspectos del mundo que no están empíricamente dados pero la ciencia ha demostrado no tener un criterio verificacionista, ni siquiera empiria mediante, para aseverar con certidumbre la existencia o no (éter, flogisto, etc.) de las entidades que presuponen las teorías. Ahora bien, el alcance de esta crítica se restringe a un realismo sustentado en una ontología objetualista. No aplica, en cambio, a la perspectiva procesual que aquí se desarrolla, la cual identifica el carácter realista de una tradición científica con su capacidad para lograr una monotonía en el salvamento de las apariencias. El realismo de las teorías subsiguientes no se evalúa por la cuantificación de los objetos que postulan, sino por la estabilidad y continuidad de su ajuste empírico. No postulamos entidades aisladas para explicar fenómenos, más bien, constatamos que la dinámica de la investigación —cuando es genuina— exhibe una direccionalidad constreñida que solo es inteligible si hay un campo real que orienta la convergencia. Ese campo no es un objeto postulado, sino el polo regulativo que emerge del propio proceso de salvamento monótono de las apariencias. Nuestros criterios prospectivos explicitan las condiciones bajo las cuales una práctica puede aspirar a participar en esa dinámica convergente.

Finalmente, y en coherencia con el espíritu del marco, estos cuatro criterios deben aplicarse a sí mismos. Son, como hemos dicho, puntos de guardado revisables. La comunidad epistémica no solo juzga propuestas con ellos, sino que también los juzga a ellos: ¿Muestran promesa de torque? ¿Pueden refinarse, operacionalizarse mejor? ¿Abren espacio problemático sobre la propia demarcación? ¿Resisten la inmunización o estamos dispuestos a modificarlos si la práctica muestra que fallan? ¿Integran lo valioso de criterios anteriores (falsabilidad, programas de investigación, paradigmas)? Si pasan su propia prueba, se convierten en un marco confiable para navegar la incertidumbre del presente sin renunciar a la normatividad ni caer en el conservadurismo.



VII. La Filosofía como Práctica Acumulativa: Más Allá del Fundacionalismo Adánico



El Realismo Convergente Regulativo y la Teoría de los Estados Epistémicos Guardados, articulados en las secciones anteriores —y que sitúa la demarcación en la adhesión a una lógica procedimental relacional y al respeto de los puntos de guardado—, no es solo un criterio para evaluar las ciencias empíricas frente a sus imitaciones. Ofrece, también, una herramienta crítica para diagnosticar la salud de la propia filosofía y trazar un camino para su vigor como empresa racional acumulativa.

Una crítica recurrente a la filosofía contemporánea señala su tendencia a la fragmentación y a la repetición estéril. Este diagnóstico puede reformularse con precisión a la luz de nuestra teoría. Gran parte de la práctica filosófica actual opera en un modo 'roguelike' epistémico. Cada nuevo artículo, cada nuevo debate, a menudo parece comenzar desde un estado cercano al grado cero, como si las discusiones de las últimas décadas o siglos no hubieran producido un terreno firme sobre el que construir. Se vuelve a Descartes, a Kant o a Heidegger no para partir de una elucidación consolidada de sus aporías, sino para re-derivar desde cero las mismas preguntas fundamentales, a menudo con el mismo aparato conceptual. 


Lo que a menudo se presenta como humildad crítica —el retorno eterno a los ‘grandes textos’— puede convertirse, en la práctica, en una forma de amnesia institucionalizada que viola sistemáticamente la Norma del Punto de Guardado. Se actúa como si no existieran SPs filosóficos legítimos —como el giro lingüístico y sus críticas, la arquitectura conceptual establecida tras Una teoría de la justicia de Rawls, o las implicaciones no triviales de los teoremas de incompletud de Gödel para la metafísica de la racionalidad.

Frente a esta patología, es posible y necesario defender un modelo de filosofía como red sintrópica de puntos de guardado. En este modelo, el progreso filosófico no se mide por la acumulación de verdades empíricas, sino por la capacidad de generar, refinar y a veces abandonar Estados Epistémicos Guardados que sean transitivosfértiles y transmisibles. Un SP filosófico robusto es una configuración conceptual —un argumento, una distinción, un marco problemático— que ha sido sometida a escrutinio crítico extenso, ha demostrado su utilidad para reconfigurar el espacio de las preguntas posibles, y es presupuesta como equipamiento básico por investigadores que no están comprometidos con su defensa dogmática.

Existen ejemplos paradigmáticos de esta dinámica. En ética política, la publicación de Una teoría de la justicia estableció un punto de guardado monumental. Tras Rawls, un intento serio de discutir la justicia distributiva que no se posicionara frente al dispositivo de la "posición original" y sus variantes constituiría un claro reseteo de Quine: reintroduciría problemas y marcos conceptuales cuya superación crítica es precisamente lo que define el estado actual del debate. En filosofía de la mente, los trabajos de Putnam, Dennett y otros consolidaron un SP que rechaza el cartesianismo ingenuo y el dualismo de sustancia como marcos viables, desplazando el debate hacia problemas de naturalización, funcionalismo y fenomenología. Ignorar este SP no es optar por una alternativa igualmente legítima; es, de nuevo, ejecutar un reseteo que desconoce la estructura relacional actual del espacio discursivo. En lógica y fundamentos de las matemáticas, los teoremas de Gödel funcionan como un SP que reconfiguró permanentemente las discusiones sobre los límites del formalismo, la demostración y la verdad matemática. En cada caso, la comunidad no decretó un dogma, sino que reconoció intersubjetivamente que ciertas configuraciones conceptuales habían demostrado una solidez y una fertilidad tales que ignorarlas equivalía a ejecutar un reseteo injustificado, situándose al margen de la conversación acumulativa. Este modelo se opone directamente al mito de la autonomía radical o fundacionalismo adánico. Este ideal, a menudo disfrazado de profundidad o rigor, sostiene que cada acto filosófico genuino debe reconstruir su mundo ex nihilo, prescindiendo de los presupuestos heredados. Nuestro análisis revela que esta postura no es un ejercicio de libertad intelectual, sino una ineficiencia epistémica patológica. Es un rechazo implícito a la cooperación cognitiva que hace posible cualquier empresa de conocimiento acumulativo. La verdadera originalidad filosófica no reside en fingir que Platón, Kant o Wittgenstein nunca escribieron, sino en la capacidad de reconfigurar de manera productiva los nodos existentes en la red de puntos de guardado, generando desde ellos nuevos problemas, conexiones inesperadas y, eventualmente, nuevos SPs.

La diferencia entre un SP científico y un SP filosófico no radica en su estructura normativa, sino en su objeto. Mientras el primero se ancla en la resistencia del mundo empírico (mediante torque estadístico), el segundo se ancla en la coherencia relacional de conceptos, argumentos y prácticas discursivas. Pero ambos deben superar el mismo filtro: demostrar que su configuración permite avanzar la conversación de manera no entrópica

Por tanto, la conclusión normativa para la filosofía es clara. La filosofía no necesita adoptar el método experimental ni aspirar a la predicción empírica para ser una práctica racional robusta. Lo que necesita, para escapar de la mera erudición histórica o de la retórica especulativa, es internalizar la lógica de los Estados Epistémicos Guardados. Su legitimidad como forma de conocimiento —débil o fuerte— depende de su capacidad para producir configuraciones conceptuales que cumplan los criterios de un SP legítimo: que sean sometidas a crítica, que demuestren fertilidad discursiva, que se transmitan como herramientas necesarias para la siguiente generación, y que sean, a su vez, revisables bajo nuevas razones. En este sentido, la filosofía rigurosa y la ciencia convergente son análogas en su estructura profunda: ambas son juegos serios cuyas reglas exigen que reconozcamos el terreno que, entre todos, hemos logrado ganar, para que desde él podamos vislumbrar, y quizás conquistar, el siguiente.

Una filosofía que internalice esta normatividad no solo se vuelve más rigurosa, sino más útil: capaz de colaborar con otras disciplinas no meramente como proveedora de metáforas, sino como guardiana de los puntos de guardado conceptuales que hacen posible la inteligibilidad colectiva del mundo.



VIII. Economía de la Atención Epistémica y la Función Reguladora de la Filosofía



El Realismo Convergente Regulativo y la Teoría de los Estados Epistémicos Guardados, al describir el conocimiento como un proceso de convergencia hacia límites impredicativos y la comunicación como respeto a puntos de guardado, implican necesariamente una economía de la atención epistémica. La distribución de recursos cognitivos —tiempo, esfuerzo investigador, financiación, espacio editorial— no obedece a un plan centralizado, sino a una forma de economía de la atención epistémica. En esta economía, los ‘bienes’ transados son la relevancia explicativa, la resolución de problemas y la capacidad de estructurar nuevos campos de indagación. Los ‘actores’ son los nodos disciplinares y sus productos (teorías, modelos, puntos de guardado). La ‘moneda’ de cambio es la atención sostenida de la comunidad de investigadores.

En este mercado cognitivo, la centralidad de un nodo no se asigna por decreto ni por tradición. Se gana de manera competitiva, aunque no necesariamente darwiniana, a través de un mecanismo de retroalimentación positiva. Un nodo que produce salidas de alta sintropía —es decir, puntos de guardado robustos, herramientas conceptuales fértiles o métodos que reducen la entropía epistémica en dominios conexos— atrae más atención. Esta atención se traduce en mayor conectividad (más nodos que lo toman como insumo), mayor inversión de recursos en su desarrollo y, en consecuencia, una posición más central y estable dentro de la arquitectura de la red. La ciencia natural es, históricamente, un participante excepcionalmente exitoso en esta economía debido a la eficacia demostrada de su torque convergente para producir bienes epistémicos de alta fiabilidad y aplicabilidad tecnológica, bienes que otros nodos pueden importar con bajo coste de verificación. Su éxito no radica en una superioridad ontológica, sino en la alta relación señal/ruido de sus productos: un SP científico (como ‘I=I’) puede ser importado por médicos, epidemiólogos o legisladores sin necesidad de reproducir todo el torque que lo generó, gracias a su robustez y trazabilidad. No en vano, la filosofía especulativa (al igual que la matemática más abstracta) no fracasa por ser inútil en sí misma, sino porque su utilidad es latente, no inmediata, y depende de condiciones de recepción que no siempre están presentes en el ecosistema cognitivo. Su “retorno” no es en atención rápida, sino en potencial estructural: puede permanecer décadas o siglos en estado de baja conectividad hasta que un nodo disciplinar encuentra en ella una herramienta para resolver un problema que antes era ininteligible. La filosofía especulativa (como la matemática más abstracta) opera en un horizonte de utilidad diferida. Su valor no reside en su aplicabilidad inmediata, sino en su capacidad de permanecer como un reservorio de formas conceptuales robustas, listas para ser importadas cuando la red epistémica enfrente problemas que exijan nuevas categorías de pensamiento. En ese sentido, su economía no es de atención rápida, sino de capital conceptual a largo plazo.

Asimismo, este marco disuelve la antigua y estéril cuestión de si la filosofía debe ‘seguir’ o ‘guiar’ a la ciencia. La pregunta pertinente no es de autoridad, sino de funcionalidad dentro de la economía de la atención. La filosofía no ocupa una posición trascendental fija. Es, en cambio, un nodo de alto nivel de abstracción cuya viabilidad y centralidad dependen de su capacidad para realizar dos funciones sistémicas clave que otros nodos suelen descuidar por su especialización operativa.

Primero, la función reguladora crítica. La filosofía actúa como un mecanismo de control de calidad para los puntos de guardado más abstractos y presupuestos por la red. Examina la coherencia de los marcos inferenciales, la solidez de las presuposiciones ontológicas (como la legaliformidad o la causalidad), y la validez de los criterios de demarcación que la propia red emplea tácitamente. Un nodo filosófico que realiza bien esta función aumenta la sintropía global al identificar y ayudar a corregir inconsistencias latentes que, de otro modo, podrían propagarse como ruido epistémico.

Segundo, la función generativa de abstracciones portables. La filosofía puede producir nuevos puntos de guardado conceptuales —distinciones, categorías, marcos problemáticos— de un grado de generalidad tal que resulten importables por una gran variedad de nodos especializados. La distinción tipo/token, el concepto de superveniencia, la estructura de la ‘posición original’ o el análisis de los contrafácticos son ejemplos de SPs filosóficos que han sido adoptados como insumos productivos por la lingüística, la ciencia cognitiva, la teoría política y el derecho. Estos SPs no compiten con los productos de la ciencia empírica, sino que operan en un nivel de abstracción distinto, habilitando nuevas conexiones y reconfiguraciones dentro de la red.

Por lo tanto, la legitimidad de la filosofía dentro de la economía cognitiva no deriva de un privilegio histórico ni de un método único. Deriva de su éxito demostrado en la producción de bienes epistémicos abstractos que aumentan la conectividad y reducen la entropía de la red en su conjunto. Cuando falla en esta tarea —cuando se contenta con la exégesis erudita, la retórica especulativa desconectada o el fundacionalismo adánico que rechaza los SPs disponibles o como ocurre en debates que insisten en cuestionar el realismo científico sin reconocer los SPs establecidos por la práctica de la física de partículas o la biología molecular, debates que operan en un bucle entrópico sin generar herramientas útiles para otros nodos—, se convierte en un nodo de baja conectividad. Su atención se contrae, su influencia disminuye y su contribución a la sintropía colectiva se aproxima a cero. En esos momentos, la pregunta por su ‘muerte’ o irrelevancia no es metafísica, sino económica: es el diagnóstico de un nodo que ha dejado de producir bienes valiosos para el ecosistema del que depende.

La sintropía que define el valor de un nodo en la red cognitiva no es sinonimo de aplicabilidad tecnológica o de cita inmediata. Es, más fundamentalmente, la capacidad de ese nodo para generar y sostener líneas de indagación rigurosa que se revelan, bajo el torque iterativo de la crítica y la comparación, como convergentes hacia distinciones estructurales cada vez más centrales. Un teorema de la teoría de modelos, una distinción filosófica como la de sentido y referencia, o un marco como la teoría de juegos evolutivos, pueden permanecer durante décadas como nodos aparentemente laterales. Su triunfo no es la utilidad, sino la inevitabilidad relacional: el momento en que múltiples conversaciones en dominios dispersos descubren que no pueden avanzar sin importar ese punto de guardado abstracto. La filosofía, en su mejor expresión, no busca la patente ni la cita directa, sino cultivar esos nodos de abstracción portable cuya futura centralidad, aunque impredecible, está asegurada no por su brillo especulativo, sino por la solidez del procedimiento convergente que los genera y por su creciente capacidad para enredar conversaciones que nadie predijo.

En consecuencia, el desafío para la filosofía contemporánea no es elegir entre autonomía y sumisión. Es reclamar y ejercer con rigor su papel como proveedor especializado de abstracciones reguladoras y generativas dentro de una economía de la atención epistémica crecientemente compleja y competitiva. Solo así puede asegurar su lugar como un nodo central, y no meramente decorativo, en la red sintrópica del conocimiento humano.

En un mundo enfrentado a riesgos existenciales y desafíos cognitivos sin precedentes, la filosofía tiene una oportunidad histórica: no como árbitro de la verdad, sino como arquitecta de la infraestructura cognitiva que permita a la civilización navegar con inteligibilidad colectiva su propio futuro.



IX. Objeciones y Respuestas


La propuesta de un criterio de demarcación basado en la convergencia procedimental y los puntos de guardado invita a interrogantes precisos. Abordamos aquí las objeciones más sustantivas, no para cerrar el debate, sino para mostrar la resiliencia y el poder explicativo del marco propuesto.


Objeción 1: ¿No es el RCR simplemente un bayesianismo elaborado?
Podría argumentarse que el Realismo Convergente Regulativo, con su gradación de creencia φ(λ) y su convergencia doxástica, es una reformulación del bayesianismo, donde φ representa una probabilidad subjetiva actualizada.
Respuesta: Existe una afinidad formal, pero la diferencia es fundamental. El bayesianismo es un marco normativo para la actualización de grados de creencia bajo coherencia interna. Su motor es la probabilidad subjetiva inicial y el teorema de Bayes. El RCR, en cambio, es un marco descriptivo y justificativo de la estructura inferencial de la investigación fáctica. Su núcleo no es la actualización, sino la convergencia regulada hacia un límite impredicativo. Mientras el bayesiano se pregunta "¿cómo debo actualizar mi creencia dada esta evidencia?", el RCR se pregunta "¿qué estructura del proceso de investigación justifica que tratemos una sucesión de ausencias como evidencia de una ausencia real?". El RCR explica por qué la práctica científica invierte recursos en reducir λ incluso cuando ya es pragmáticamente insignificante (el "lema de compromiso implícito"). Un bayesiano puro, con una probabilidad posterior ya muy alta en H₀, no tendría una razón intrínseca para seguir buscando más datos. El RCR sí la ofrece: la presuposición regulativa de un límite real (λ*) hacia el cual converger. Por tanto, el RCR complementa y fundamenta la búsqueda bayesiana, proporcionando una teleología para la iteración que el formalismo probabilista por sí solo no posee.

En resumen: el bayesiano modela cómo creemos, por el otro lado, el RCR explica por qué vale la pena seguir investigando


Objeción 2: La historicidad del "torque" y la relatividad de los puntos de guardado socavan la objetividad.
Si lo que cuenta como torque suficiente (metodología rigurosa) evoluciona históricamente, y si los puntos de guardado son revisables, entonces la demarcación resultante parece depender de consensos contingentes, no de un criterio objetivo.
Respuesta: Esta objeción confunde la invariancia del procedimiento con la fijeza de sus instanciaciones. Lo que es objetivo e invariante en nuestro marco es la lógica relacional del procedimiento convergente, no sus herramientas concretas. La exigencia de que los métodos reduzcan monótonamente la incertidumbre (axioma de encajamiento) es un estándar constante. Que esto se logre con un ensayo doble ciego, con un acelerador de partículas o con un análisis estadístico bayesiano es contingente. La objetividad no reside en la herramienta particular, sino en que la herramienta cumpla efectivamente la función de torque convergente —es decir, que reduzca monótonamente la incertidumbre— según los estándares epistémicos disponibles en su contexto histórico. Análogamente, la revisabilidad de los puntos de guardado no es un defecto, sino la expresión misma de la convergencia en acción. Un SP se abandona solo cuando un procedimiento reconocido como más riguroso (un mayor torque) genera un SP nuevo que lo subsuma. Esta dinámica de superación regulada es la marca de una objetividad en construcción, no de un relativismo.


Objeción 3: La teoría es demasiado permisiva. ¿No legitimaría cualquier "conversación" interna coherente, como las de una secta o una escuela filosófica cerrada?
Respuesta: No, porque nuestro marco exige dos condiciones que las conversaciones cerradas violan por definición. Primero, la convergencia hacia un límite impredicativo presupone un anclaje en un dominio que resiste y constriñe las interpretaciones. Una secta puede tener una narrativa internamente coherente, pero su "torque" no es monótono (no busca activamente y controla la evidencia negativa) y su "límite" no es impredicativo, sino dogmáticamente estipulado. Segundo, y decisivo, la condición de los puntos de guardado ampliamente reconocidos. Un SP legítimo requiere transitividad de la crítica (uso por una segunda generación no involucrada en su creación) y fertilidad discursiva (generación de nuevos problemas más allá del círculo inicial). Una escuela filosófica endogámica que solo cita a sus miembros y no produce herramientas utilizables por otros nodos de la red cognitiva falla en estos criterios. No establece SPs, establece dogmas dialécticos como ocurre en ciertas escuelas de pensamiento que reinterpretan todo nuevo dato como confirmación de su dogma central, en lugar de permitir que ese dato reconfigure su marco.


Objeción 4: El marco parece ignorar el contexto de descubrimiento. ¿No es la creatividad, la ruptura y la anarquía momentánea esenciales para el avance?
Respuesta: Esta objeción señala una distinción crucial que nuestro marco incorpora, no ignora. Distingue nítidamente entre el contexto de descubrimiento y el contexto de consolidación o justificación. Nuestro criterio se aplica, de manera focal, al segundo. El momento creativo, la intuición genial, la transgresión metodológica pueden ser fuentes vitales de nuevas ideas. Sin embargo, para que esa idea se constituya en un hecho cognitivo público (un punto de guardado(SP)), debe someterse al proceso de torque convergente y escrutinio público que describimos. La anarquía del descubrimiento es compatible, e incluso necesaria, con la lógica de convergencia de la consolidación. Nuestro marco no prescribe cómo debe surgir una idea, sino cómo una comunidad racional decide si esa idea merece convertirse en un terreno ganado sobre el que construir.


Objeción 5: La "economía de la atención epistémica" suena a una rendición al sociologismo. ¿No reduce el valor del conocimiento a su popularidad?
Respuesta: Es todo lo contrario. La economía de la atención aquí descrita no es un mercado de popularidad, sino un mercado de soluciones a problemas cognitivos, un mecanismo atencional. La "atención" que se atrae no es la del público lego, sino la de los nodos especializados de la red que tienen el expertise para evaluar la contribución sintrópica. Un teorema profundo de matemáticas puede atraer la atención intensa de una comunidad muy pequeña, pero esa atención es de un valor enorme porque ese nodo (el teorema) reconfigurará las conexiones de toda una rama del conocimiento. La métrica es la capacidad de resolver, reconfigurar o abrir problemas dentro de la red experta, no la visibilidad mediática. Lo que el modelo sociologista descuidaría (la estructura lógica de la convergencia, la normatividad del punto de guardado) es precisamente lo que nuestro marco pone en el centro como el mecanismo generador de esa atención especializada. La atención que cuenta no es la que se mide en citas, sino la que se manifiesta en la adopción funcional: cuando otros nodos usan tu SP como insumo para resolver sus propios problemas.


Objeción 6: El RCR afirma que λ* es un límite impredicativo hacia el que convergemos asintóticamente, pero que nunca alcanzamos en un paso finito. Esto parece condenar al realismo a una forma de escepticismo: nunca sabemos si realmente estamos cerca de λ* o si nuestros intervalos Λ son artefactos de nuestros métodos. El compromiso ontológico con λ* sería, pues, un acto de fe, no una conclusión racional.

Respuesta: Esta objeción solo tiene fuerza si se presupone que el único conocimiento legítimo es el ostensivo o el deductivo. El Monismo Infinitesimal (Meda, 2026) ofrece una alternativa: lo real tiene la estructura de un campo continuo e incompresible (análogo al número Ω de Chaitin), donde el acceso a los límites es necesariamente procedimental y asintótico. En tal ontología, la convergencia misma —esto es, la reducción monótona de la incertidumbre y la capacidad de hacer predicciones cada vez más finas— es la marca de la realidad. No necesitamos tocar λ* para saber que existe, del mismo modo que no necesitamos conocer todos los bits de Ω para saber que Ω está bien definido y que nuestros métodos para aproximarlo son genuinos. El realismo del RCR no es, por tanto, un realismo de la posesión, sino un realismo de la dirección: sabemos que nos movemos en la dirección correcta porque el proceso mismo está constreñido por una resistencia que no hemos construido nosotros. Esa resistencia —la imposibilidad de ajustar Λ arbitrariamente sin generar inconsistencias, la necesidad de refinar los métodos para mantener la coherencia predictiva— es la firma de lo real. La asintoticidad no es una concesión escéptica, sino la descripción precisa de cómo una razón finita puede estar en contacto genuino con un mundo infinitamente denso.



X. Conclusión: Un Punto de Guardado para la Demarcación



Este artículo partió de una situación de bloqueo: el criterio clásico de demarcación —la falsabilidad popperiana— se fractura ante la complejidad de la práctica científica real, mientras que su alternativa anarquista disuelve toda normatividad epistémica, dejando a la comunidad cognitiva sin herramientas para distinguir el avance de la charlatanería. Hemos argumentado que la salida de este impasse requiere una redefinición radical del problema. La demarcación no es el trazado de una frontera fija entre dos territorios conceptuales, sino la evaluación de la direccionalidad dinámica de una práctica cognitiva. Es el diagnóstico de si una práctica participa en un juego serio cuyo objetivo es la constitución progresiva de hechos compartidos.

Nuestra propuesta ha sido articular tres marcos conceptuales que se refuerzan mutuamente para ofrecer este criterio evaluativo. Primero, el Realismo Convergente Regulativo (RCR), que describe la ciencia en su núcleo procedimental como la aplicación de un "torque estadístico" destinado a reducir monótonamente la incertidumbre, convergiendo asintóticamente hacia un límite impredicativo (λ*) que actúa como horizonte regulativo de verdad. Segundo, la Teoría de los Estados Epistémicos Guardados (SES), que proporciona la normatividad comunicativa: las comunidades cognitivas avanzan estableciendo y respetando puntos de guardado (SPs), configuraciones epistémicas provisionales que marcan el terreno ganado. La violación de esta norma —el "reseteo de Quine"— constituye un fraude comunicativo. Tercero, la metáfora de la red sintrópica y la economía de la atención epistémica, que describe el ecosistema del conocimiento como una red de nodos interdependientes, donde el valor de un nodo se mide por su contribución a la sintropía global: su capacidad para generar SPs robustos que aumenten la conectividad y reduzcan la entropía epistémica.

La síntesis de estos marcos produce un criterio de demarcación unificador y potente. Una práctica es científica (en un sentido amplio y robusto) si su dinámica interna manifiesta una direccionalidad convergente hacia un límite impredicativo, respeta los puntos de guardado que cristalizan su progreso, y opera como un nodo sintrópico dentro de la red del conocimiento. Es pseudocientífica si su dinámica es de estancamiento, evasión o inmunización, si viola sistemáticamente la norma del punto de guardado, y funciona como un nodo parásito que consume atención sin producir SPs legítimos.

La fuerza de este criterio reside en su universalidad funcional: opera en dominios diversos porque evalúa no el contenido, sino la dinámica de producción de estabilidad cognitiva. No se limita a las ciencias naturales. Proporciona un único lente conceptual para evaluar la solidez de prácticas cognitivas aparentemente dispares, revelando su común arquitectura racional. 

Consideremos tres casos emblemáticos:


  1. El bosón de Higgs (física de partículas): Torque experimental (LHC) convergencia monótona a un umbral de significación (5σ) SP consensuado ("el bosón existe") nodo que reconfigura la red de la física de partículas, aumentando su sintropía al cerrar una búsqueda y abrir nuevas líneas de investigación.


  1. Los teoremas de incompletud de Gödel (lógica/matemáticas): Torque formal (aritmetización) convergencia lógica a un resultado ineludible SP monumental sobre los límites de la formalización nodo abstracto que reconfigura la filosofía, la informática y la epistemología, aumentando la sintropía al imponer una restricción estructural a múltiples dominios.


  1. Una teoría de la justicia de Rawls (filosofía/ética): Torque conceptual (construcción del velo de ignorancia) convergencia conceptual a un marco normativo (la posición original) SP fundacional de la teoría política contemporánea nodo que provee un insumo abstracto portable a la ciencia política, la economía y el derecho, aumentando la sintropía al estructurar de manera no entrópica un debate entero.


Lo que une a la física del LHC, a los teoremas de Gödel y a la ética de Rawls no es un método empírico común, ni siquiera un objeto de estudio compartido. Es la adhesión a una lógica procedimental relacional convergente y a una normatividad comunicativa basada en puntos de guardado. Los tres son ejemplos de nodos que han logrado aumentar de manera espectacular la sintropía de la red cognitiva, no mediante la utilidad práctica inmediata, sino mediante la producción de herramientas de pensamiento robustas e inevitables para quienes quieran jugar seriamente en sus respectivos dominios.

El criterio resultante responde, por tanto, a una pregunta evaluativa simple pero profunda: "¿Esta práctica se comporta como un nodo que aumenta la sintropía de la red mediante procedimientos convergentes y puntos de guardado, o como un parásito, es decir, uno que extrae atención cognitiva sin contribuir a la capacidad de la red para generar nuevos puntos de guardado  (SP) compartidos?. Esta pregunta permite trazar una frontera móvil, históricamente sensible, pero objetivamente fundamentada en la dinámica misma de la constitución del conocimiento.

En última instancia, este artículo es en sí mismo un punto de guardado propuesto para la filosofía de la ciencia. Como tal, se ofrece a la comunidad para ser sometido a los mismos criterios que aquí hemos delineado: ¿muestra promesa de torque? ¿abre nuevo espacio problemático? ¿resiste la inmunización ad hoc? ¿integra los SPs previos de la tradición (Popper, Kuhn, Lakatos, Feyerabend) en una síntesis productiva? Su validez dependerá de si logra reconfigurar la conversación sobre la demarcación, la normatividad epistémica y el valor del conocimiento puro. Invitamos a la comunidad filosófica y científica a aplicarle torque: a someterlo al escrutinio crítico, a examinar su fertilidad discursiva, y a determinar si ofrece herramientas conceptuales lo suficientemente robustas como para merecer ser presupuesto en futuras indagaciones sobre la naturaleza de la racionalidad humana y sus logros más preciados. Si lo hace, habrá cumplido su función: no la de dictar una frontera, sino la de proporcionar un nuevo y más sólido terreno procedimental desde el cual, juntos, podamos seguir avanzando en la construcción de un mundo inteligible.


Bibliografía

Benacerraf, P. (1962). Tasks, Super-Tasks, and the Modern Eleatics. The Journal of Philosophy, 59(24), 765–784.

Chaitin, G. J. (1987). Algorithmic Information Theory. Cambridge University Press.

Chaitin, G. J. (2005). Meta Math!: The quest for Omega. Vintage.

Einstein, A. (1905). Zur Elektrodynamik bewegter Körper. Annalen der Physik, 17, 891–921.

Evans, G. (1982). The varieties of reference. Clarendon Press.

Feyerabend, P. K. (1975). Against method: Outline of an anarchistic theory of knowledge. New Left Books.

Galilei, G. (1632). Dialogo sopra i due massimi sistemi del mondo. [Diálogo sobre los dos máximos sistemas del mundo].

Gödel, K. (1931). Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I. Monatshefte für Mathematik und Physik, 38(1), 173–198.

Harman, G. (2018). Object-oriented ontology: A new theory of everything. Pelican Books.

Hempel, C. G. (1945). Studies in the Logic of Confirmation. Mind, 54(213), 1–26.

Kripke, S. A. (1975). Outline of a Theory of Truth. The Journal of Philosophy, 72(19), 690–716.

Kuhn, T. S. (1962). The structure of scientific revolutions. University of Chicago Press.

Ladyman, J., & Ross, D. (2007). Every thing must go: Metaphysics naturalized. Oxford University Press.

Lakatos, I. (1978). The methodology of scientific research programmes. Cambridge University Press.

Laudan, L. (1983). The Demise of the Demarcation Problem. En R. S. Cohen & L. Laudan (Eds.), Physics, Philosophy and Psychoanalysis (pp. 111–127). D. Reidel.

Lewis, D. K. (1969). Convention: A philosophical study. Harvard University Press.

Meda, H. (2025, 29 diciembre). Ausencia de evidencia como evidencia de ausencia: Hacia un realismo convergente regulativo en la inferencia científica. Segunda Navegación. https://hector1564.blogspot.com/2025/12/ausencia-de-evidencia-como-evidencia-de.html

Meda, H. (2026, 7 febrero). Monismo Infinitesimal: Identidad como límite procedimental en campos continuos. Segunda Navegación. https://hector1564.blogspot.com/2026/02/monismo-infinitesimal-identidad-como.html

Mendel, G. (1866). Versuche über Pflanzen-Hybriden. Verhandlungen des naturforschenden Vereines in Brünn, 4, 3–47.

Perdomo Reyes, I., & Sánchez Navarro, J. (2006). Hacia un nuevo empirismo: La propuesta filosófica de Bas C. van Fraassen. Universidad de La Laguna.

Popper, K. R. (1959). The logic of scientific discovery. Hutchinson.

Popper, K. R. (1963). Conjectures and refutations: The growth of scientific knowledge. Routledge.

Putnam, H. (1981). Reason, truth and history. Cambridge University Press.

Quine, W. V. O. (1960). Word and object. MIT Press.

Quine, W. V. O. (1969). Ontological relativity and other essays. Columbia University Press.

Quine, W. V. O. (1981). Theories and things. Harvard University Press.

Rawls, J. (1971). A theory of justice. Harvard University Press.

Robinson, A. (1966). Non-standard analysis. North-Holland.

Searle, J. R. (1995). The construction of social reality. Free Press.

Sellars, W. (1963). Science, perception and reality. Routledge & Kegan Paul.

Thomson, J. F. (1954). Tasks and Super-Tasks. Analysis, 15(1), 1–13.

Van Fraassen, B. C. (1980). The scientific image. Clarendon Press.

Whitehead, A. N. (1929). Process and reality: An essay in cosmology. Macmillan.

Wittgenstein, L. (1953). Philosophical investigations (G. E. M. Anscombe, Trad.). Blackwell.

Comentarios