martes, 21 de abril de 2009

Más allá de Turing (Reloaded)

Roger Penrose clasificó en su libro Las Sombras de la Mente cuatro los diferentes enfoques científicos que se le pueden dar a la consciencia:
A) Cualquier acción física del cerebro es computacional, incluidas las sensaciones.

B) Cualquier acción física del cerebro puede ser simulada computacionalmente; si bien la simulación por sí misma no puede provocar consciencia.

C) Cualquier acción física del cerebro no puede ser simulada computacionalmente pero sí explicada desde un punto de vista físico.

D) Cualquier acción física del cerebro no puede ser simulada, ni explicada desde un punto de vista físico.
Me gustaría analizar cada una de ellas.

El punto de vista D niega cualquier explicación científica de la consciencia. Para refutarla basta con que A, B o C sean verdaderas. Si todas son falsas entonces D será verdadera. Así que no hace falta explorar la verdad o falsedad de D, vendrá sola la respuesta.

El punto de vista A es el de la mayoría de los científicos que creen que la mente humana es una máquina Turing. Es lo que se considera el paradigma de la IA fuerte. De esta neurofilosofía aceptada casi como dogma y de la que tímidamente se empieza a recular han surgido especulaciones que han acabado poblando la ciencia-ficción de experimentos mentales poco creíbles. Especulaciones que han sido llevadas al paroxismo por algunas personas que incluso han hablado de inmortalidad.

No obstante y a pesar de tanto creer que no, incluso, imponer que no; A es falso. Lo es cada vez más, lo es a luz de las teorías cognitivas biológicamente informadas de Maturana y Varela o de Edelman de las que se infiere que la idea de la mente como un sistema computacional es totalmente errónea.

En cualquier caso hay que conceder que no sólo los estudios naturalistas son relevantes en la investigación de la consciencia porque en última instancia la teoría subyacente de esos modelos (neurofisiológicos, biológicos, ...) habrá de ser una teoría física y ahí entrarán las matemáticas y es que lo honesto sería aclarar que ciertamente, lo dicho por Edelman, Maturana, Varela no demuestra de forma concluyente que el fenómeno mental no sea computable sino que no es una computadora.

Dicho más científicamente no se ha demostrado que la mente no sea equivalente a una máquina Turing que es, no lo olvidemos, un metamodelo o metaestructura matemática; sino que se ha intentado demostrar que el cerebro no tiene una arquitectura von Neumann, que es el paradigma arquitectónico de las computadoras actuales (A decir verdad, la arquitectura seguramente de tu PC y del la mayoría es la arquitectura Harvard en donde hay un almacenamiento diferente tanto para instrucciones como para datos).

De este modo pudiera ser que el fenómeno mental fuera computable pero no una computadora así como el fenómeno gravitatorio es computable (el modelo de Einstein lo es, se quiere decir) pero no una computadora.

En consecuencia, todavía nada nos impide afirmar que el fenómeno físico que da lugar a la conciencia no sea, tal vez, simulable computacionalmente. Estaríamos en el enfoque B.

Curiosamente Turing, al poner la piedra angular de la IA e introducir el concepto de test de Turing en su artículo señero (Computing machinery and intelligence), lo que hizo fue borrar tramposamente las líneas de demarcación entre B y A.

En efecto, desde la óptica del test de Turing no se trata de averiguar si el ordenador piensa realmente (punto de vista A) sino que basta con que no se le distinga de una mente humana (punto de vista B).

No obstante, el enfoque B da lugar a una intrigante duda metafísica que se podría formular así: ¿en qué momento una simulación del funcionamiento de algo (pongamos: un ser vivo) cada vez más precisa pasa a ser ese algo (pongamos: un ser vivo)?

Cuando el enfoque A era cierto entonces la consciencia era algo que emergía de un fenómeno físico concreto, a saber, la ejecución de un algoritmo en un sistema computacional pero si B es cierto, la consciencia emergería cuando el modelo matemático subyacente al modelo matemático subyacente al fenómeno físico fuera una máquina de Turing.

A mi juicio este enrevesado nudo se debe a que el fenómeno de la consciencia nos insta a, más bien nos exige primeramente, dilucidar una ontología que determine qué es realmente lo real de lo real y por qué no la nada, para a continuación poder explicar cuál es el fenómeno latente en toda consciencia.

Escojamos una determinada ontología, el platonismo matemático de Tegmark (o de Tipler) y pensemos que si lo real sólo son las estructuras matemáticas, en otras palabras, si el fenómeno mental surge nomás que cuando un metamodelo matemático concreto se materializa -y creo que ese es el único modo de pensar consistente para una visión monista de la realidad-, más concretamente, si, según la respuesta B, la cognición se da siempre y cuando se compute entonces todo fenómeno computable sería además un evento mental.

Estaríamos en un completo pansiquismo pues todo estructura computacional, toda máquina de Turing existente en el universo sería consciente y si nos encontramos con que todo el universo es computable entonces no encontraremos que todas las consciencias son unas estructuras con ramificaciones fractales autosimilares a la estructura madre, a la estructura total del universo por lo que incluso el propio universo tendría cognición.

Siendo difícil negar que un metamodelo matemático concreto no subyace a un fenómeno físico cuyo mecanismo es aún ignorado, es posible, sin embargo, articular críticas que muestren los obstáculos habidos y cómo determinados metamodelos o paradigmas difícilmente lo resolverán.

A este respecto, la mejor que he leído contra el punto de vista B viene de E.O Wilson, articulada en un magnífico libro Consilience, atacándolo magníficamente por dos flancos al mostrarle dos obstáculos: el obstáculo funcional y el obstáculo evolutivo.

Cito (pág.182):
El obstáculo Funcional es la abrumadora complejidad de las entradas de información que penetran en la mente humana y la atraviesan. El pensamiento racional surge de los intercambios continuos entre el cuerpo y el cerebro a través de la descarga de nervios y del flujo de las hormonas que transporta la sangre, influidos a su vez por controles emocionales que regulan el juego mental, la atención y la selección de objetivos. Para conseguir duplicar la mente en una máquina, no habrá suficiente con perfeccionar las ciencias del cerebro y la tecnología de la IA, porque los pioneros de la simulación tendrán que que inventar e instalar una forma completamente nueva de computación: la emoción artificial, o EA.
(...)
El segundo obstáculo a la creación de una mente humanoide, el evolutivo, es la historia genética única de la especie humana. La naturaleza humana genérica (la unidad psíquica de la humanidad) es el producto de millones de años de evolución en ambientes que ahora se han olvidado en su mayoría. Sin la atención detallada del mapa hereditario de la naturaleza humana, la mente simulada podría ser de un poder pasmoso pero se parecería más a la de un visitante extraterrestre, no a la de un ser humano.

E incluso si se conociera el mapa, e incluso si pudiera seguirse, sólo serviría como un inicio. Para ser humano, la mente artifical ha de imitar la de una persona individual, con sus bancos de memoria llenos por la experiencia de toda una vida, visual, auditiva, quimiorreceptora, táctil y quinestésica, toda ella ponderada con matices de emoción.

Y social: ha de existir la exposición intelectual y emocional a incontables contactos humanos. Y con estas memorias, tiene que haber significado, las conexiones expansivas realizadas con todas y cada una de las palabras y de los fragmentos de información sensorial teniendo en cuenta los programas.

Sin todas tareas completadas, el sino de la mente artificial es fallar en el test de Turing. Cualquier jurado humano podría echar por tierra en cuestión de minutos la pretensión de la máquina. O eso, o entregarla a una institución siquiátrica para su tratamiento.
Ahora bien, aunque tuviéramos descartados tanto (A) como (B), quedaría en pie la pregunta de cuál es el modelo físico-matemático real subyacente al fenómeno mental. Si este no es físico entonces estaríamos en (D) pero si este sí lo es, independientemente de que fuéramos capaces de simularlo podríamos entender su mecanismo mediante modelos matemáticos como podemos entender un agujero aunque, gracias a Dios, no simularlo.

Penrose se inclina por (C), por un fenómeno mental como científicamente estudiable, distinguiendo dos posibles soluciones:

1- (Versión Fuerte) Sólo podría ser explicada desde una física más avanzada de la que habla, más bien sueña, en sus libros Las Nueva Mente del Emperador y Las Sombras de la Mente.

2- (Versión Débil) Estaría asociada al desarrollo matemático de una suerte de máquina de Turing analógica.

Yo me inclino por esta segunda hipótesis por las razones argüidas por Wilson sobre la EA.

Para concluir, me veo en la obligación de lamentar que tal vez el enfoque D sea realmente cierto y que existe un problema irresuelto, tal vez irresoluble, en todas las teorías habidas, tal vez, por haber, sobre la consciencia ya que son, en puridad, sobre la cognición no quedando claro qué es realmente el proceso de sentir el mundo, de vivirlo en carne y hueso, teniendo uno la sensación de que dicha resolución sólo se puede dar desde una imposible visión global o sistémica de la realidad, de lo que es la realidad y es que si decía el gran Borges que el problema metafísico por excelencia era el tiempo, yo creo más bien que es la consciencia porque como él mismamente dijo en un cuento, El jardín de los senderos que se bifurcan, qué misterio más gran existe que el hecho de que:
Siglos de siglos y sólo en el presente ocurren los hechos; innumerables hombres en el aire; la tierra y el mar, y todo lo que realmente pasa me pasa a mí.

20 comentarios:

Jesús P. Zamora Bonilla dijo...

El problema de la conciencia es: a una simulación por ordenador de lo que pasa en tu cerebro cuando te das con un martillo en el dedo, ¿le duele?
.
También está la cuestión de qué MATERIA es la que hay que simular: ¿sólo las neuronas del encéfalo?, ¿sólo las de una parte del cerebro?, ¿también las células que no son neuronas?, ¿también las moléculas de la sangre, y las que flotan entre neuronas?, ¿el resto del cuerpo? (p.ej., el sistema digestivo tiene al menos tantas neuronas como el cerebro), ¿el 'ambiente'?

Héctor Meda dijo...

¡Ya quisiera pero no tengo respuestas a esas dudas! :-(

El caso del martillo es especialmente intrigante porque si el fenómeno de la consciencia es computable entonces tendría que llegar un momento de precisión tal en una simulación que el dolor emergiera realmente pero ¿cómo falsar/verificar ese hecho?

Y es que esa dificultad en falsar la idea de la consciencia como simulable computacionalmente me hace pensar en dicha hipótesis como una hipótesis metafísica pero no científica, no científicamente verificable, quiero decir.

En su momento puse un ejemplo creo que esclarecedor:

Supongamos que le decimos a cada habitante de China que simulase el comportamiento de una neurona y los equipásemos con radios para simular conexiones sinápticas, entonces estaríamos ante un isomorfismo funcional del cerebro y según los funcionalistas [los que creen que la consciencia es computacional] tendría que aparecer una conciencia fenoménica.

No apelo a la plausibilidad como argumento [después de la cuántica, ¿quién se atreve?], lo que quiero poner de manifiesto ahora es que no habría forma de saber si aparecería o no una conciencia en ese experimento (pues cada chino, como cada neurona, no podría sentir nada), al ser esa experiencia fenoménica privada no habría forma de comprobar si se da o no.

Dicho de otro modo el funcionalismo de Dennett no es falsable. Él explicitamente dice que un robot que fuera capaz de distinguir vino sería por lo tanto un ser que tendría los qualia del sabor, sin embargo, ese es un punto que no puede ser falsado y eso hace que su hipótesis fisicalista funcional, al no ser falsable, sea seudocientífica
.

No obstante, siempre hay tiempo para descubrir un modo de falsar la hipotesis luego no estoy cerrado a la idea de que el funcionalismo mental ("la consciencia es computación") se convierta algún día en un programa científico empíricamente verificable (o tal vez ya lo sea y no me he enterado XDD)

Ahora bien, el tema de cuánta materia coger para la simulación me parece más trivial en tanto en cuanto la materia es observable, ¿no?

En concreto, como reseñé en un post, la idea de que el fenómeno mental es incluso ambiental en tanto en cuanto no se pueden establecer fronteras materiales claras me parece muy verosímil lo cuál haría aún más difícil el replicar en una máquina la consciencia.

José Luis Ferreira dijo...

No veo lo tramposamente que hace las cosas el test de Turing. Si no tenemos razones para distinguir entre dos cosas, ahí se acaba la cosa. Lo demás son especulaciones sin fundamento. Simular computacionalmente (o como sea) la consciencia no es observacionalmente distinto de la consciencia, por lo tanto decir que estamos en B y no en A es decir algo sin fundamento.

He de confesar que sigo sin entender esta teoría, supongo que tendré que leer directamente a los autores. Cuando citas los textos se me hacen bastante incomprensibles, algo que no me ocurre con los del modelo computacional. Te repito la cuestión que te dejé en la entrada anterior sobre la respuesta física del agua frene a una piedra, que no es información y la respuesta del cerebro frente a unas ondas sonoras, que sí las procesa como tal, porque las consecuencias físicas de esas ondas se producen a muchos niveles en todo el sistema neuronal del cerebro, y que de esto carecía el agua.

Supongamos que, efectivamente, en el cerebro hay una organización distinta y unas respuestas distintas que las que teóricamente hay en las máquinas Turing. Supongamos que podemos simularlas y que hacemos de los ordenadores máquinas algo más complejas gracias a estos descubrimientos. ¿Dejamos de llamarlos ordenadores? ¿Sería esto una ratificación o una refutación de la teoría computacional?

Sobre los argumentos acerca de si una máquina algún día pasará el test de Turing opino que son serios. Yo no sé si se conseguirá algún día o si el nivel de complejidad del cerebro humano es algo insalvable. Pero si se consigue, se habrá conseguido lo impensable (para muchos).

Héctor Meda dijo...

Bueno, al decir "tramposamente" tal vez haya hecho una mala elección de términos.

Lo que quise decir es que desde el test de Turing no se puede hacer la distinción así que no nos vale, no nos es útil para distinguir entre A y B.

Que a efectos conductuales pueda dar lo mismo, no cambia el hecho de a efectos neurocientíficos no da igual.

En cuanto a que no entiendas la teoría, lo veo lógico porque no es sencilla, al menos la de Maturana.

Sí, desde luego, o así lo creo, la de Edelman. Sencilla y demoledora.

Te recomiendo los libros.

Respecto a tu crítica al proceso del agua: decir que era un ejemplo de un sistema que no procesa datos sino que es gatillado por ellos.
y que el sistema neuronal sea multinivel no cambia un ápice el hecho crucial de que el sistema nervioso no sea representacional, que, como cité ayer, la memoria no sea representacional por lo que hablar de procesamiento de la información (no de información a secas) me parece erróneo.

Otro apunte: que te parezca sencilla la teoría computacional da muestras de su simplismo :-P y otro item más, ¡repetido muchas veces!, la teoría de Maturana, Varela, Edelman, las declaraciones de E.O Wilson, incluso, no apuntan a que el ordenador no funcione como una máquina de Turing (¡si lo digo en este post!), eso es filosofía metamatemática que como biólogos no les importa, no lo comentan y no lo discuten; lo único que dicen es que la arquitectura neurobiológica de nuestro cerebro NO tiene nada que ver con la de los PCs y por ende su funcionamiento mecánico; por lo que no da igual el soporte material donde concurra la actividad sináptica, como proponen los funcionalistas fisicalistas fuertes tipo Dennett, sino que este es de la máxima importancia, vital para la plasticidad, vital para el proceso de reentrada, vital para la fijación de nuestros recuerdos, etc.

Respecto a tu último párrafo defendiendo la máquina de Turing, poco puedo discutir ya que he de admitir que tu post sobre el test -en este post enlazado- me acabó convenciendo en parte siempre y cuando se dieran las condiciones en que tú fijabas el test, a saber: sin límite de tiempo.

No era así como yo había entendido siempre el test mas he de conceder que leyendo el original de Turing nada impide deducir lo que tú deduces.

Aunque sigue sin resultarme del todo satisfactorio dado que no es capaz de distinguir entre los enfoques A y B.

Esto es un poco como si viniera un extraterrestre, con su singular neurobiología, y dijera que su civilización ha demostrado que su consciencia es simulable computacionalmente, ¿debemos deducir por ello que la nuestra también lo es?

Héctor Meda dijo...

Se me olvidaba una cosa.

Dices:

Simular computacionalmente (o como sea) la consciencia no es observacionalmente distinto de la consciencia, por lo tanto decir que estamos en B y no en A es decir algo sin fundamento..

Tu puedes simular un huracán en el ordenador, ¿eso esa simulación ES un huracán?

Héctor Meda dijo...

A ver he sido confuso con el tema del Test de Turing y la distinción de A y B. Mea culpa.

Recapitulemos y clarifiquemos ideas (a decir verdad se me ha borrado el anterior comentario así que este saldrá algo sucio):

En el post he intentado diferenciar entre A y B.

Decir A es decir que la consciencia es algo que surge cuando se da una actividad computacional independientemente del material donde esta actividad se de.

Lo que yo he dicho es que todo parece indicar que esta idea es falsa que necesitamos de un material concreto, el material orgánico de nuestro cerebro, para posibilitar los múltiples aspectos materiales (plasticidad, reentrada, fijación de la memoria) que necesitamos en el acto cognoscitivo; aspectos materiales que no son materializables en la arquitectura particular de un ordenador independientemente de que tenga también (o no) actividad computacional.

Lo que dice B es que no siendo el cerebro un ordenador, su modelo neurocientífico sí es simulable computacionalmente.

No obstante aunque dicha simulación se ejecute, su mero ejecutar no provoca la consciencia pues se necesita, insisto, del concurso de una materia como la orgánica para la aparición de la consciencia al igual que un huracán es simulable computacionalmente porque su modelo científico-explicativo lo es pero para su materialización se necesita del concurso físico de materia (toneladas de aire, etc.) para los que un ordenador no basta y por lo tanto este es incapaz de crear pero no de simular un huracán.

Si se entiendo esto, se entiende que cuando tú afirmas que decir que estamos en B y no en A es decir algo sin fundamento. yo rechaze tal postura pues mismamente un huracán me parece un ejemplo de B pero no de A.

Ahora bien, ¿por qué no puede distinguir entre A y B el test de Turing?

Porque pudiera ser que la simulación, que si aceptamos B no es en sí una consciencia, fuera capaz de replicar el comportamiento de un ser cognoscente sin serlo como un huracán simulado puede comportarse como un huracán sin serlo.

De este modo pudiera ser posible que la IA estuviera programada para decir que siente dolor sin sentirlo -porque no es una consciencia- cada vez que le pegan un martillazo y no habría manera de mostrarle/nos que ese comportamiento no denota un sentimiento o sintiencia real.

De hecho el test de Turing no es capaz de descubrir humanos en el sentido de que no es capaz de demostrar que un ser piensa si este se empecina en hacer creer a todos que no. No me parece entonces el test eficaz aunque sea una modo heurístico de comprobar la humanidad de una IA

En ese sentido prefiero el enfoque aténticamente empírico de comparar estructuras neurofisiológicas de forma que si tú, que eres humano -supongo-, dices, en un asombroso acto de estoicidad, que no sientes dolor cada vez que te golpean con un martillo siempre podremos cogerte, abrirte la cabeza -después de anestesiarte, claro- y verificar que tu estructura neurofisiológica es la misma que la de cualquier ser sintiente ergo no nos engañas, sientes dolor independientemente de que tu conducta quiera o pretenda apuntar a otra cosa.

Se ve que este método sí que distingue entre cognición auténtica y cognición falsa cualesquiera que sea el caso que tengamos enfrente a diferencia del de Turing

p.d: Igual mañana amplio el comentario porque había hecho uno mejor que este pero se me borró y ya no sé, ni quiero comprobar si he dicho todo lo que tenía que decir :-(

El Perpetrador dijo...

Tu puedes simular un huracán en el ordenador, ¿eso esa simulación ES un huracán?Es importante diferenciar entre simulación y réplica. En un sentido muy lato, la representación de un huracán en una película es una simulación. Cuando el grado es muy fuerte, sería una réplica, que vendría a significar algo así como el "objeto producido por medios distintos a los previsibles o naturales". Es decir, tan importante es la forma matemática como el soporte material, como tú decías, Héctor. Pero, sin duda, un cerebro hipotéticamente diseñado a la perfección (con todas sus neuronas, hormonas, neurotransmisores y otras gaitas) y con la misma actividad sináptica de un homínido, naturalmente debería sentir y pensar de forma similar al menos a un bebé en fase de sueño, ya que si no cuenta con los estímulos del mundo exterior y de la propiocepción (que sólo acontece a quien posee un cuerpo o simulacro de tal) no puede ir estableciendo relaciones neuronales "normales" y por tanto no "madura".

Por eso, el ejemplo de los chinos no tiene sentido, puesto que una persona no es una neurona y por ende es imposible que realice todas las actividades necesarias (transmitir energía a ciertas velocidades, nivelaciones químicas, etc.), siendo además de escalas muy diferentes, lo que también puede tener consecuencias de propiedades físicas distintas.

Pero no deja de ser gracioso que hayas metido a los chinos en ese asunto, algo que ya hizo Searle con su "símil de la habitación china". ¿Será que los chinos son en realidad robots y nadie se atreve a decirlo claramente?

El Perpetrador dijo...

Vaya, mientras escribía mi comentario te me has adelantado en matizar algunas cosas. Eso me pasa por lento.

Héctor Meda dijo...

Una addenda al comentario de ayer que se me olvidó poner.

Tampoco creo de forma concluyente que si el test de Turing no tenga límite de tiempo no sea capaz de distinguir entre A y B porque al fin y al cabo es muy difícil que un ser nos haga creer en todo momento que siente dolor cuando realmente no lo siente y aunque estuviese programado para decir "¡Ay, que dolor!" pero realmente no lo sintiese cada vez que le pegasen, seguiría siendo posible talz que se acabase descubriendo su fraude.

Lo que está claro que sí es importante distinguir entre A y B.

Respecto al comentario de El Perpetrador:

Si A lo tomamos como "la consciencia es actividad computacional independientemente de la materia donde concurra" entonces mis objeciones, en cuanto a que B es diferente, me parecen vigentes.

Ahora bien, si entendemos A como el enfoque que dice que "la consciencia es creable en un ordenador siempre y cuando se simule de forma precisa todas las características materiales que concurren en el proceso cognoscente" entonces es verdad que la distinción entre A y B es muy fina porque puede ser cierto que una simulación perfecta ES una réplica o reproducción.

Ya he dicho en el post que existe una intrigante duda metafísica que se podría formular así: ¿en qué momento una simulación del funcionamiento de algo (pongamos: un ser vivo) cada vez más precisa pasa a ser ese algo (pongamos: un ser vivo)?.

Bien pensado, me veo obligado a responder que todo depende del apriorismo ontológico o metafísico del que partas.

Y es que este hecho no sólo es válido para la consciencia sino que para cualquier fenómeno físico como un huracán porque si crees que entre una fenómeno físico y una simulación computacional perfectamente precisa hay una misma esencia ontológica, a saber: la estructura matemática que basta para hacer real a cualquier fenómeno físico porque lo matemático, en última instancia, es lo real, lo que exclusivamente determina lo real entonces la distinción entre A y B es artifical porque en un espacio simbólico-matemático como el de un programa se podría crear -idealmente- cualquier cosa incluido otro universo.

No siendo el platonismo matemático real entonces sí que tendría sentido decir "simular no es crear" por lo que A y B son diferentes.

Entendido así rechazar la diferencia entre A y B significa postular el apriorismo metafísico de que todo lo real se reduce a estructuras matemáticas.

No obstante cuando criticaba el test de Turing como (tal vez) incapaz de distinguir entre A y B entonces inventaba un caso en donde la simulación de la consciencia no era perfecta en su totalidad pero sí en su conducta para demostrar así que el test no parece capaz de distinguir entre una simulación (casi) perfecta de y una consciencia a secas.

El ejemplo de los chinos no venía tanto a criticar la posibilidad de simular una consciencia sino la de que esta surge nomás que cuando se da simplemente una actividad computacional, en ese sentido se trata que los chinos computen no imiten fielmente un cerebro y lo que venía a querer demostrar no que fuera imposible sino indemostrable la posibilidad de tal hecho.

Por lo demás, el ejemplo de los chinos con radio (creo) que está sacado de Chalmers pero ¡él sí creía en él! Lo que yo digo, repito, es que esa hipótesis no es falsable

El tema de la habitación china es celebérrimo, sí, a ver si algún día comento algo de él. Supongo que el tema de sacar chinos viene dado porque hablan un idioma raro, enciman son tropencientos mil y no sé si son robots o no pero si preguntas a un pequeño comerciante te dirá que sí.

Jesús P. Zamora Bonilla dijo...

Yo creo que Searle no cree en el argumento de la 'caja china': lo que dice, si no recuerdo mal, es que ese argumento refuta el 'funcionalismo' (como se llamaba en los 50 lo que ahora llamáis 'computacionalismo'), porque el sistema formado por los chinos NO es consciente.

José Luis Ferreira dijo...

Lo que dice Turing con su test es que no es posible distinguir entre A y B. Puedes, si abres la máquina, ver que no hay neuronas y, por tanto, la diferencia será importante para la neurología, pero no para la detección de cosnciencia, que era de lo que se trataba.

La simulación no es como la cosa simulada, hasta que la simula muy bien y pasa el test de Turing.

Cuando digo que no entiendo estas alternativas y que la computacional sí, no lo digo por difíciles unas y simplona la otra (la consciencia infusa por el alma es simplona y no la entiendo, porque no explica nada), sino porque no acabo de ver bien definidos los conceptos que se usan y no veo cómo contradicen el modelo computacional o qué explicaciones ofrecen que el modelo computacional no pueda ofrecer.

Héctor Meda dijo...

Jesús,

Efectivamente Searle no cree en la caja china pero Chalmers sí aunque paradójicamente es el proponente del concepto zombi y otro crítico del funcionalismo, funcionalismo que se llamaba así en los ciencuenta y en el siglo XXI pues en el último libro de Dennett sobre el tema, Dulces Sueños, este heredero de Hume se dice funcionalista cuando a mi esa postura me parece muy poco empírica.

José Luis,

Lo de simplismo era un juego de palabras a modo de pulla sé lo que querías decir ;-)

Casi como anécdota decir que simple y simplismo no es lo mismo. La teoría de la consciencia infusa por el alma es simple pero no simplista, todo lo contrario, mete ahí entidades preternaturales como el alma que hacen difícil la lidia con la teoría.

Mutatis mutandi eso pasa con el funcionalismo dennettiano que mete ahí conceptos simples como representación, instrucciones, etc. que complican realmente, bien mirado, la teoría.

E insistir que ningún científico natural discute el computacionalismo, si se entiende este como la idea de que el metamodelo subyacente a todo modelo científico es la máquina de Turing pues este debate sería abstracto, filosófico y casi escolástico; nada útil, en suma, para la preparación de un programa investigativo.

En ese sentido Penrose nos ha hecho un flaco favor a los antifuncionalistas por haceros creer a los funcionalistas que estamos discutiendo metafísica cuando lo único que decimos es que simple y llanamente el material donde se dé la actividad computacional NO da igual para la aparición de la consciencia. Vamos, que la neurofisiología importa y mucho porque un ordenador no tiene plasticidad en su cableado, reentrada de la información, su memoria es representacional, etc.

Otro tema será descubrir si hay que hacer metafísica a posteriori o no pero eso lo dejamos para otro día :-P

Desde luego adivinar cuál es el modelo metamatemático subyacente a la consciencia o al universo me parece una machada visionaria, me parece también, que no es algo que deba preocupar a un científico.

Aunque ben es cierto que, en el fondo, lo que somos todos es filósofos XDD

Jesús P. Zamora Bonilla dijo...

José Luis:
el test de Turing no es un test de detección De CONSCIENCIA, sino un test puramente 'conductista', para ver si la CONDUCTA VERBAL de un ordenador es igual o no que la de una persona.

José Luis Ferreira dijo...

Hola, Jesús:

Tengo claro que, excepto la propia, toda otra consciencia es no observable. Si alguna vez se me escapa que estamos detectado consciencia, me disculpo, ha de entenderse en el sentido metafórico. Pero este es el sentido cuando hablamos de las que no son la nuestra. Como Turing opino que la cuestión de si las máquinas pueden pensar no está bien definida, no tiene sentido, y esto es así precisamente por la falta de observabilidad. Hablé de esto en mi entrada sobre Turing.

Anónimo dijo...

Héctor:

Dices que la memoria de los ordenadores es representacional, a diferencia de la humana. ¿Pero cómo es una memoria si no es representacional? Se me escapa.

Héctor Meda dijo...

Bueno esta discusión atraviesa varios posts y la idea de que la memoria no era representacional la había citado ya.

No resulta trivial explicarlo, Edelman le dedica un capítulo entero en su libro pero sí que puedo resumirte la idea, tal y como lo hace él mismo en la página 118 de libro:

La memoria es un componente central de los mecanismos del cerebro que conducen a la conciencia. Se suele suponer que la memoria comporta inscipción y almacenaje de información, pero ¿qué es lo que se almacena? ¿Es un mensaje codficado? Y, cuando es "leído" o recuperado, ¿se mantiene intacto?.

Estas preguntas apuntan a la suposición generalizada de lo que se almacena es algún tipo de representación. En este capítulo tomamos la perspectiva opuesta, coherente con un enfoque seleccionista: que la memoria no es representacional.

Vemos a la memoria como la capacidad de un sistema dinámico moldeado por la selección y que representa degeneración [estructuras diferentes dan resultados parecidos] para repetir o suprimir un acto físico o mental.

Ilustramos este novedoso punto de vista sobre la memoria con una comparación geológica; la memoria se parece más al proceso de fundirse y volverse a congelar un glaciar que a una inscripción en una roca.

José Luis Ferreira dijo...

Héctor:

A esto me refiero siempre. No entiendo lo que es la memoria según Edelman. Se parece a un glaciar que se funde y se congela, pero tiene que haber una estructura que se mantenga para que se mantenga la memoria. Sí entiendo que, al parecer, en el cerebro, cuando se accede a la memoria, ésta se modifica. Esto es distinto del proceso de los ordenadores, pero no muy distinto.

Héctor Meda dijo...

Es que ¿qué quieres José Luis? Te estoy hablando de un capítulo entero que para su comprensión se necesita incluso del resto de los capítulos.

Voy a intentar seleccionar más textos pero por lo demás decir que no es muy diferente al ordenador es equivocado porque la cuestión es que en el momento en que el cerebro NO maneja información acabas de tumbar la INFOrmática como apoyo de la neurociencia.

Aquí van más textos que, insisto, lógicamente serán insuficientes [entre corchetes mis comentarios aclaratorios]:

¿Cómo podemos, entonces, concebir una memoria no representacional?

Una analogía será de ayuda. Consideremos el sistema inmune [por su estudio, Edelman tiene un premio noble de mecina]

Un anticuerpo no es una representación de un antígeno extraño y, sin embargo, por medio del sistema de memoria inmunológica, este anticuerpo y otros pueden reconocer al antígeno. Un animal puede estar bien adaptado a un medio, pero no constituye una representación de ese medio. De modo parecido, la memoria no es una representación, sino un reflejo de cómo el cerebro ha cambiado su dinámica de forma tal que se puede repetir su actuación [¡Cuán fácil es entender ahora el concepto de Maturana de que el medio gatilla no que especifica a la estructura ser vivo!].
(...), la memoria es el resultado de una correspondencia selectiva que se produce entre la actividad neuronal distribuida del momento y las diversas señales procedentes del mundo, el cuerpo y el mismo cerebro
(...)
[En suma, la memoria es un sistema seleccional, esto es, la memoria y por extensión el cerebro opera por el mismo princio de selección que opera en la evolución donde las especies en su adaptarse al medio no lo representan -¿no somos lamarkistas, verdad?

Lo que dice Edelman es que el seleccionismo -el operar mediante selección- viene antes que la lógica que no es más que unos principios lógicos que aprenden los cerebros complejos]

¿Cómo son las características del cerebro que producen una memoria dinámica sin el concurso de representaciones codificadas?

Creemos que la respuesta está precisamente en aquellas características que uno esperaría encontrar en un sistema seleccional [recordemos, aquel que opera bajo selección natural]

Estas características conforman un conjunto degenerado [una estructura dísimil a, pero con los mismos o parecidos resultados de] de circuitos neuronales que constituyen un repertorio diverso, (...) , las señales procedentes del mundo o de otras partes del cerebro actúan de modo que se seleccionen ciertos circuitos de entre las enormemente variadas posibilidades combinatorias posibles. La selección se produce al nivel de la sinpasis a través de una alteración de su eficacia o fuerza. Qué sinápsis en concreto resultan alteradas dependerá de la experiencia previa, así como de las actividades combinadas de los sistemas de valores ascendentes (...)
[Así pues los recuerdos serían como especies que surgen a través de las presiones selectivas del medio, no como representación de este. Aún mejor explicado:]
Así pues, lo que proporciona la base para la repetición de un acto mental o una actuación física es el desencadenamiento de cualquier conjunto de circuitos que den como resultado un conjunto de respuestas lo suficientemente parecidas a aquellas que en el pasado hayan tenido valor adaptativo. Desde este punto de vista, los recuerdos se generan dinámicamente a partir de la actividad de ciertos subconjuntos de circuitos seleccionados.
(...)
Por consiguiente, (...) no existe código alguno, sino solamente un conjunto cambiante de circuitos que se corresponden con una respuesta determinada (...) Es la propiedad de degeneración [por si no queda claro qué es, es la propiedad de degeneración lo que explica que, por ejemplo, múltiples animales de morfologías diversas hayan desarrollado un ojo, un ojo que no es estructuralemente idéntico. Esto pasa constantemente en los sistemas seleccionales] de los circuitos neuronales [en vez de las especies] lo que permite que se produzcan cambios en las memorias (...)
(...)
En un sistema seleccional degenerado, la memoria es recategórica, y no estrictamente replicativa. No existe ningún conjunto previo de códigos determinantes que gobiernen las categorías de la memoria, (...) los cambios dinámicos que vinculan un conjunto de circuitos con otro dentro de los enormemente diversos repertorios neuroanatómicos del cerebro le permiten crear un recuerdo.
[Esto explica por qué nuestra memoria es extremadamente robusta y aún cuando partes enormes del cerebro son diseccionadas y aún cuando se han diseccionado partes de cualquier zona del cerebro a lo largo de la historia; la memoria de los pacientes ha seguido en pie.

No voy a seguir citando porque me canso y creo que hablo para una platea renuente a la idea aquí mentada pero merece la pena reseñar la analogía final del glaciar que hace Edelman:]

Imaginemos una montaña con un glaciar en la cumbre sometido a condiciones climatológicas variables que lo llevan alternativamente a fundirse y helarse.

En condiciones de calentamiento, se forman pequeños arroyos que aguas abajo alimentan un riachuelo que desemboca en un lago en el fonde del valle.

Supongamos que este lago representa el reultado neuronal que conduce a una actución repetida [memorizada]; es decir, el aporte de agua al lago desde el glaciar ya ha ocurrido antes con consecuencias similares.

Ahora cambiemos la secuencia de condiciones climáicas y supongamos que se produce un enfriamiento que congela algunos de los arroyos, seguido de un calentamiento que produce de nuevo la fusión del glaciar y la regeneración de los arroyuelos(...)

Aunque la estructura en la cima haya cambiado, el riachuelo que alimenta el río, la salida o respuesta [recuerdo], será igual que durante el periodo (...) anterior. Pero si se produce algún otro cambio en la temperatura (...) podría formarse un nuevo riachuelo que alimentara o creara otro lago asociado al primero. Nuevos cambios pueden hacer que los dos sistemas combinen sus sistemas de arroyos de manera que ahora los dos alimenten simultáneamente los dos lagos.
[A continuación Edelman explica qué significaría realmente los elementos mentados en esta alegoría (que los cambios de patrones sinápticos son el deshielo y congelación, etc pero no lo cito porque creo que es evidente. No obstante, me gusta la conclusió así que esta sí la cito:]
Si nuestra concepción de la memoria es correcta (...), cada acto de la memoria es, hasta cierto punto, un acto de creación, y cada acto de la memoria es, hasta cierto punto, un acto de imaginación.

La memoria biológica es, por tanto, creativa y no estrictamente replicativa.]
.

José Luis Ferreira dijo...

Héctor,

Te agradezco sinceramente el esfuerzo. No voy a abusar más de tu paciencia. En cuanto pueda me leeré directamente a los autores, pero a priori sigo sin ver muy bien de qué va todo esto. Sigo viendo una diferencia de énfasis en un proceso o en otro.

Un anticuerpo se desarrolla, por ejemplo, porque se acopla a la sustancia dañina y la neutraliza. El cuerpo hace y tiene reservas de estos anticuerpos porque una vez se expuso al agente extraños y reaccionó a la manera que dice Edelman y reacciona así porque evolutivamente es lo que pervivió.

Puedo entender esto, pero me da que cuando esto se hace de manera muy compleja, no nos va a quedar más remedio que llamar información a esta impronta en el organismo que le permite producir el anticuerpo.

En cualquier caso, cuando una imagen visual se traduce en impulsos nerviosos, no sé de qué otra forma podemos llamar al proceso que transmisión de información.

A medida que leía tu resumen-versión me parecía estar leyendo el proceso evolutivo por el cual acaban generándose los programas-algoritmos-instrucciones... en el cerebro.

Cuando hablamos de que el cerebro computa, no quiere decir que resuelva problemas matemáticamente como haríamos nosotros con un programa de ordenador. Para calcular una distancia seguro que no resuelve un problema trigonométrico. Dará la solución aproximada (y, seguramente, no en unidades de medida prefijadas, sino en comparación con otra distancias a mano en ese momento) mediante un procesamiento de la información distinto que diga: distancia a la presa demasiado grande comparado con lo que puede correr tras ella o algo así. Cómo se llega a este output con el input de las imágenes visuales (y de cómo de fuerte esté el cuerpo en ese momento) es algo a lo que se habrá llegado de la manera que sea, pero yo no puedo dejar de ver un proceso de información en todo eso.

En resumidas cuentas, cuando esos glaciares que se derriten y congelan llegan a ser capaces de tanta complejidad es porque, con ese proceso físico y aparentemente no representativo, se ha conseguido un procesamiento de la información.

Como te digo, un día de estos me leo en serio las cosas. De momento, si te parece, lo dejamos así.

Héctor Meda dijo...

José Luis,

Es difícilmente refutable tu intento de volver computable la versión edelmaniana de la consciencia y lo es porque incluso a la evolución se le ha visto como un algoritmo evolutivo (con esto de los algoritmos y los científico uno se acuerda del refrán ese de que cuando uno tiene un martillo, todo son clavos) de modo que la propia evolución sería algorítmicamente computable y por extensión cualquier sistema seleccional: selección somática, de anticuerpos, de la memoria.

Por lo que, efectivamente, el comportamiento de cualquiera de estos sistemas puede entenderse como un sistema informacional.

Aceptada esa premisa metamatemática surgen, no obstante, dos interrogantes:

1) ¿Verdaderamente son informacionales tales sistemas? ¿Manejan información la selección natural, la selección somática, la selección de recuerdos tal que un ordenador?

2) Aún manejando información, que es tal vez el tema más peliagudo: ¿tales algoritmos de procesamiento de la información, como el que manejaría el sistema seleccional de la memoria, son implementables en cualquier ordenador o más bien necesitaríamos de un hardware con una arquitectura cualitativamente más compleja que la de un ordenador?

Lo que quiero decir con todo esto es que hay gradaciones entre la versión fuerte computacional de Dennett y la computación cuántica de Penrose.