sábado, 28 de junio de 2008

Crítica a las éticas sobrenaturales

A lo largo de la historia la humanidad ha desarrollado una cantidad enorme de éticas con el objetivo de poder clarificar y clasificar los actos humanos en función de su bondad o maldad.

Siguiendo la clasificación de E.O Wilson todas estas éticas se pueden dividir en dos grandes grupos, a saber:
- Éticas Trascendentalistas
- Éticas Empíricas
Estas éticas tienen su correspondiente correlato en el derecho positivo y el derecho natural.

El problema de las éticas trascendentalistas es que desarrollan un conjunto de preceptos morales de carácter normativo que no están fundamentados en la naturaleza humana sino en algún tipo de principio legitimador o fundador como Dios o la razón.

El ejemplo más característico de este tipo de éticas lo da Kant con una fundamentación de la misma basada en la razón pura. Ahora bien este tipo de razonamientos morales no tienen ningún tipo de ligadura con entidades biológicas concretas sino que se mueven en términos abstractos, incorpóreos. Hay la creencia falsa, detrás de este tipo de pensamiento, de que la mente puede tener un conocimiento infalible de lo auténticamente correcto y termina, por lo tanto, ignorando si es factible desde un punto de vista genético, neurológico o incluso ecológico el llevar a cabo ese tipo de moral. En la misma linea de pensamiento se encuentra, por buscar otro filósofo célebre, Rawls que cree que se puede determinar desde un punto de vista objetivamente racional ajeno a toda emoción que justicia es igual a equidad.

Se ve en conclusión que en el pensamiento de la ética trascendental la ley va desde el debe genérico hasta la es del individuo concreto en su elección personal. Por último, Moore recogería este razonamiento moral y , aceptando como válida esta terminología, invirtió los términos inventando la falacia naturalista para designar como falaz el pasar del objetivo es al debe normativo.

Empero, la falacia naturalista es, valga la redundancia, una falacia. Porque supone colocar el raciocinio moral que determina el debe en una categoría especial, disociada del resto. El es no tiene sentido nunca que se transforme en debe porque la existencia del debe implicaría que existen preceptos sobrenaturales que están por encima de la naturaleza a la espera de ser aprehendidos o insertados. Cuando lo autenticamente real es que los conceptos morales nacen de la propia naturaleza humana y se hacen inviolables en función de los límites puestos por ella pues no podemos trascender nuestra propia naturaleza.

Las éticas naturalistas o empíricas crean los mandatos desde la elección personal del individuo. Esto es posible porque tenemos sentimientos e instintos innatos que hemos desarrollado al resultar adaptativos. Estos sentimientos e instintos nos predisponen biológicamente a tomar determinadas acciones, que a su vez junto con las acciones de los otros individuos de la sociedad acaban imponiéndose de forma que un determinado precepto moral que rige en una sociedad se forma como gota a gota se forma una estalactita.

Para fijar el cumplimiento de estas normas se crea el derecho que penaliza coercitivamente al sujeto que las incumpla apareciendo entonces el debe como un constructo social que pretende incentivar determinadas conductas que históricamente han sido beneficiosas para el conjunto de la sociedad que ha insitucionalizado el derecho. Sin embargo, sólo en la medida de que este derecho se atenga a, es decir, plasme fielmente, la ética empirista se podrá decir que sea natural.

Otro tema a dilucidar será ver de que forma se materializa un derecho natural lo suficientemente elástico y dinámico para ajustarse a las comportamientos morales que demanda la sociedad. Pero eso lo dejo para otro día.

lunes, 23 de junio de 2008

Más allá de Turing

Penrose clasificó en cuatro los diferentes enfoques científicos que se le pueden dar a la consciencia:

A) Cualquier acción física del cerebro es computación, incluidas las sensaciones.
B) Cualquier acción física del cerebro puede ser simulada computacionalmente; si bien la simulación por sí misma no puede provocar consciencia.
C) Cualquier acción física del cerebro no puede ser simulada computacionalmente pero sí explicada desde un punto de vista físico.
D) Cualquier acción física del cerebro no puede ser simulada, ni explicada desde un punto de vista físico.

Me gustaría analizar cada una de ellas.

El punto de vista D niega cualquier explicación científica de la consciencia. Para refutarla basta con que A, B o C sean verdaderas. Si todas son falsas entonces D será verdadera. Así que no hace falta explorar la verdad o falsedad de D, vendrá sola la respuesta.

El punto de vista A es el de la mayoría de los científicos que creen que la mente humana es una máquina Turing. Es lo que se considera el paradigma de la IA fuerte. Curiosamente Turing, al poner la piedra angular de la IA e introducir el concepto de Test de Turing en su Computing machinery and intelligence, lo que hizo fue borrar las línes de demarcación entre B y A.
El test de Turing no trata de averiguar si el ordenador "piensa" realmente (punto de vista A) sino que se conforma con que no se le distinga de una mente humana (punto de vista B). Frente a esta política más humilde tenemos las especulaciones de algunas personas que incluso han hablado de inmortalidad o han poblado la ciencia-ficción con experimentos mentales poco creibles.
Sin embargo, la mejor crítica que he leido de las pretensiones de la IA fuerte viene de E.O Wilson, en Consilience, atacándola magníficamente por dos flancos. Cito:

1) Obstáculo Funcional: (..)El pensamiento racional surge de los intercambios continuos entre el cuerpo y el cerebro a través de la descarga de nervios y del flujo de las hormonas que transporta la sangre, influidos a su vez por controles emocionales que regulan el juego mental, la atención y la selección de objetivos. Para conseguir duplicar la mente en una máquina,(...), los pioneros de la simulación tendrán que que inventar (...) una forma nueva de computación: la emoción artificial, o EA.

2) Obstáculo Evolutivo: (...)La naturaleza humana genérica es el producto de millones de años de evolución(...). Sin la atención detallada del mapa hereditario de la naturaleza humana, la mente simulada (...) se parecería más a la de un visitante extraterrestre, no a la de un ser humano.

Quiero hacer notar que el problema de la EA, que señala Wilson, no se ha abordado simplemente porque se ha creído que la mente humana es básicamente una máquina memética (Dennett). Turing sí lo abordó. Se dió cuenta de que los flujos eléctricos de los nervios humanos eran analógicos (argumento 7 en el articulo citado). Para salvar el escollo, una vez más, apeló a resaltar que la cuestión no es saber si una máquina piensa realmente (A) sino si puede pasar por humana (B).
Ahora bien, aunque tengamos una máquina que es capaz de simular ser humana(B), quedaría en pie la pregunta de cúal es el modelo físico-matemático real subyacente en la mente humana. ¿Es una máquina de Turing (A) o ha de ser modelizable por otro modelo matemático (C)?
Tanto (A) como (C) tarde o temprano podrían ser verificadas con pruebas empíricas. Turing en 1950 dijo que cincuenta años más tarde los ordenadores podrían pasar su test, sin embargo los hechos hasta lo desmienten. ¿Por qué?
Penrose (o Lee Smolin, leáse en esta entrevista) se inclina por (C) distinguiendo dos posibles soluciones:
1-(version fuerte) Sólo podría ser explicada desde una física más avanzada de la que habla en su libro Las Sombras de la Mente
2-(versión débil) Estaría asociada al desarrollo matemático de una máquina de Turing analógica.
Yo me inclino por esta segunda hipótesis por las razones argüidas por Wilson sobre la EA.En apoyo de esta tesis estarían los siguientes hechos:
1) Según se vaya ascendiendo en una escala de animales, ordenada de forma ascendente en orden de complejidad mental,la simulación algorítmica de la mente animal tiene que resultar más desviada. Algo que no está muy lejos de la realidad.
2) Una visión del universo como computacionalmente discreta implica una vision de la realidad como la que tenía Laplace. Sin embargo, hay nuevas teorías que están poniendo en duda esa perspectiva del universo. En la física si encontrásemos que los sistemas complejos pudieran ser capaces de subvertir la flecha del tiempo entonces la conciencia como otro fenómeno complejo más tampoco podría ser Turing-computable.

En cualquier caso lo que parece claro es que no sólo los estudios naturalistas son relevantes en la investigación de la consciencia porque en última instancia la teoría subyacente de esos modelos (neurofisiológicos, biológicos, ...) habrá de ser una teoría física y ahí entran las matemáticas.

domingo, 22 de junio de 2008

Presentación

El libro de almohada es un libro escrito por Shei Shonagon en Japon en el siglo X. Su nombre describe un libro de notas informal que se guardaba seguramente en los cajones de las almohadas de madera. La autora, a través de apuntes esporádicos, realiza una radiografía de su época intercalando reflexiones poéticas menos mundanas.

De ese libro recogo el espíritu de describir o pensar sobre lo que uno ha leído o visto para crear este blog.