O, dirá Penrose, sería inteligible como una actividad cerebral
solo si podemos llegar a comprender a esta de una manera muy distinta a la
forma en la que la entendemos hasta ahora. Voy en esta entrada a recordar y comentar
el argumento que este gran matemático y buen filósofo “platónico” ofrece, sobre
todo en la primera parte de Las sombras
de la mente (Crítica, Barcelona, 2007 –el original es de 1994-), para
rechazar cierta forma típica de reduccionismo que podemos llamar
“funcionalismo”, o “Inteligencia Artificial fuerte”, y que es una versión
moderna del mecanicismo aplicado a lo mental (del homme machine).
Acerca de la naturaleza de la mente (o, más bien, como él
señala, de la consciencia y la inteligencia, en el sentido de “conocimiento” y
capacidad de “comprender”) Penrose rechaza tanto la tesis de la Inteligencia
Artificial fuerte (I. A.), según la cual la consciencia es el
aspecto funcional del cerebro, siendo este una máquina (una entidad enteramente
computacional y computable, o algorítmica) y, por tanto, replicable en
principio mediante un ordenador; como la posición de la Inteligencia
Artificial débil (representada sobre todo por J. Searle),
según la cual, aunque todo lo que hace un ser inteligente podría simularse
mediante una máquina, esa simulación no conllevaría necesariamente la
conciencia, pues una máquina puede ser completamente inconsciente de lo que
“hace” cuando “simula” a un ser inteligente; como el “misticismo” (la postura
filosófica de Gödel), según el cual la mente es intrínsecamente inasequible
para la ciencia porque no es algorítmica.
Contra la posición de Searle, Penrose argumenta
(correctamente, a mi juicio) que es una posición poco o nada contrastable. Al
fin y al cabo, la única mente que podemos observar es la nuestra propia. Y, si
podemos inferir por analogía con nuestra conducta la existencia de mente
asociada a los cuerpos de otras personas, ¿por qué no inferirla para todos los
cuerpos que se comporten indistinguiblemente igual (en lo esencial) que yo?
(Luego veremos que esto no es tan claro y que la postura de Searle no es tan
débil como parece, aunque por razones distintas a las que maneja él).
Contra el “misticismo”, Penrose piensa que es preferible
apostar por que la ciencia pueda llegar a explicar las “sombras de la mente”
aunque para ello haya que “estirar” algo la noción de ciencia, porque fuera de
la ciencia no hay nada prometedor. Diré algo sobre esto, más abajo.
Pero la posición contra la que Penrose está más interesado
en luchar, tanto por ser la más relevante y contrastable, como por ser quizás
la más seductora para un espíritu científico medio, es la teoría reduccionista
mecanicista de la I. A. La
línea general del argumento principal (y en cierto modo único) de Penrose
contra ese mecanicismo moderno, aplicado a la consciencia, es la siguiente:
a) Los teoremas de tipo Gödel-Turing prueban que un sistema formal suficientemente complejo como para contener la serie infinita más simple (la de los números naturales) no es computable, y, por tanto, la matemática no es reducible a un algoritmo.
b) Ahora bien, nosotros somos capaces de entender esas proposiciones que no se pueden reducir a un algoritmo (por ejemplo, entendemos los números naturales y que son una serie infinita);
c) Todas las teorías físicas que conocemos, y cuantas sean cualitativamente similares, son computables (salvo en que incluyen reductos al parecer intrínsecamente aleatorios, lo que no supone, sin embargo, ninguna esperanza para comprender la racionalidad matemática –como no lo suponía para salvar la libertad-)
luego…
¿Luego qué? ¿Qué se deduce de aquí?
Gödel mismo deducía que nuestra inteligencia no puede ser
una entidad natural o física, sino que es esencialmente irreducible al cerebro,
es decir, a una máquina computacional (puesto que Gödel pensaba que la ciencia
natural es y será siempre algorítmica, y no puede ser de otro modo). A esto,
decía, Penrose lo califica de misticismo, y le parece una solución desesperada.
Turing, en cambio, dando por evidente que la mente no puede
existir independientemente del cerebro
(lo que Gödel calificaba como “prejuicio de nuestra época”), pero aceptando,
como Gödel, que la naturaleza y con ella toda ciencia natural es algorítmica,
se veía abocado a sostener que el proceso por el que entendemos proposiciones matemáticas
verdaderas no computables, tiene que ser un proceso él mismo computable (un
proceso en el cerebro) que, por tanto, no es aquel mediante el que creemos que
comprendemos la matemática, sino que es para nosotros inconsciente. Penrose
considera esta opción más implausible si cabe que el misticismo, y hasta
inconsistente. Dedica toda la primera parte del libro a argumentarlo.
Su propia posición es que la mente debe ser asequible a la
ciencia y que, de hecho, está estrechamente relacionada con el cerebro, pero
que este tiene que poder ser descrito mediante una teoría no-computacional, pues
la consciencia no es reducible a algoritmo. Este asunto lo aborda en la parte
constructiva y física del libro, la segunda. Aquí me fijaré en la primera, en
la argumentación contra el carácter algorítmico de la inteligencia.
Recordémosla otra vez, antes de discutir el contraargumento
principal. Penrose da por sentada la corrección de los teoremas tipo
Gödel-Turing (que expone, por cierto, en una versión bastante comprensible).
Esos teoremas demuestran que, así como los números reales (según probó Cantor
mediante el método de diagonalización) tienen una cardinalidad mayor a la de
los naturales (transfinita), así, y por un argumento análogo, resulta que las proposiciones
matemáticas más simples y obvias para cualquier ser inteligente (como que hay
números naturales, y en una cantidad infinita) no se pueden reducir a un
proceso algorítmico o computable. Dado que las teorías científicas actuales,
incluidas las (mal)llamadas teorías del caos, son todas computables (salvo en
aquellos puntos en que son aleatorias), no es posible que la inteligencia sea algorítmica
o computable. Esto debería desmontar las pretensiones de quienes piensan que la
inteligencia puede ser descrita como una máquina (por ejemplo, estudiando el
cerebro más exhaustivamente pero con las herramientas conceptuales –algorítmicas-
que ya conocemos). También parece hacer imposible la pretensión de construir
máquinas inteligentes, es decir, capaces de comprender realmente la matemática,
ya que la manera de construir esas máquinas sería implementar en ellas algún
algoritmo (“de arriba-abajo”) que las capacitase para comprender la matemática
(incluidas las verdades no-computables) como podemos comprenderlas nosotros, y eso
es una contradicción, pues tal algoritmo no existe.
Penrose se entrega durante unas páginas a contestar a
posibles réplicas menores a este argumento, unas más interesantes que otras, y
las soluciona correctamente, a mi parecer. Pero el principal contraargumento
general de los defensores del carácter computacional de inteligencia, y al que Penrose
dedica el mayor espacio de la primera parte del libro, es el siguiente (ya mencionado
como la posición de Turing):
es posible que la forma en que nosotros comprendemos la matemática (incluidas las proposiciones matemáticas no computables) sea, de todos modos, mediante un algoritmo finito del que no somos conscientes, pero que es el algoritmo con el que funciona nuestro cerebro, y que podríamos quizás incluso descubrir empíricamente.
Según Penrose esto es altamente implausible, si no
inconsistente. Suponiendo que fuera posible, tendríamos al menos lo siguiente:
Lo primero, y muy chocante o paradójico, es que resultaría
que los matemáticos no creen lo que creen por lo que ellos creen que lo creen
(por la cadena de axiomas, teoremas, etc., que se representan conscientemente)
sino por un proceso inconsciente (¿freudianoide?). Es decir, literalmente no
sabemos lo que estamos “haciendo” cuando hacemos matemáticas (o pensando en
general). Lo que creemos hacer (al seguir cadenas de razonamientos, o aceptar
axiomas intuitivamente, o, sencillamente, entender que todo número natural
tiene un posterior) sería solo un epifenómeno de la verdadera “razón” (¿o “causa”?)
por la que creemos lo que creemos. Parece
muy paradójico que la más pura e inteligente de las ciencias, se lleve a cabo
mediante un procedimiento del que el matemático no es consciente (y que incluso
es inconsistente con él). Los matemáticos no creen estar operando así, sino de
una manera muy consciente. Resultaría que la propia consciencia es un
epifenómeno (como quieren los filósofos de la sospecha). Pero, ¿podría ser cierto eso?
Ese algoritmo inconsciente “por medio del cual” el cerebro
del matemático “comprendería” los teoremas que el matemático cree verdaderos,
debería, si no quiere entrar en contradicción con el resultado de Gödel, ser un
algoritmo, además, completamente incognoscible para siempre y por principio (si
es que eso tiene sentido), al menos si era un algoritmo correcto, es decir, adecuado (lógico-matemáticamente) para concluir
en la creencia en la que concluye. Porque si fuese un algoritmo cognoscible y correcto,
entonces haría falsa la conclusión de Gödel de que no hay un procedimiento
matemático finito para comprender los números naturales.
¿Podría, aquel algoritmo inconsciente “por el que”
“comprendemos” la matemática, ser acaso un algoritmo incorrecto o inválido? En
ese caso no estaría sujeto a la imposibilidad de Gödel (pues la prueba de Gödel
solo dice que no existe un procedimiento computable correcto para la
matemática) pero estaría sujeto a algo peor: si el procedimiento por el que el
cerebro alcanza las verdades matemáticas no necesita ser correcto, entonces no
puede, lógicamente (epistémicamente), discriminar la verdad del error. “Verdad”
y “error” serían epifenómenos que, al nivel del algoritmo del cerebro
carecerían de sentido. Pero ¿tiene sentido una concepción científica para la
cual, correcto e incorrecto, verdadero y falso, son meros epifenómenos o
ficciones a las que les subyace una “operación” no evaluable como correcta?
De ser posible, pues, el algoritmo “con el que” “alcanzamos”
“verdades” matemáticas, debería ser o intrínsecamente incognoscible o
no-correcto. A lo sumo, la conjetura de que existe un algoritmo válido por el
que llegamos a “comprender” lo que prohíbe Gödel, sería una conjetura
intrínsecamente indemostrable, si es que no es directamente inconsistente. ¿Es
aceptable la conjetura de que existe un algoritmo intrínsecamente
incognoscible, que nos conduce a “comprender” teoremas? Incluso si eso fuese
admisible, la tesis computacional de la inteligencia perdería todo su
atractivo: nunca podríamos encontrar el algoritmo por el que funciona. Y ya no
sería posible nunca fabricar un robot inteligente instalándole el algoritmo de
nuestra inteligencia.
¿Qué explicación proveería, entonces, la ciencia acerca de
la inteligencia? ¿Cómo podría haberse originado esta? No de manera natural (de
acuerdo, por ejemplo, con las teorías biológicas: evolucionismo, etc.) Toda la
teoría evolutiva, como toda teoría biológica, química, o física, es
computacional. Los reductos de aleatoriedad de la mecánica cuántica tampoco son
una salida para explicar algo, salvo mandándolo a la oscuridad. No importa,
tampoco, cuán complejo o cuán “caótico” (es decir, sensible a condiciones
iniciales) nos imaginemos el entorno. Si la mente es explicable
computacionalmente, tiene que serlo desde su origen. El origen de la mente,
como un algoritmo incognoscible por la ciencia, sería algo así como un milagro,
como el origen divino. Toda descripción computacional cognoscible violaría la
conclusión de Gödel. Y si, para escapar a esto, estuviésemos dispuestos a
aceptar algo no algorítmico en el entorno, ¿por qué no aceptarlo en el propio
cerebro?
“Pero, se dirá, ¿es que no podemos, entonces, fabricar
robots que simulen perfectamente nuestra conducta inteligente? Eso parece
inaceptable, viendo que cada vez hay más máquinas que simulan perfectamente y
hasta superan lo que consideramos habilidades propias de la inteligencia”. Aquí
hay un malentendido fundamental (o uno de los aspectos del malentendido
fundamental). Sí, podemos y podremos fabricar robots que simulen con cualquier
grado de precisión las habilidades inteligentes, pero eso es porque nosotros
sabemos ya, ¡y no computacionalmente, según el teorema de Gödel!, qué proposiciones
matemáticas son verdaderas o no y qué operaciones son correctas o no: es decir,
somos nosotros quienes determinamos, de manera intuitiva, propiamente matemática,
que esas proposiciones y operaciones son verdaderas o correctas. El robot no
puede hacerlo: simplemente nos repite o simula, como un loro. Nosotros se las
hemos transferido. Si hubiésemos fabricado un robot que “descubre” y
“demuestra” teoremas matemáticos falsos, el algoritmo con el que lo
fabricaríamos sería del mismo tipo que el algoritmo con el que fabricamos
robots que encuentran la verdad. Sencillamente, ese algoritmo lo que hace es
reproducir lo que nosotros sabemos, independientemente, que es verdadero.
Supongamos que fabricamos, con un algoritmo como el que
podría describir el funcionamiento de nuestro cerebro, un robot capaz de ir
incluso más allá de nosotros y comprender no solo esos teoremas que ya
conocemos, sino otros prácticamente inasequibles para nosotros. Ese robot comprendería
la prueba de Gödel de que no hay un algoritmo para llegar a verdades
matemáticas tan simples como que hay infinitos números naturales. Por tanto,
debería deducir que él no comprende mediante un algoritmo así. Sin embargo, la
forma en que le hemos fabricado es mediante un algoritmo. Si él pudiera llegar
a conocer el algoritmo con el que le hemos construido, haría falsa la prueba de
Gödel, a no ser que ese algoritmo con el que le hemos fabricado no fuese
“correcto”, es decir, que no fuese una justificación lógica de las conclusiones
a las que llega el robots como creencias. Así pues, o bien el robot no
comprende mediante el algoritmo con que le hemos fabricado (es decir, que no
hemos fabricado su inteligencia, pues ni nosotros sabríamos computarla), o bien
no comprende en absoluto.
Penrose se hace cargo de la sospecha que puede quedarnos
acerca de si no estaremos abusando de la autorreferencia en esta argumentación.
Porque el argumento de Penrose se parece al de la paradoja de Richard: “el
número que no se puede definir con menos de veinticuatro sílabas” se puede
definir con las veintitrés sílabas de la frase anterior. Obviamente, se trata
de falta de rigor en la definición. Como dice Penrose, su argumento no implica
más autorreferencia que la que implica el teorema de Gödel, al que se considera
libre de un uso incorrecto de ella.
Creo que la argumentación de Penrose prueba con gran
claridad que la inteligencia no es mecánica, al menos si: a) definimos máquina
mediante los conceptos de computabilidad y similares, b) aceptamos la corrección
del teorema de Gödel y c) aceptamos que existen en matemáticas comprensiones
como la de que los números naturales tienen una cardinalidad infinita. Penrose “solo”
pretende y consigue demostrar que, si se quiere explicar de alguna manera desde
la ciencia natural el fenómeno de la mente y la comprensión de las matemáticas,
entonces la ciencia como la conocemos es radicalmente insuficiente. La glándula
pineal tiene que ser no-mecánica, no-algorítmica… No creo en las glándulas
pineales, por muy cuánticas que sean, pero cada vez me doy más cuenta (o eso
creo) de que reírse de la glándula pineal es no haber entendido bien ni el
problema al que pretende ofrecer una solución ni el carácter de la solución. Aunque
también creo que confiar en que alguna glándula pineal salvará la distancia
entre consciencia y naturaleza es no ser plenamente consciente de la radical
heterogeneidad de ambos “mundos”.
Ninguna ciencia físico-química “explicará” ni reducirá nunca
el carácter sobrenatural de la consciencia. La matemática solo se explica desde la
matemática, y la ética desde la ética. Y me extraña que el propio Penrose no
vea en su propia argumentación la razón: ningún cúmulo de fenómenos podrá
suplir la normatividad. Porque, más allá de lo que Penrose pretenda, su
argumento delata una vez más la falacia propia de todo reduccionismo “hacia
abajo” (naturalista, mecanicista…), de sustituir un ámbito
intencional-normativo que tiene sus criterios intrínsecos e irreducibles de
validez, por una descripción fáctica de lo que ocurre simultáneamente en el
soporte material de la consciencia que comprende.
Penrose se extraña, con toda
la razón, de que se pueda llamar comprensión y conocimiento a algo semejante a
lo que “hace” (más bien, le pasa) al algoritmo con que pondríamos,
conjeturalmente, describir el funcionamiento del cerebro. Aquí se está jugando
con términos como “creer”, “comprender”, “demostrar”, “concluir”… Se está
sustituyendo su verdadera naturaleza epistémica (que es el único ámbito donde
tienen sentido porque es un ámbito de normatividad o validez, que permite
discriminar entre correcto e incorrecto), por el correlato fáctico de lo que
ocurre en la naturaleza. No es verdad que estemos “comprendiendo” “verdades”
“mediante” el algoritmo con el que se describe el cerebro. El cerebro no
comprende, ni intuye, ni deduce, ni prueba nada. Todo eso lo hace la
consciencia, y esos conceptos sólo tienen sentido en ella. En lo fáctico no hay
más que una materialización o correlato material de la conciencia, y esto solo
somos capaces de apreciarlo porque conocemos autónomamente lo normativo.
Penrose dice que podemos y seguramente debemos estirar un
poco la ciencia, para que quepa en ella el problema de la mente. Pero si
queremos seguir entendiendo por ciencia algo que, de alguna manera tiene que
poderse contrastar empíricamente, entonces toda tesis científica tiene que ser
de alguna manera conmensurable con entidades espacio-temporales. Ahora bien,
ningún hecho espacio-temporal ni cúmulo de ellos puede soportar algo tan simple
como el infinito de los números naturales. Por tanto, la consciencia es intrínsecamente
inasequible a la ciencia, si entendemos por esta algo contrastable empírico-naturalmente.
Preguntémonos: ¿es contrastable empíricamente lo que dicen tanto
la teoría de la Inteligencia
Artificial fuerte como Penrose? No lo es, en ninguna de las
dos teorías. Ni la teoría de que se puede fabricar inteligencia artificial ni
la que dice lo contrario, son contrastables, sencillamente porque la consciencia
no es empíricamente contrastable. La fabricación de una máquina que imitase
perfectamente todos nuestros actos no probaría lo más mínimo que entiende, sino
simplemente, como decía, que copia aquellos actos que nosotros sabemos
independientemente que son correctos y le hemos trasmitido. Paralelamente,
aunque el día de mañana se desarrollase una teoría física no-computacional,
como sueña Penrose, esto no resolvería el problema de la consciencia en ningún
sentido. Simplemente haría más inteligiblemente compatible la consciencia con
el cerebro, pues ambos podrían ser considerados ámbitos no-algorítmicos, pero
las microentidades físicas que aquella ciencia física futura postulase, no podrían
explicar ni soportar el “hecho” de la normatividad.
Se ha dicho siempre que en lo natural no hay valores. Eso es
cierto: no están allí más que en forma de copia ya no axiológica. Pero
“correcto” e “incorrecto” en su sentido y uso teórico son también valores, son
axiología, la axiología del conocimiento: tienen un papel normativo y
trascendental (si no trascendente) y no pueden encontrarse en lo fáctico, al
que sin embargo hacen posible e inteligible. Otra manera de expresar esto es
diciendo, con Platón (y con Gödel), que si comprendemos lo infinito (pero
“comprender lo infinito” es un pleonasmo), si comprendemos lo infinito,
entonces no somos naturales.