He aquí la segunda entrega del profesor Tomás Moreno en relación a
la intitulada El Poeta Electrónico o la Gélida Poesía. Igual de fascinante que la anterior, nos sitúa
con precisión en las posturas y vertientes en la actualidad relativas al
pensamiento y la conciencia humanas en comparación a los procesos
computacionales de los ingenios informáticos. Lectura más que recomendable que
seguro les ayudará a situarse en un ámbito de conocimiento de plena actualidad.
EL POETA ELECTRÓNICO O LA GÉLIDA POESÍA (Y II)
“La conversión del hombre en la terminal de un ordenador,
que sólo tiene que ver con teclas, con impulsos mecánicos, ataca el centro
mismo de la creatividad, de la
posibilidad. La imagen que expresase esta situación sería la de unos dedos,
escurridizos, uniformes, fríos; sin los dulces vericuetos dactilares, por donde
la piel nos dice que somos quienes somos”
(El ánfora y el ordenador, Emilio Lledó)
Hay, ciertamente, programas de escritura -tales como el PC-Style, como Brutus 1, y seguramente otros muchos que
ignoramos[1]-
que crean fácilmente la impresión de
que la máquina lee y entiende e
incluso sabe cómo escribir, cómo
pintar o cómo componer música con aparente creatividad[2]. Y, en
nuestra opinión, no es realmente así. Todo lo que hace es computar, procesar, interrelacionar datos. Habría por ello ante
todo que distinguir, como hace J. A
Paulos, entre Inteligencia dentro
de un sistema formal (habilidad
computadora y formalizadora, característica de la A.I.) e Inteligencia Integradora en una situación informal (personalidad,
deseos, intereses etc., propia del ser humano), o lo que es lo mismo -y
utilizando la terminología de Roger
Penrose o John Searle- entre computación y consciencia (pensamiento
consciente).
No
podemos entrar aquí y ahora en el peliagudo problema acerca de las relaciones, similitudes y diferencias -morfológicas o
funcionales- existentes entre inteligencia humana (pensamiento consciente) y la
A.I. (computación). Se han escrito al respecto bibliotecas enteras[3].
Muy sintéticamente, habría cuatro posiciones o puntos de vista fundamentales
sobre el tema en cuestión, de las cuales al menos
tres, aunque diferentes, serían científicamente defendibles y una, de carácter
filosófico o espiritualista, con argumentos razonables también dignos de consideración:
La primera, es la posición que afirma que
el funcionamiento del cerebro es
sustancialmente el mismo que el de un
ordenador, y, lo que es más, que toda percepción consciente surge como un
simple epifenómeno de procesos de cómputo suficientemente elaborados, siendo
irrelevante el objeto físico concreto que realiza la computación, ya sea un cerebro, un ordenador electrónico o un sistema
mecánico de ruedas dentadas; todo
pensamiento es computación.
Hasta ahora quizá no
sepamos del todo cómo describir el tipo correcto de tales cálculos, pero si lo
supiéramos seríamos capaces de describir todas las cualidades mentales
pertenecientes a la consciencia. En
palabras más llanas: las máquinas
pueden ser inteligentes porque el cerebro humano es simplemente otra máquina; todo lo perfecta y compleja
que se quiera, pero una máquina[4].
Esta posición es la denominada
inteligencia artificial (A.I. fuerte) o funcionalismo
(computacional). Sus representantes más conspicuos serían Marvin Minsky, profesor del Instituto de Tecnología de Massachusset
(MIT), autor de la famosa The society of
mind (1987), y Hans Moravec[5],
de la Universidad Carnegie-Mellon, experto en robótica[6].
La segunda, es aquella que sostiene que la
consciencia es una característica de
la acción física del cerebro, pero
hace una salvedad y es que, mientras que cualquier acción física puede ser
simulada computacionalmente, la
simulación computacional por sí misma no puede realmente causar o producir consciencia, ni
dar lugar a la aparición de sentimientos
y fenómenos mentales como el dolor, la esperanza, la comprensión o la
intencionalidad.
El cerebro humano tiene, pues, la
extraordinaria propiedad de producir consciencia,
mientras que el ordenador “no
produce absolutamente nada salvo el estado siguiente a la ejecución de su
programa”, no puede ir más allá de su programa. La existencia de la consciencia humana (en contra de su anulación postulada por la A.I. fuerte) es algo, en su opinión, tan
“natural y real como la digestión o la fotosíntesis”. Este es el punto de vista
defendido por el filósofo John Searle
de la Universidad de California en Berkeley[7].
La tercera considera, en sintonía con la
posición anterior, que hay algo en la actividad física del cerebro que provoca conocimiento o consciencia, pero añade que el funcionamiento del cerebro y del
pensamiento inteligente implica elementos o aspectos esenciales de naturaleza no computacional, de modo que no sería posible simular adecuadamente
el funcionamiento consciente del cerebro, utilizando simplemente un ordenador
construido según los principios que se conocen actualmente.
En otros
términos: el pensamiento humano es algo más que pura computación; la actividad
de la inteligencia no es una simple realización de cómputos: la computación no produce consciencia. Existiría, pues, algún
factor o elemento esencial en la actividad física del cerebro imposible de
incorporar a los procesos de un ordenador convencional. La física conocida sería
inadecuada, incompleta o irrelevante para la descripción y explicación del conocimiento humano; tal vez la ciencia
futura (desde determinados desarrollos de la física cuántica: cuantización de la gravedad) podría explicar
la naturaleza no computacional de la mente
o consciencia. Es el punto de vista
de Roger Penrose[8].
4ª) Finalmente, el cuarto punto de vista (calificado de místico y oscurantista por los partidarios de la A.I. fuerte) aduce una concepción del Yo y de la consciencia, según
la cual es un error considerar estas cuestiones en los términos estrictamente fisicalistas característicos de la ciencia positiva: quizá la consciencia o conocimiento no pueda ser explicado en términos físicos,
computacionales o cualesquiera otros términos científico-materialistas. Sería
la postura de un científico neurólogo como John
Eccles y, en cierto modo, de un filósofo de la ciencia como Karl Popper[9].
En lo que a
nuestro objetivo se refiere, respecto al tema que nos ocupa, podríamos reducir
estos cuatro puntos de vista, a estas dos posturas fundamentales:
A) Aquella que defiende que pensar es procesar, calcular, y que la
mente no es más que una máquina de computar, si bien complejísima, y en tal
caso nuestros cerebros no serían más que simples ordenadores.
B) Y aquella otra, en el extremo opuesto, que sostiene la tesis de
que la inteligencia o mente humana es algo más que un simple ordenador y que aunque el cerebro humano es sin duda un sistema físico, su
funcionamiento implica elementos que van más allá de la computación. Por ello, esta posición argumenta y
sostiene que cualidades mentales como la emoción, la estética, la creatividad,
la inspiración, el arte, la poesía son ejemplos de cosas que serían difíciles
de justificar o ver emergiendo de
algún tipo de actividad o descripción computacional[10].
Sin
entrar en mayores desarrollos ni disquisiciones, nosotros nos movemos en la segunda
posición. La inteligencia humana, en
efecto, no es puramente combinatoria,
como la de la máquina de A.I. La máquina tiene inputs, que son los datos, y un manual de órdenes, que es el
programa. Los inputs de la mente, son
sensaciones recibidas por los sentidos y, en su nivel más importante, unidades
enteras de significación llamadas ideas
y su programa es la imaginación o facultad de combinar esas ideas.
Los
datos (inputs) que entran en un ordenador se diferencian de las ideas en
que deben ser precisos, repetibles, totalmente especificables, muchas veces
cuantitativos y siempre objetivos; las ideas,
en cambio, son irrepetibles, pues cada persona las modela a su manera, y son
subjetivas y cualitativas, y con
frecuencia tienen menos que ver con la información
que con los valores, intenciones,
convicciones, sentimientos, gustos, juicios y residuos de experiencias
personales mezclados a lo largo de toda una vida.,
Pensar y procesar son, pues, cosas diferentes, operaciones distintas El acto humano de pensar cubre mucho más
campo que la operación de procesar de la
máquina. Hay, pues, una diferencia cualitativa entre lo que hacen las
máquinas cuando procesan información y lo que hacen las mentes cuando piensan.
La máquina procesa información, con parámetros estrictamente racionales, no
imagina, no duda, no se apasiona. La inteligencia humana cuando piensa no es puramente racional: está íntimamente
ligada a la percepción y a la afección. La mente humana es razón más imaginación, y algo más todavía: valoración, que proviene de la emotividad y tiñe las ideas de
afectividad, de compasión o de odio, y las llena de viscosidades para hacerlas
atractivas o repelentes entre sí por reglas ajenas a la razón. Por eso algunos
filósofos -como Xavier Zubiri, María Zambrano, entre otros
muchos- hablan de inteligencia sentiente o de
pensar con el corazón,
respectivamente, al referirse determinadas operaciones intelectuales de la
mente humana.
Nos
apasionamos con determinadas ideas, lo que a
veces nos ciega y otras nos ilumina (como diría el gran epistemólogo y
filósofo argentino Mario Bunge[11]).
Si oímos decir, por ejemplo, que los
europeos son superiores a los asiáticos, el oyente notará la aparición en
la mente de sus juicios de valor negativos (si no es racista) ante lo escuchado.
Y estas valoraciones son emotivas. En
tales ocasiones se produce un cambio incontrolado en el programa que gobierna
la mente: en vez de relacionar los datos, los estamos valorando, los hemos
teñido, ya no son puros; se han diluido en la sentimentalidad (sensación
valorada).
Todo
ello, como ha sintetizado con claridad y lucidez Luis Racionero, distancia una vez más la mente humana de la mente
del ordenador. “Distancia que casi parece insalvable cuando se considera que el
cerebro, además de una malla electroquímica de sinapsis neuronales, es una
glándula de secreción interna. En ciertos estados aparecen en él serotonina y
melanina, por prácticas llamadas místicas, sin necesidad de ingerir drogas, el
cerebro cambia radicalmente de programa y se pone a funcionar con retículos
neuronales que normalmente no funcionan”[12].
¿Llegará el ordenador a segregar sustancias, a provocarse estados emotivos que
alteren endógenamente sus programas?
Por
otra parte, los ordenadores carecen de intuición (flair, insight) para
imaginar y evaluar ideas nuevas emergidas de los vastos océanos de la
experiencia, de la memoria y del inconsciente personal. Y precisamente por eso,
un programa de ordenador difiere
esencialmente del programa de la mente,
que es, como decíamos, la imaginación.
“La imaginación goza de la libertad de cambiar ideas”, escribe Luis Racionero, “no estando constreñida
más que cuando se aplican reglas de la lógica”. Pero la lógica es sólo una subrutina de la mente, un programa de ordenador en el cerebro. La imaginación llega donde
la razón teme pisar. Pero esta combinatoria de ideas tiene sus leyes de
asociación: la analogía, que es el
modo de pensamiento mágico, y la relación
causa-efecto, que es el modo adoptado por la ciencia. La mente sólo es
asimilable al ordenador cuando piensa según reglas lógicas[13].
Pero
incluso en el caso -suficientemente experimentado a estas alturas del
desarrollo de la robótica y de la A. I.- de diseñar a los autómatas para
simular sistemas de impulsos sentimentales y de emociones y para emitir juicios
de valor, con el fin de remedar más perfectamente el comportamiento humano[14],
su carencia del principal elemento individualizador del ser humano, que da
sentido y valor a toda vida y estética humanas – ya sea la subjetividad o bien la conciencia
de su propia finitud, de su propia
muerte- condenaría sin remedio a sus sistemas emotivos y valorativos a no
salir de su carácter abstracto, genérico e irreal[15].
A
este respecto recuerdo las palabras que el lógico y filósofo español Miguel Sanchez-Mazas, hace ya más de
medio siglo, escribía -en un ensayo titulado Anti-Babel. El universo de la informática. Los
autómatas, la imaginación y la muerte[16]- acerca de la incapacidad de los autómatas de verdadera creatividad poética, ya que
aunque fuesen capaces de lograr alguna forma de belleza o de armonía formal en
sus composiciones combinatorias, se trataría de una forma impersonal,
definitivamente no poética, de producir versificaciones.
Porque la palabra poética sólo será viva -en el sentido que Luis Rosales le daba en la cita de
inicio de la primera parte de este microensayo- por la vivificadora presencia de la muerte, de la autoconciencia de que
somos un yo mortal -un pasado en
retención, un presente fugaz y delusivo y un proyecto esencial pero finito de
futurición- consciente y sabedor de que tiene su acabamiento con la muerte[17].
Y sólo por ella. Adiós, pues, al “robot-poeta”, adiós al “poeta electrónico”,
mientras no simulemos la muerte.
“Sólo
siendo capaces de morir, y de orientar su vida en función de la muerte”,
escribía nuestro filósofo y lógico madrileño, “tendrían los autómatas derecho a
nuestra amistad, a nuestro respeto y a nuestro recuerdo”. Entretanto, nos queda
reservada -exclusivamente a nosotros que nos sabemos mortales- esa minúscula pero decisiva parcela de humanidad en la que tienen sentido hileras de signos, como los que nuestro
poeta más hondo y metafísico, Antonio Machado, dedicó “A Don Francisco Giner de los Ríos”:
“Como se fue el maestro, / la luz de esta mañana /
me dijo: Van tres días / que mi hermano Francisco no trabaja. / ¿Murió? Sólo
sabemos / que se nos fue por una senda clara, / diciéndonos: Hacedme / un duelo
de labores y esperanzas/ […] / lleva quien deja y vive el que ha vivido. /
¡Yunques, sonad, enmudeced campanas!”
Tomás
Moreno
[1] Recordemos que ya en el siglo primero de nuestra era
Herón de Alejandría compuso una obra titulada Automatopoietice y que, muchos siglos después, el tema del robot poeta seguía concitando el interés
incluso de todo un Simposio científico
dedicado a examinar y discutir el famoso programa para crear poemas de “Calliope”,
máquina autómata de Albert Ducrocq, que tuvo lugar en los “Encuentros
Internacionales de Ginebra”, en 1965 (Cfr. Rencontres
Internacionales de Genève, avec le concours de l’UNESCO: “Le Robot, la Bête et l’Homme”, Ginebra,
Jullien, 1966). Véase también el programa
para producir poesía realizado por el poeta Ángel Carmona en los años setenta: Poemas V 2. Poesía compuesta por una
computadora, Barcelona, 1976,
[2] Cfr. Douglas R. Hofstadter, Gödel, Escher, Bach: un eterno cerebro dorado, Tusquets, Barcelona,
1987. En este fascinante ensayo su autor combina la ficción y el pensamiento estilo Lewis Carrol y explora las fugas de Bach, los dibujos de Escher y el famoso teorema
de la incompletud de Kart Gödel.
[3] Por tratarse de un ensayo literario, no científico, se recomienda
esta bibliografía accesible para los no especialistas. Cfr. D. Zenon W.
Pylyshyn (selección y comentarios), Perspectivas
de la revolución de los computadores, Alianza Universidad, Madrid, 1975; J.
Weizembaum, La frontera entre el
ordenador y la mente, Pirámide, Madrid, 1978; Margareth Boden, La inteligencia artificial y el hombre
narural, Tecnos, Madrid, 1984; Tom Logdson, Robots: Una Revolución, Barcelona, 1986; Michael Shallis, El Idolo de Silicio, Biblioteca
Científica Salvat, Barcelona, 1986 .
[4] Es la misma posición filosófica que ya Julien Offroy de La Mettrie en 1747 consagró
con su L’Homme Machine.
[5] Cfr. Hans Moravec, El hombre Mecánico. El futuro de la robótica y la inteligencia humana,
Temas de Hoy, Madrid, 1990
[6] Si, como afirman estos investigadores del
terreno de la inteligencia artificial (AI), toda nuestra actividad mental es
efectivamente el resultado de cálculos, aunque sin duda de una complejidad
extraordinaria, entonces los ordenadores llegarán algún día a encargarse
incluso de aquellas actividades en nuestra sociedad que actualmente requieren
auténtica inteligencia humana. Esto es lo que implica el punto de vista
denominado A.I. fuerte. Un resultado
alarmante de esta visión es que nuestro destino inevitable es que los
ordenadores acaben convirtiéndose en nuestros amos: con su perfeccionamiento
constante y exponencial llegaría un momento en que nos superarían rápidamente.
La propia humanidad se habría visto superada por una de sus creaciones más
evolucionadas: los robots controlados por ordenadores, y deberíamos someternos
a su autoridad.
[7] Cfr. John Searle, Mentes, cerebros y ciencia, Ediciones Cátedra, colección Teorema,
Madrid, 1985 y El redescubrimiento de la
mente, Crítica, 1992. J. Searle rechaza la pretendida “inteligencia del
ordenador” (y al mismo tiempo la de la “máquina de Turing”, símbolo del ordenador
al que se atiborra de “datos” que suministra “respuestas”) con su famoso
argumento de la “cámara china”: imagina que se encuentra encerrado en una
cámara negra y que sólo puede comunicarse con el exterior mediante un teclado
que tiene inscritos caracteres chinos. No sabe chino, pero dispone de las
instrucciones adecuadas, esto es, de una guía que le indica qué sucesión de
ideogramas debe dar como respuesta a tal o cual pregunta, también en chino. Si
las instrucciones se han elaborado correctamente, podrá “responder” a las
preguntas “sin haber comprendido nada de lo que está diciendo”, es decir, sin
ninguna consciencia de ello. La
diferencia entre un cerebro humano y
un ordenador (máquina biológica y máquina artificial
respectivamente) es que el cerebro es una máquina con poder causal y el ordenador carece de ese poder y sólo una máquina con ese poder puede producir actividad mental, consciencia. La relación entre el cerebro y su mente no es, pues,
análoga a la existente entre el ordenador y su programa: mientras que el
ordenador es una máquina que actúa siguiendo mecánicamente un programa, algo
que es únicamente sintáctico-formal, el cerebro computa con unidades
significativas no definidas de un modo puramente sintáctico-formal.
[8] Roger Penrose, La nueva mente del emperador, Grijalbo-Mondadori, Barcelona, 1999 y
Las sombras de la mente, Crítica,
Barcelona, 1996. Para Penrose el teorema de Kurt Gödel implica necesariamente
la naturaleza no computacional de la mente humana. Constituye, ciertamente, el
más avanzado ataque a la lógica moderna ya que proclama que cualquier intento
por construir un sistema lógico completo y consistente será inevitablemente
demolido por proposiciones indecidibles. Para una crítica de esta posición ver
Hilary Putnam, Acerca de un mal uso del
teorema de Gödel en la especulación sobre la mente, Revista de Libros, nº
3, marzo de 1997.
[9] John C. Eccles y Karl Popper, El yo y su cerebro, Editorial Labor, Barcelona,
1985.
[10] Por ello algunos neurólogos, como José
María Rodríguez Delgado, reconocen que aunque el ordenador es infinitamente
superior a la mente humana en velocidad (las señales en nuestro cerebro cerebro
circulan con relativa lentitud ya que tardamos en pensar y decidir unos
segundos mientras que el ordenador lo hace en nanosegundos) y en capacidad de
realizar cálculos matemáticos y analizar y deducir teoremas y otras tareas
formalizadas, no tiene la flexibilidad
ni la capacidad del cerebro humano
para manejar la inmensa cantidad de datos dispersos que alberga o significa la experiencia
personal, ni la capacidad humana de sentir, emocionarse, apreciar los valores
estéticos o, incluso, de saber gozar del sentido del humor.
[11] Mario Bunge, La nueva religión, El País, sábado 24 de marzo de 1984. Cfr.
también su diáfano y lúcido ensayo El
problema mente-cerebro, Tecnos, Madrid, 1985
[12] Luis Racionero, El culto al ‘chip’. La informática se presenta como la religión del siglo
XX, El País,
jueves 21 de abril de 1988. Y
continúa: “O también
en el caso de ponernos delante de una obra de arte, un hecho sensacional o una
maravilla natural, la sensación desencadena estados afectivos y sentimentales
que producen enervaciones físicas incontrolables por la razón, pasa a
sentimiento, y éste, si es intenso, a emoción, disparando esa enervación fisiológica
incontrolable, que se traduce somáticamente en lágrimas, escalofrío, náuseas o
semblantes beatíficos”.
[14] Cfr. G. Rattray Taylor, La era de los androides, en Revista de
Occidente, nº 17, Año II. 2ª epoca, Madrid, Agosto de 1964 y Miguel Cruz
Hernández, Hombre y Robot, Cuadernos
BAC, Madrid, 1985.
[15] Como ha demostrado Antonio R. Damascio, L’Erreur de Descartes. La raison des
émotions (Odile Jacob, 1995): “Ser racional no significa privarse de las
emociones. El cerebro que piensa, calcula y decide es el mismo que ríe, llora y
experimenta placer o desagrado. El corazón tiene razones, que la razón… también conoce”. La emoción es uno
de los componentes esenciales de la racionalidad humana.
[16] Lamentablemente no he logrado encontrar
la referencia original, de la que en su momento tomamos algunas notas, pero
creo que el ensayo se publicó en la revista Índice,
en la década de los sesenta.
[17] Recordemos al respecto lo que escribía R. M. Rilke en El Libro de las Horas, en su poema 7 del Libro de la pobreza y de la muerte (en traducción de Luis Felipe Vivanco para la revista Escorial): “Porque nosotros somos la corteza y la hoja / nada más. La gran muerte que cada uno lleva / dentro de sí, es el fruto / en derredor del cual todo gravita”.
Un interesántiimo trabajo. Ameno, ilustrador, y de gran actualidad. Sin duda alguna, estoy con el segundo grupo. La mente humana es inimitable para máquina alguna, y no imagino un futuro donde se equiparen. El misterio de la conciencia, la capacidad aún inexplorada del cerebro del hombre escapa a la razón misma. Hay un más allá que se leja entre más la ciencia quiere aproximarse. Se me ocurre decir Dios; otros dirán otra cosa...Gracias, amigo, por enriquecernos tanto. Un abrazo.
ResponderEliminar