sábado, 1 de enero de 2011

      John Searle y la Inteligencia Artificial (IA)
   Por: Carlos Blank






Antecedentes y marco histórico
                                                        Una computadora no es más que un lápiz dignificado 
                                                                                                                          Karl Popper
                                    
                                                  Mi lápiz es más inteligente que yo
                                                                                                                     Albert Einstein

           El problema que vamos a analizar a continuación emerge en el panorama contemporáneo, aunque hunde sus raíces en el origen de la cultura humana y constituye un capítulo más de la fascinante aventura de auto-conocimiento y de auto-descubrimiento del hombre. Comprender la materia, la emergencia de la vida a partir de ella, así como el surgimiento de la conciencia a partir de la auto-organización cada vez más compleja de la materia orgánica, son diversas facetas del mismo problema, en la medida en que todo ello forma parte de un mismo proceso de evolución creativa del universo físico, proceso que apenas ahora comenzamos a comprender bastante mejor. Materia, vida y conciencia son tres conceptos claves en nuestro proceso de comprensión del universo y de nuestro lugar en él. La imagen del universo que nos reportan los resultados más recientes de la ciencia se acomoda de manera bastante aproximada a la descripción que hace Popper en el siguiente texto:

Parecen decirnos –estos resultados– que vivimos en un vasto universo que consta casi completamente de espacio vacío de materia y lleno de radiación. Sólo contiene un poco de materia, la mayor parte de la cual se encuentra en estado de agitación violenta, así como una cantidad despreciable de materia viva y una cantidad aun menor de materia viva dotada de conciencia. (Popper & Eccles 1980: 167).

      Podemos explicar la realidad, y a nosotros mismos como parte de ella, gracias a la creación de redes conceptuales y modelos teóricos, con los que somos capaces de seleccionar del conjunto infinito de datos y variables que ella nos suministra, aquellos que consideramos más relevantes y que deben guardar entre sí alguna relación básica o invariante. En particular, el problema del cual nos vamos a ocupar puede ser planteado en los términos siguientes: ¿constituye la computadora un modelo preciso y completamente adecuado para la compresión del cerebro humano o de la inteligencia humana? ¿Son homologables o isomorfos el cerebro humano y la computadora en todas sus partes y funciones? ¿Es el cerebro humano simplemente una máquina compleja, una supercomputadora? ¿Y serán las supercomputadoras, en principio, capaces de realizar todas las funciones del cerebro humano de manera más eficiente? ¿Podemos decir con propiedad de esas máquinas que son inteligentes y que poseen vida mental o estados mentales? Aunque las diversas formulaciones de este problema sean de reciente data, como lo son las mismas computadoras, ellas guardan estrecha relación con el viejo “problema” filosófico de la mente y el cuerpo (the mind-body problem), al cual se han dado las más variadas respuestas o “soluciones”.
      Podemos clasificar estas respuestas en dos grupos básicos: el bando de los monistas y el de los dualistas, cada uno de los cuales es susceptible de ser dividido en diversas subclases o subtipos. Posiciones monistas son, por ejemplo: el fisicalismo, el fenomenismo, el panpsiquismo o mentalismo a la Berkeley (“todo es mente”) o el materialismo a la Hobbes (“todo es materia” o “todo es cuerpo”), la teoría de la identidad psiconueronal, el behaviorismo (“todo es conducta observable” o modelo E-R), o el “monismo anómalo” de Davidson (que combina el monismo ontológico con el dualismo epistemológico, así como otros lo combinan con un suerte de dualismo lingüístico). Podemos también incluir dentro de la corriente monista a los defensores de la inteligencia artificial o, más brevemente, IA, aunque al desarrollar en extenso la crítica de Searle a los defensores de esta posición veremos como su posición desemboca en la suerte de dualismo de “fantasma en la máquina” que pretende evitar.
      En la corriente dualista existen también diversas variantes o modalidades: el interaccionismo a la Descartes o el interaccionismo emergentista de Popper (o pluralismo emergentista), el ocasionalismo, el paralelismo psicofísico, la teoría de la armonía preestablecida (o la concepción leibniziana de “la mónada sin ventanas”, aunque su posición sea un monismo panpsiquista) y un largo etcétera. Desde luego, toda esta clasificación carece de ánimo exhaustivo y solo pretende servir como marco de referencia para ubicar y comprender mejor el problema del cual nos vamos a ocupar más adelante. Por esta misma razón, no nos podemos ocupar en detalle de cada una de ellas.
      Hecha esta aclaratoria, consideramos conveniente realizar ciertas precisiones históricas en torno al surgimiento del problema mente-cuerpo y, más específicamente, sobre el dualismo. Esta brevísima excursión histórica la haremos siguiendo la guía de Karl Popper. Para él se comete un error de perspectiva histórica cuando se ubica el origen del dualismo exclusivamente en el pensamiento cartesiano, pues “el yo consciente no es un artefacto de la ideología cartesiana, sino que constituye una experiencia universal de la humanidad.”(Popper & Eccles 1980: 175) En cambio,  podemos considerar el pasaje de La Odisea en que Circe convierte a los compañeros de Ulises en cerdos como una clara evidencia del reconocimiento bastante antiguo en la cultura occidental de la preeminencia de lo mental, pues allí “se afirma explícitamente que la transformación mágica del cuerpo deja intacta la autoidentidad de la mente, de la conciencia”. (Popper & Eccles 1980: 174)
       Esto es, toda cultura tiene su propia visión y experiencia de lo mental como algo diferente, en cierto modo, de lo físico. Desde el mismo momento en que somos capaces de percibir una realidad objetiva externa, introducimos una cierta dualidad en el mundo, reproducimos o representamos el mundo. Lo mental introduce o supone de algún modo una reduplicación de la realidad física. Y lo mental constituye también una realidad con derecho propio a existir. Incluso aquellos pensadores antiguos que identificaban la mente con algún principio físico: aire (Anaxímenes), fuego (Heráclito), sangre (Empédocles), átomos (Demócrito), incluso ellos la consideraban como una forma más sutil de materia, como una realidad distinta de alguna manera. Por lo demás existían ya entonces hipótesis acerca del asiento de la mente humana, algunas de las cuales lucen hoy evidentes, aunque otras bastante descarriadas. Por ejemplo, algunos, como Aristóteles y los estoicos, suscribían la antigua tesis de que el corazón era el órgano en el cual se asienta el pensamiento. Sin embargo, ya Alcmeón de Crotona e Hipócrates consideraban al cerebro como la sede del pensamiento.
      Es obvio que para los pensadores materialistas antiguos, aunque concedían cierta peculiaridad a lo mental, no se les planteaba el problema del interaccionismo. Este problema surge solamente cuando el pensamiento se torna algo inmaterial o incorpóreo, tal vez inmortal. Solamente entonces surge la necesidad de explicar la conducta humana en términos diferentes a los que utilizamos para explicar los fenómenos físicos. A este respecto es muy revelador el pasaje de Fedón en el cual Sócrates describe la desazón que le produjo la lectura de Anaxágoras, ya que si bien reconocía a todas las cosas gobernadas por la razón o nous, no aparecía en él la necesidad de comprender la conducta humana en otros términos que los puramente físicos, lo cual le resulta algo totalmente anómalo y extraño. Posteriormente, pensadores como Platón y Aristóteles tendrán que enfrentarse a este problema de la relación entre lo físico y lo mental. En consecuencia, podemos señalar que si el dualismo y los problemas que éste plantea se consideran con mucha frecuencia propios de Descartes, no es porque él fuese el primero o el único en plantearlos, sino porque con él se radicaliza mucho más el problema. Lo que aquí se establece simplemente es que ni la conciencia ni el dualismo son algo específicamente cartesianos, sino que están fuertemente arraigados en nuestras formas de pensar y de hablar.
      Lo anterior no constituye, desde luego, un argumento a favor del dualismo, como veremos a continuación cuando desarrollemos la posición asumida por Searle en torno a este viejo problema o pseudoproblema, y, más adelante, cuando analicemos su crítica a la IA.


John Searle


Searle y el problema mente-cerebro

      Al comenzar a discutir el problema de la relación entre la mente y el cerebro, lo primero que según Searle debemos plantearnos es por qué hay aquí un problema. Esto es, si admitimos, como él lo hace, que “todo fenómeno mental es causado por el cerebro”, por qué razón debe haber aquí un problema, por qué nos resulta que hay algo de misterioso en esta relación, cosa que no nos sucede cuando hablamos de la relación entre la vesícula y la bilis o entre el páncreas y la insulina. ¿Qué es lo que hace a la mente algo tan especial y enigmático?  ¿Por qué la función de ese órgano que es el cerebro plantea un problema específico con aquello que es capaz de producir?, problema que no se plantea con ningún otro órgano biológico del organismo humano. O para decirlo con sus propias palabras: “¿Por qué después de todos estos siglos tenemos todavía  en filosofía y en psicología un ‘problema mente-cuerpo’, mientras que no tenemos, digamos, un problema ‘digestión-estómago’? ¿Por qué la mente parece más misteriosa que otros fenómenos biológicos?” (Searle 1984:14). 
      Para el autor de Actos de habla, la solución es relativamente sencilla y comienza por trascender el marco tradicional de monismo vs. dualismo en que se ha venido planteando el problema. Debemos evitar caer en los moldes conceptuales y lingüísticos tradicionales que nos imponen la elección entre el dualismo y el monismo como si se tratase de una disyuntiva inevitable.
      Existen cuatro rasgos distintivos de lo mental que, según él, han hecho que la relación mente-cuerpo sea aparentemente tan difícil de resolver: la conciencia, la intencionalidad, la subjetividad y la causalidad mental. Todo acto mental debe contener alguno de estos aspectos, si no todos.
      Primeramente, Searle no deja ninguna duda en torno a la posición por él asumida: para él, sin excepción, “toda vida mental es causada por procesos que ocurren en el cerebro”. Para apoyar su tesis Searle menciona el ejemplo de la anestesia, la cual evita que ocurran los eventos mentales de dolor que habrían de corresponder a una intervención quirúrgica. Contrariamente al caso anterior, puede producirse un fenómeno mental con tal de que haya la estimulación del cerebro apropiada –v.g. por medio de un electrodo, de alguna droga que altere la química cerebral o por medio del sueño–, aunque no exista el estímulo externo en este caso. En otras palabras, el cerebro causa la mente y la mente es un efecto del cerebro.
      Según el destacado filósofo del lenguaje, el dualismo es una consecuencia del poco elaborado o sofisticado modelo de causalidad con el cual se pretende explicar la relación entre lo mental y lo físico. Para evitar el dualismo debemos simplemente distinguir dos niveles jerárquicos: el nivel microfísico, que corresponde a la estructura neuroeléctrica y neuroquímica del cerebro, y el nivel macrofísico, que corresponde propiamente a los fenómenos mentales, sin que entre ambos niveles deba intervenir ninguna entidad misteriosa. Lo mismo ocurre con otras propiedades físicas de la naturaleza. Muchas propiedades surgen como el resultado de la interacción de las diversas partículas que componen un sistema físico. Si el calor, la solidez y la trasparencia son propiedades fenoménicas o macrofísicas que resultan del comportamiento de partículas a nivel microfísico, es evidente que sería completamente inapropiado decir de una partícula considerada aisladamente, que tiene una temperatura de 10º C, que es sólida o que es transparente. Del mismo modo, tampoco podemos decir de una neurona que tiene sed o que siente dolor, aunque ello sí es apropiado de todo el complejo sistema físico que conforma el cerebro humano (el cual incluye el sistema nervioso central).
      Por lo general, una propiedad o un fenómeno reviste un carácter mágico, misterioso o enigmático, cuando no comprendemos bien los mecanismos causales subyacentes a tal propiedad o fenómeno. Pero a medida que la ciencia avanza en la explicación de tales fenómenos, éstos van perdiendo el halo de misterio que anteriormente los rodeaba. Un ejemplo de ello es el de la biología en relación con los fenómenos biológicos que explica. A medida que la biología ha ido comprendiendo cada vez mejor los procesos o los mecanismos que conforman la vida, ella ha ido perdiendo su carácter enigmático y, como señala Searle, se ha hecho completamente superflua e innecesaria la postulación de algún élan vital metafísico para comprenderla. De igual manera, la conciencia, la intencionalidad y, en particular la subjetividad, deben ser entendidas como un hecho objetivo de la biología, aunque no sean reducibles a ella.
      Entender el cerebro como un sistema biológico es, para nuestro autor, la clave para la solución del viejo misterio de la mente, la única forma como podemos conjurar la idea del pensamiento como una presencia espectral en la máquina biológica del cerebro humano, así como ello constituirá un punto fundamental para comprender su posición en contra de la IA.  Él mismo nos resume su punto de vista sobre este tema diciendo que  “la mente y el cuerpo interactúan, pero no son dos cosas diferentes, ya que los fenómenos mentales son rasgos distintivos del cerebro” (Searle 1984: 26).
      ¿Cómo podemos caracterizar su posición? ¿De monista? Pero ¿qué tipo de monismo: fisicalista o mentalista? Aparte de que tal denominación no sería justa con su intención inicial de trascender el marco tradicional del problema, la consecuencia más interesante de su posición es que hace justicia tanto a uno como al otro y es compatible con la afirmación de que ambos son verdaderos, todo va a depender del nivel de explicación en el cual nos situemos. En otras palabras, que la mente sea un fenómeno biológico es compatible con el fisicalismo así como con el mentalismo.
       Se suele clasificar a Searle dentro de la corriente del materialismo no-eliminativo, en contraste con su archirrival Daniel Dennett, el cual estaría dentro de la corriente del materialismo eliminativo. Para el materialismo emergentista o no eliminativo la conciencia puede ser explicada desde una perspectiva biológica, con lo que, sin embargo, no desaparece la conciencia como realidad propia. En cambio, para el materialismo reduccionista o eliminativo la conciencia desaparece, como si se tratase de una ilusión,  una vez que seamos capaces de explicar su funcionamiento. Todo ello nos conduce a nuestro tema central: la crítica llevada a cabo por Searle en contra de la IA y, especialmente, en contra de la “IA-fuerte”, término acuñado por él.


Dieter Jung, 2008.


Searle y la IA-fuerte

       Nadie puede negar que la IA constituye un vector muy poderoso en campos como la robótica y en el diseño de sistemas expertos y es en estos campos donde tiene las aplicaciones más prometedoras, ni que tiene un gran valor heurístico en el campo de la investigación científica actual Sin embargo, lo que se va a cuestionar aquí no son los posibles adelantos en estos campos y en el campo informático y computacional en general, sino su validez como modelo epistemológico o psicológico para la explicación de la mente humana y el funcionamiento del cerebro humano. El ataque de Searle va dirigido específicamente a una versión radical de la IA, según la cual  “el cerebro es simplemente un computador digital y la mente es simplemente un programa de computadora” (Searle  1984: 28). El cerebro sería el hardware y la mente sería el software.
      Para los defensores de esta posición no sólo es cuestión de que las modernas computadoras tienen lo que pudiéramos calificar de vida mental, sino que incluso un aparato o un mecanismo mucho más simple, como un termostato, entraría también dentro de esta categoría. Puede decirse que un termostato funciona de acuerdo a tres creencias básicas: “hace mucho calor aquí, hace mucho frío aquí, hace una buena temperatura aquí” (p. 30).  La ventaja de esta tesis es que, contrariamente a muchas tesis filosóficas, es razonablemente clara y por ello admite una refutación igualmente simple y contundente. Pero antes de entrar al meollo de su refutación, Searle aclara que dicha refutación es independiente del estado actual o futuro de la tecnología y que corresponde a la definición misma de lo que es un computador digital: “No tiene nada que ver con procesos seriales y paralelos, o con el tamaño de los programas, o con la velocidad de las operaciones computacionales, o con computadores que interactúan causalmente con el ambiente, o siquiera con la invención de los robots.” (pp. 36s)
      El argumento central para atacar la tesis de la IA-fuerte tiene que ver con la forma y con el lenguaje binario en que están diseñados los programas del computador, así como el sistema operativo que lo hace funcionar. Como se sabe todo programa de computadora está representado por medio de un lenguaje binario de ceros (0s) y unos (1s), lenguaje que es puramente formal y que sirve para la elaboración de los diversos algoritmos o secuencia finitas de pasos que es capaz de realizar una computadora. Es con estos dígitos binarios o bits que se forman todos los posibles caracteres o bytes de un lenguaje numérico o alfanumérico. De allí precisamente deriva su poder.
      Pero es también esto mismo lo que hace que no podamos atribuir propiamente una mente a una computadora, pues se requiere algo más que un sistema formal o sintáctico de símbolos para hablar de mente, se requiere algo más que una secuencia de ceros y unos que carecen de significado. Un sistema formal, por definición, carece de contenido o de significado. Pero los fenómenos mentales se caracterizan por tener una intencionalidad, por ser referenciales, por estar abiertos al mundo o a una realidad exterior. Para decirlo con sus palabras: 

La razón de que ningún programa de computación jamás pueda ser una mente es simplemente que un programa de computación es solamente sintáctico, mientras que las mentes son algo más que sintácticas. Las mentes son semánticas, en el sentido de que tienen algo más que una estructura formal, ellas tienen contenido.  (p. 31) 

      A menudo se ha sostenido que si las respuestas de una computadora no son distinguibles de las de un ser humano, ello es una señal evidente de que la computadora es inteligente y de que, al igual que el hombre,  posee una mente, lo que se conoce como el test de Turing. En efecto, el matemático inglés, Alan Turing, propone sustituir la pregunta acerca de si las máquinas pueden pensar,  por un conocido experimento mental o juego de imitación, según el cual podemos atribuir pensamiento o inteligencia a una máquina si las respuestas de ésta son, para cualquier observador externo, indistinguibles de las que daría un ser humano ante las mismas preguntas, esto es,  si somos incapaces de distinguir si las respuestas provienen de un programa de computación o de una persona.( El test original consistía en diferenciar a un hombre de una mujer mediante preguntas y respuestas escritas, en las que el hombre nos engañaba y la mujer decía la verdad. La computadora o  computador, pues no tiene sexo, pasa a ocupar ahora el lugar del hombre).  
           Sin embargo, Searle plantea un experimento mental en el cual este puede ser precisamente el caso: las respuestas de un computador y las de un ser humano son las mismas, aunque las consecuencias que deriva son totalmente opuestas, es decir, que ello no constituye una prueba de que la computadora sea inteligente o de que posea una mente como el hombre. Dicho experimento mental ha pasado a ser conocido dentro de la literatura sobre el tema como “la habitación china” de Searle. En resumen, lo que allí nos dice él es que el comportamiento de una computadora que actúa como si comprendiera el chino, para lo cual ha sido adecuadamente programada, es idéntica a la de cualquier individuo que, encerrado en una habitación y sin saber nada de chino, diese las respuestas correctas a una serie de preguntas que se le pasaran en chino, con tal de que se le suministrasen las reglas adecuadas para la manipulación de los signos, con tal de que se le proporcionase algo así como una manual en inglés, o en cualquier idioma que esta persona entendiese, en el cual se especificasen reglas puramente sintácticas para la manipulación de los símbolos chinos. El resultado de ello sería sorprendente, pues sus respuestas serían indistinguibles de las que daría una persona que realmente comprendiese el chino. Pues bien, eso es justamente lo que pasa con una computadora. Tanto el operador que está dentro de la habitación como la computadora se comportan para un observador externo exactamente del mismo modo, como si comprendiesen el chino, cuando en realidad ninguno de los dos entiende ni una jota (en eso se basa precisamente el experimento mental). 

La cuestión básica de la parábola de la habitación china consiste en recordarnos el hecho que ya sabíamos todo el tiempo. Comprender un lenguaje o, por supuesto, tener de hecho estados mentales, involucra algo más que tener solamente un puñado de símbolos formales. Involucra tener una interpretación o un significado que acompañe a estos símbolos. Y un computador digital,  así definido, no puede tener más que símbolos formales, puesto que la operación de un computador, como dije antes, está definido en términos de su habilidad para implementar programas. Y  estos programas son determinables de modo puramente formal, -esto es, no tienen contenido semántico. (p. 33) 

      Por supuesto que las críticas a la posición de Searle no se han hecho esperar. En particular, su parábola –como él mismo la llama- ha sido objeto de un amplio debate. Empero, ninguna de estas críticas logra superar el argumento básico y elemental sostenido por Searle, “a saber, la sola sintaxis no es suficiente para la semántica, y los computadores digitales, en la medida en que son computadores, tienen, por definición, solamente una sintaxis” (p. 34).  La cuestión crucial es que los programas de computación simulan la inteligencia humana, la mente humana, así como puede crearse un programa que simule una tormenta o un incendio, lo que no quiere decir que sean duplicaciones o replicas de estas realidades. Es esta confusión entre simulación y duplicación lo que está en la raíz de buena parte de toda esta polémica. No sin cierto dejo de humor lo señala nuestro autor en el siguiente texto:

Ahora, en cada uno de estos casos, nadie supone que una simulación de computador es de hecho la cosa misma; nadie supone que una simulación computarizada de una tormenta nos mojará a todos, o que una simulación computarizada de un fuego pueda incendiar una casa. ¿Por qué demonios habría de suponer cualquiera en sus cabales que una simulación computacional de procesos mentales tiene de hecho procesos mentales? (pp.37s)  

      La respuesta a la pregunta de si una computadora puede pensar admite una serie de respuestas afirmativas triviales, pues en cierto sentido podemos considerar al cerebro e incluso a un lápiz sobre una mesa como una computadora digital, sólo que en el caso de éste último su programa es bastante aburrido, apenas dice: “Quédate ahí”. Para Searle lo que hace al cerebro humano algo particular es que es un sistema biológico, un “wetware” en lugar de un “hardware”.En cambio, para la IA no hay nada esencialmente biológico en la mente humana y los algoritmos del “software” tienen una vida propia, siendo indiferente el lugar en el cual estén encarnados. De aquí se deriva una consecuencia indeseable para la IA. Como dice Searle: 

Hay en estas discusiones, en breve, una especie de dualismo residual. Los partidarios de la IA creen que la mente es algo más que una parte del mundo biológico natural, creen que la mente es determinable de modo puramente formal. La paradoja de esto es que la literatura de la IA está llena de críticas en contra de una posición llamada ‘dualista’, pero, de hecho, toda la tesis de la IA-fuerte descansa en una suerte de dualismo. Descansa en el rechazo de la idea de que la mente es simplemente un fenómeno biológico natural en el mundo, como cualquier otro. (p. 38) 

      En suma, el argumento central de Searle parece bastante bien blindado. En efecto, si admitimos que el cerebro causa la mente, que la mente humana tiene contenidos semánticos, que es algo más que una sintaxis formal, y que un programa de computadora está especificado, por definición, a través de un lenguaje puramente sintáctico, entonces el cerebro humano es algo más que una mera computadora y ningún programa de computadora así definido puede ser considerado como una mente. Y podríamos reforzar aún más este argumento con las ideas que el propio Searle sostiene en contra de la psicología cognitiva, la cual puede considerase como una aplicación de la IA al campo de la psicología, crítica perfectamente consecuente con las ideas por él sostenidas en Actos de Habla. En particular, él critica la asimilación completamente simplista que se hace entre la mente humana con un programa de computadora, por el solo hecho de que ambos estén gobernados por reglas. Podemos admitir esto último (en el caso de la conducta humana con menos frecuencia de lo que se supone), pero nuevamente surge la misma cuestión anterior: las reglas que sigue un programa de computadora son puramente formales, mientras que las reglas que siguen los hombres, por muy convencionales que sean, tienen valor semántico, tienen un significado que depende del contexto institucional y cultural en el cual tienen origen. Para decirlo en sus términos, son reglas constitutivas y no meramente regulativas.
      Todo esto nos lleva de regreso al planteamiento que hacíamos al principio, a la necesidad que tenemos de construir modelos o, si se prefiere, de elaborar analogías, para comprender la realidad. Asimilamos lo que no comprendemos bien aún a lo que comprendemos ya mucho mejor, por lo tanto quienes entienden bien el funcionamiento de las computadoras pueden tener la tentación de asimilarla al funcionamiento del cerebro o de la mente humana. Como señala Searle, esta tendencia no es nueva, pues siempre se asimila la mente humana al último invento tecnológico, sea éste una computadora, una central telefónica o telegráfica, un molino, una catapulta o un ábaco. La moraleja de toda esta historia es la misma: necesitamos crear modelos para comprender la realidad, necesitamos de mapas para no perdernos en nuestro recorrido por la realidad, más aún cuando se trata de nuestra propia realidad, de conocernos a nosotros mismos, de conocer al propio órgano del conocimiento. Hasta aquí no hay ningún problema. El problema surge cuando nos tomamos demasiado en serio nuestros modelos, cuando comprendemos nuestras analogías de modo completamente literal, cuando confundimos el mapa con el territorio. 

La computadora no es probablemente una metáfora mejor o peor del cerebro que las anteriores metáforas mecánicas. Aprendemos tanto del cerebro diciendo que es una computadora como lo hacemos diciendo que es una central telefónica, un sistema telegráfico, una bomba de agua o un motor a vapor. (pp. 55s) 

      En resumen podríamos indicar lo siguiente: si bien pudiésemos aceptar que un computador digital constituye un modelo del cerebro y de la mente humana, se trata, en realidad, de un modelo excesivamente simplificado, ya que deja por fuera aspectos esenciales de lo que constituye la vida mental. O dicho de otra manera: no habría ningún inconveniente en considerar a un computador digital como un modelo muy simplificado de la mente humana, esto es, si se reconociese de antemano el carácter deliberadamente simplificador e, incluso, distorsionador de la realidad biológica que tal modelo representa. Pero obviamente ésta no es la posición de la IA. Desde este punto de vista, podríamos señalar que la computadora tampoco constituye un mejor modelo del funcionamiento de la mente humana que la imagen del auriga utilizada hace ya bastantes siglos por Platón, siendo ésta última, más bien, bastante superior en muchos aspectos. 



Dieter Jung, 2008






A modo de conclusión: Searle, Dreyfus y la IA



¿Podría pensar una máquina?- ¿Podría tener dolor?- Bueno, ¿debe llamarse al cuerpo humano una tal máquina? Seguramente que está lo más  cerca de ser una tal máquina.  
                                                       
  Ludwig Wittgenstein                                 



          Aunque Searle es quizás el más conocido de los filósofos en querer aguarle la fiesta a los defensores incondicionales de la IA, no ha sido el único y ni siquiera el primero. Mucho antes que él, en 1964, la Corporación Rand, para ese entonces uno de los centros privados más importantes en impulsar la naciente IA, contrató a un filósofo del MIT, que acababa de obtener su doctorado en Harvard, para que llevase a cabo un informe acerca de los posibles alcances de la IA. El filósofo se llamaba Hubert Dreyfus y su informe tenía el nada halagador título de  La alquimia y la Inteligencia Artificial.  Al conocer el contenido crítico  del informe, la propia corporación que había financiado la investigación trató de evitar su circulación, pero ya era demasiado tarde. El informe fue el más leído entre los que ella había publicado hasta ese momento. La mayoría de los seguidores de la IA no consideraban que valía la pena perder el tiempo en responder a las objeciones de índole filosófica que Dreyfus planteaba en su informe. El único que se tomó la molestia de responder directamente a Dreyfus fue Seymour Papert en un informe titulado La inteligencia de H. Dreyfus: un manojo de falacias.  En 1972 Dreyfus desarrolla con más detalle su crítica a la IA y publica su libro What computers can’t do (Critic of  artificial reason). En 1986 publica, junto con su hermano Stuart, ingeniero de computación, Mind over machine, en el cual se destacan las limitaciones de los sistemas expertos, que es una de las áreas donde la IA se ha desarrollado con más éxito. En 1992  es reeditado su primer libro sobre IA  bajo  el título de  What computers still can’t do, en el cual se incluye una nueva introducción y se toman en cuenta los nuevos avances en IA, en particular los que aparecen en el campo de las redes neuronales artificiales. Como veremos a continuación, muchas de las objeciones hechas por Dreyfus contra la IA fueron todo menos irrelevantes y apuntaban a limitaciones inherentes, que tuvieron que ser tomadas en cuenta en algún momento.  Su crítica fue un contrapeso necesario a las visiones extremadamente optimistas de la IA en sus inicios y  curiosamente sirvió de estímulo para su desarrollo.


Así como Searle  critica al núcleo duro de la IA o IA-fuerte, la crítica de Dreyfus va dirigida de manera particular a un determinado enfoque de la IA, a las pretensiones y supuestos que están presentes en una determinada corriente de la IA.

Según Dreyfus, la IA surge cuando “unos pocos pensadores pioneros comenzaron a darse cuenta de que las computadoras personales podían ser más que masticadoras de números” (Dreyfus 1993: 25)  Desde el comienzo (1956) surgieron dos programas de investigación o dos enfoque de la IA relativamente diferenciados: un enfoque formalista y atomista, que “veía las computadoras como sistemas para manipular símbolos mentales”, y un enfoque orientado hacia la investigación de la neurociencia y la simulación del comportamiento de la compleja red de neuronas cerebrales, que utilizaba las computadoras “como un medio para modelizar el cerebro”.  Por diversas razones, el enfoque que terminó por imponerse durante las primeras décadas, hasta comienzos de los 80, fue el primer enfoque, que Dreyfus va a denominar, siguiendo a  Haugeland, GOFAI o Good Old-Fashion Artificial Intelligence.

Para nuestro autor, la IA tradicional o clásica está muy lejos de representar una nueva tecnología inocente y desprovista de presupuestos filosóficos. Al contrario, constituye la más acabada expresión del sueño racionalista tan fuertemente acariciado a lo largo de toda la tradición occidental, desde Sócrates y Platón hasta Husserl y el primer Wittgenstein, pasando por Llull, Descartes, Hobbes, Leibniz, Más allá de las posibles diferencias, encontramos en todos estos casos un élan  o impulso interior similar: la búsqueda de un conocimiento seguro, de una episteme o ciencia,  que esté mas allá de todo saber contingente y que sea, en esa misma medida, un reflejo exacto y preciso de la realidad en la cual vivimos y nos movemos. La mente es concebida entonces como una suerte de espejo que refleja la realidad, con tal de que sea usada de la manera correcta.  Así mismo “se puede concebir la IA como un intento de encontrar los elementos primitivos y las relaciones lógicas en el sujeto (hombre o computadora) que refleja como un espejo los objetos primitivos y las relaciones que constituyen el mundo” (Dreyfus 1993: 28)  La IA tradicional concibe el conocimiento humano como una fórmula equivalente a hechos cum  reglas simbólicas de manipulación.  La construcción de un lenguaje que esté libre de contexto y de propósitos constituye el mayor obstáculo para la imitación de la inteligencia humana. Para Dreyfus “es una de las ironías de la historia intelectual que el devastador ataque de Wittgenstein a su propio Tractatus, sus Investigaciones Filosóficas, se publicara en 1953, justo cuando la IA se situaba en la tradición abstracta y atomista que el había criticado.” (p. 38)  Y más adelante añade:

Cuando procuramos encontrar elementos independientes del contexto y libres de propósitos, como debemos hacerlo si pretendemos encontrar los símbolos primitivos con que alimentar una computadora, estamos tratando en realidad de liberar aspectos de nuestra experiencia de la misma organización pragmática que hace usarlos inteligentemente al enfrentar los problemas de la vida diaria.
 
                 
  La relación de la IA con la fenomenología de Husserl resulta algo más complicada.  El propio Husserl se consideraba como la culminación de la tradición racionalista de Descartes, consideraba en un primer momento haber llevado a cabo el programa de un conocimiento seguro de la realidad, de haber podido establecer el puente entre los actos conscientes o noesis y los correspondientes contenidos objetivos de la realidad o noemas, a través de un proceso trascendental de reducción eidética. Todo este programa conserva un fuerte aroma racionalista. En este sentido Husserl puede ser considerado como “el abuelo de la IA”, pues “la tarea de la IA converge entonces con la de la fenomenología trascendental” (p.40)  El mayor crítico del residuo marcadamente racionalista que aún alberga el pensamiento husserliano, será precisamente su discípulo más destacado, Martín Heidegger. Y con Husserl, Heidegger ataca a toda la tradición racionalista abstracta que ha marcado decisivamente a la tradición occidental, tradición que encuentra en el desarrollo de la tecnología su más acabada expresión. Para Heidegger se hace imperativo modificar la relación tradicional de la conciencia con el mundo, romper el molde representacional en que se ha desenvuelto la filosofía tradicional. Como indica Dreyfus:

Antes que Wittgenstein, Heidegger desarrolló, en respuesta a Husserl, una descripción fenomenológica del mundo cotidiano y de objetos cotidianos como sillas y martillos. Al igual que Wittgenstein, encontró que el mundo cotidiano no se podía representar mediante un conjunto de elementos independientes del contexto.  Fue Heidegger quien impulsó a Husserl  a encarar precisamente este problema, al señalar que hay otras formas de “encontrarse” con las cosas, aparte de relacionarlas con objetos definidos mediante un conjunto de predicados.  Cuando usamos una pieza de equipamiento como un martillo, decía Heidegger, actualizamos una habilidad (que no necesita estar representada en la mente) en el contexto de un nexo socialmente organizado de equipamiento, propósitos y papeles humanos (que no necesitan estar organizados como un conjunto de hechos). Este contexto, o mundo, y nuestras formas cotidianas de lidiar hábilmente con él, lo que Heidegger llama “circunspección”, no es algo que pensamos sino parte de nuestra socialización que constituye la forma en que somos. (pp. 40s)   

A raíz de la crítica emprendida por su  discípulo, el pensamiento de Husserl estará orientado  hacia el mundo de la vida cotidiana o Lebenswelt, pero considerando que es posible llevar a cabo la tarea de hacer explícitas las reglas o predelineamientos que están encerrados en dicho mundo.  Al final reconocerá que se estaba enfrentando a una “tarea infinita” y que en relación con ella se consideraba como un eterno principiante.  Pero, es precisamente esta  tarea la que con total ingenuidad trataron de  realizar representantes de la IA tradicional como Marvin Minsky.  No es de extrañar entonces que después dijera Minsky que “el problema de la IA es uno de los más difíciles que jamás haya abordado la ciencia”.  A pesar de los éxitos logrados por la IA tradicional, lo cierto es que llegó un momento en que se enfrentó a problemas insuperables y se produjo un estado de estancamiento y degeneración.

Es entonces cuando en la década de los 80 resurge el enfoque de redes neuronales artificiales (McCulloch & Pitts) y el modelo del perceptrón lanzado por Rosenblatt en 1957,  mejorado por Minsky y Papert.   La idea fundamental es que si queremos simular realmente la inteligencia humana no tenemos más remedio que seguir el ejemplo del cerebro humano y simular las redes neuronales naturales, con su fuerte paralelismo, conectividad, flexibilidad y tolerancia al error. A diferencia del carácter serial y atomístico de la IA tradicional, el nuevo modelo emergente es de carácter holístico y de procesamiento distribuido en paralelo (PDP), lo cual sin duda se aproxima mucho más a la manera como creemos que funciona el cerebro humano. De hecho, lo que hacemos es simular en un computador serial digital tradicional (arquitectura de von Neumann o arquitectura Harvard) un programa conexionista. La computadora simula un pensamiento en paralelo y fuertemente interconectado, como el del cerebro humano. Y recordemos que simulación no es duplicación.                 


A pesar de que este nuevo enfoque le ha conferido a la IA nuevas esperanzas y optimismo, debemos actuar de nuevo con cautela. El conocimiento que tenemos acerca del funcionamiento de los cerebros reales se encuentra aún en una etapa bastante primitiva y es posible que lo hemos tomado como el modelo a seguir, la neurona, esté aun bastante lejos de reflejar toda la complejidad que encierra el cerebro y la mente humana. Existen aún muchas zonas oscuras y muchas dificultades que vencer. Para finalizar con palabras del propio Dreyfus:
 
 Quizás una red deba compartir su tamaño, su arquitectura y su configuración de conexiones iniciales con el cerebro humano, si es que ha de compartir nuestro sentido de generalización apropiada. Ha de aprender de sus propias ‘experiencias’ para hacer asociaciones que se asemejen a las humanas, y no tanto ser enseñada a hacer asociaciones que son específicas de su entrenador; una red debe compartir también nuestro sentido de propiedad de un comportamiento,  y esto significa que debe compartir nuestras necesidades, deseos y emociones y poseer un cuerpo parecido al humano con movimientos físicos, habilidades y vulnerabilidad a la violencia igualmente apropiados.
   Si Heidegger y Wittgenstein están en lo cierto, los seres  humanos son mucho más holísticos que las redes neuronales. La inteligencia tiene que estar motivada por propósitos en el organismo y por objetivos seleccionados por el organismo a partir de una cultura en marcha. Si la unidad mínima de análisis es la de todo un organismo adaptado a todo un mundo cultural, las redes neuronales, tanto como las computadoras simbólicamente programadas, todavía tienen un largo camino por delante. (pp.52s)

Desde perspectivas fenomenológicas diferentes, Searle y Dreyfus reconocen el carácter irreductible de la conciencia humana y de la experiencia humana. El modelo computacional siempre chocará contra esa irreductibilidad de la comprensión humana, contra esa cualidad especial y única de la experiencia humana. Ello no es óbice, sin embargo, para que quienes desarrollan la IA encuentren los algoritmos que permiten modelar y/o fabricar el pensamiento y/o la conducta humana, se sientan desafiados cada vez que el filósofo dice: “Eso no es posible para una máquina”.                     



Cartel de la exposición Phases/Faces de Dieter Jung, 2008.


Bibliografía
Dreyfus, Hubert: “Fabricar una mente vs. modelar el cerebro: la inteligencia artificial se
                           & S. Dreyfus        divide de nuevo”, en
                           El nuevo debate sobre la inteligencia artificial,
                           por Stephen R. Graubard (comp.), Editorial Gedisa, México,1993
 
Popper, Karl R. & John Eccles. El yo y su cerebro. Ed. Labor, Barcelona, 1980. 
Searle, John. Minds, Brains and Science.  Harvard University Press, Cambridge,
                      1989. ( Hay versión castellana en Ed. Cátedra, Madrid, 1994.) 


                                
COMENTARIO AL ARTÍCULO DEL PROF. LUIS VIVANCO  A ESTE ARTÍCULO:



Estimado Prof. Carlos Manuel Blank Pérez

Lo felicito por un texto sobre un tema muy difícil, compuesto de manera tan clara. Le escribo por aquí porque el blog no me dejó publicar el comentario por lo largo, aunque lo corté luego en varias partes, pero dijo que no. Solo me referiré a una primera parte del mismo. Aquí va: 


Sobre la pregunta “¿Constituye la computadora un modelo preciso y completamente adecuado para la compresión del cerebro humano o de la inteligencia humana?”, confieso ser ignorante supino sobre el tema. Sin embargo, aunque se dice popularmente que a la computadora “le falta algo” para ‘pensar’ como los humanos, yo creo que lo que le falta es algo que encontramos ya en los testimonios más antiguos del homo sapiens civilizado, por ejemplo, en la Odisea y en algunas partes de la Biblia (sobre todo el Génesis). Eso que falta es la astucia, o cuando menos cierta astucia que no está incluida en un pensamiento lógico ni en modos de pensar coherentes con ciertos principios.

Daré un ejemplo un poco estirado, pero el que mejor conozco al respecto. Existe en los juegos de computadora uno que se llama “Hearts” (Corazones). Este juego es casi el mismo que en castellano llamamos Chiflota, solo que en él, la dama de espadas vale trece puntos y no siete, y además, no se puede fallar con esa carta en la primera vuelta (lo cual, por cierto, siempre nos pareció que era un error en el juego tradicional). Déjenme decirles que este juego lo jugábamos con amigos y con la familia durante décadas, sobre todo en fechas como navidad o semana santa, en que íbamos a la montaña o la playa y pasábamos horas jugando cartas. Ahora bien, aparte de las trampas, que la computadora no permite, había otras malicias en el juego que la computadora aparentemente ni conoce ni practica. Explico brevemente de qué se trata para los que no conozcan el juego: uno tiene que hacer dos cosas: o echarle los corazones (que valen un punto c/u) y la dama de espadas a los demás jugadores y uno salir con los menos puntos posibles (pues son puntos en contra), o, si ya está uno llevando muchos puntos, o tiene cartas muy favorables, entonces intentar llevarse TODOS los puntos. Si hace esto, en vez de contárselos contra él, es al revés: el que hace esa hazaña queda en cero en esa mano y la gana, y le echa a cada uno de los contrarios veintiséis puntos (que es la suma de los trece corazones más los trece puntos de la dama de espadas). Cuando se juega entre personas, si alguien trata de llevarse todos los puntos, los demás tratan de impedírselo tomando lo que se llama un “seguro”: un punto en contra o una baza completa de cuatro puntos inclusive, para que no se los pueda llevar completos. Los hay que hasta se llevan la dama de espadas, o sea trece puntos, pues es mejor cargar con trece puntos en contra, que con veintiséis. Pero lo mejor es llevarse solo un punto, a modo de “seguro”, y no más. Los humanos pueden aplicar esa malicia, esa astucia, de “sacrificarse” y llevarse ese punto en contra, para evitar una pérdida mayor, pero siempre he visto que la máquina no puede aplicarla. Su lógica le dice que tiene que deshacerse de todos los puntos y no entra en esa lógica guardarse un punto como “seguro”, o una carta alta de algún palo para poder llevarse una baza y posibilitar que se asegure un punto en contra y así evitar que el que está acumulando se los lleve todos. Ni mucho menos parece entrar eso de “sacrificarse” cargando un punto  en contra para evitar llevarlos todos. El principio del ‘sacrificio’ como que no entra en la programación de este juego. Y no solo no entra, sino que no va a entrar: la máquina no va a “aprender” a jugar de otra manera (después de todo, no es ajedrez, del cual dicen que ciertos programas de computadora aprenden a jugar mejor con cada partida. Pero el ajedrez es más imperfecto, porque es un juego lógico, y no incluye el azar. Por eso es un pobre modelo de la realidad).

 Por otro lado, la máquina está condenada a cierta justicia: aunque tiene la memoria y la lógica para recordar que salió en cada baza, no va a hacer nunca trampa de repartir manos injustas a los jugadores. Esta “justicia” es comprensible (y en este sentido, es siempre más confiable, creo yo, jugar con una máquina que con un humano). Para que el juego tenga sentido, tiene que permitir el azar: un reparto verdaderamente aleatorio del naipe. Yo he jugado Hearts todos los días al menos dos partidas desde hace más de quince años, y aún me parece sorprendente que la máquina no pueda tener el motu proprio para saltarse las reglas, negarse a sí misma (= a su ser sistemático), y ganar una mano que, centenares de veces he visto que podía ganarla si se hubiese permitido “perder” una baza y llevarse de uno a cuatro puntos. Entiéndase que no se trata de que “haga trampa”, sino de que pueda esgrimir una estrategia alterna. Pero no, no lo puede hacer: sigue con su lógica hasta el final y pierde llevándose veintiséis puntos. Quizá en el futuro los programadores desarrollen este juego con más “astucia”, pero al presente, no la tiene. No es capaz de pensar que es preferible perder un poco para no perder catastróficamente.

Incidentalmente, al menos en ciencia militar y estrategia, esto que describo en este juego de Hearts también se ve. Los militares que han sido más “sistemáticos” e inflexibles (“No pasarán”, “No retrocederemos”, “No nos rendiremos jamás”. “Vencer o morir”. “Mejor morir que vivir de rodillas” y todas esas majaderías) obtienen menos resultados efectivos y favorables que los que están dispuestos a retroceder a veces, e inclusive a huir y no presentar batallas, sino cuando las condiciones sean más convenientes (OJO, conveniente no significa “a favor”, sino simplemente escoger no estar en desventaja. Muchas batallas se han perdido porque se optó mal al respecto de librarlas o no. Destaco, además, este hecho muy conocido: el que perdió una batalla sabe mejor por qué la perdió, que lo que sabe el que la ganó de por qué la ganó). Esta conducta estratégica es recordada por viejos dichos como “reculer pour mieux sauter” (“retroceder para saltar mejor”, que data del siglo XIII) y el famoso “fugiendo vincimus” (“huyendo vencimos”) de los romanos.

Así pues, al menos en este juego, veo que la computadora no puede hacer esto de pensar de manera diferente. Y a menudo pierdo en juegos como los solitarios de distinta clase y otros, pero éste juego de Hearts me gusta jugarlo porque, aunque no siempre lo gano, depende del azar y tengo una ventaja que la máquina no tiene. Ella tiene también una ventaja que yo no tengo, que yo no quiero tener: ella recuerda las jugadas, lo que ha salido en cada jugada y quien lo jugó, y yo no. Por eso soy un pésimo jugador de Bridge o de dominó, como lo soy de canasta, lo confieso. Esa astucia de poder pensar diferente es algo que, me parece, no esta enteramente abarcado por lo racional. Algunos pensadores han tratado de incluirla en la razón; creo que Hegel, por ejemplo, cuando habla de la “astucia de la razón” (“List der Vernunft”) que se refiere a como el espíritu – o sus motivos – actuarían a través de las pasiones del algunos individuos que, creyendo cumplir sus fines particulares, impulsan la historia a fines universales. Pero aquí no se trata tanto de una astucia así, sino de esto: de hacernos creer que hay un sistema que debemos seguir porque se corresponde con la “justicia” de la realidad, y luego darnos cuenta de que existe otro sistema paralelo que, cuando el primero, efectivamente, no da cuentas satisfactoriamente de la realidad como creíamos, debemos recurrir a ese otro sistema paralelo, que no es reconocido, pero que funciona. Una mala analogía sería el caso de cuando hace décadas nos sometíamos “lógicamente” al sistema de sacarnos la cédula de identidad, teniendo que ir con una pila de documentos a las tres de la mañana a buscar un puesto en una cola frente al edificio de Extranjería, para salir a la una de la tarde, tras diez horas de agobio y calor, devueltos, porque nos pidieron un papel que no traíamos, mientras que si utilizábamos un sistema paralelo, con un gestor, y pagando cien bolívares (antiguos), podíamos ir a las once, y salíamos solo una hora después, si no antes. En nuestro país todos conocemos experiencias semejantes de dos sistemas alternativos de hacer las cosas: si cometo una ligera infracción de tránsito, por ejemplo, adelantar demasiado el auto en el semáforo, pisando el rayado para peatones, un fiscal me puede llevar preso por 24 horas y al auto detenido por una semana. Ante ley tan dura (y absurda) surge el maravilloso sistema paralelo expresado, si Dios quiere, por el fiscal que nos dice en voz baja “Dame trescientos”. El asunto pasa a otra dimensión de dificultad (Si tengo o no los trescientos) pero se resuelve mejor que por el sistema formal. Lo curioso, como he planteado al principio, es ver que en el mundo más antiguo esa alternabilidad de reglas y sistemas, ese pasar de un sistema formal a un sistema de “astucia”, era constante. No sé que otro pensador podrá haber aludido a una “astucia” como la que he sucintamente referido aquí. Ciertamente, un autor no filosófico, Jorge Luis Borges, alude a ella a menudo, frecuentemente destacándola en relatos antiguos, como lo de los pueblos germánicos y otras instancias (Cfr. Otras inquisiciones, “Sobre Chesterton”, donde hace un par de referencias, una al relato “Ante la ley” de Franz Kafka, y la otra, al pasaje I, 83 de “El progreso del peregrino” de Paul Bunyan). Y en las tradiciones orientales del taoísmo y de ciertas corrientes del budismo también se alude a algo cercano a esa astucia, inclusive destacándola en los incapaces y débiles. Por ejemplo, Tchuang-tsé cuando refiere sobre que el árbol que no servía para madera fue el que se salvó de los leñadores, o que el joven que era contrahecho se salvó de la recluta para el ejército del caudillo (En época de Napoleón, miles de jóvenes en Francia, Alemania, y otras partes, se rompían todos los dientes del frente, arriba y abajo, para no ir de soldados… para poder disparar había que romper con los dientes el papel que envolvía el cartucho. Sin dientes no se podía hacer eso…). Haré otro ejemplo sencillo de tal astucia: supongamos que a un buen amigo, que además es una persona muy decente, lo está persiguiendo un asesino, cosa nada rara en esta loca realidad que vivimos, y el amigo viene a nuestra casa a ocultarse. Al poco rato, nos toca la puerta el asesino, preguntándonos amablemente si sabemos dónde esta fulano de tal, nuestro amigo. ¿Qué hacemos? Los sistemas racionales y éticos (y quizá la religión) nos dirían que teníamos que decir la verdad: “Está aquí, escondido.” Pero no somos tan idiotas o criminales de hacer eso, claro, sino que, con astucia y no como mensos, convencemos al asesino de que vimos hace poco a fulano, e iba en tal dirección. El asesino se va, y nuestro amigo puede salir después de un rato, e irse en relativa seguridad. Así actuaban héroes y profetas, como Ulises, Abraham, Jacob, Gilgamesh, Pan-Ku; vemos tal conducta en las mitologías china, india, americana, africana, etc. Es un pensar netamente humano: se “salta” una trampa, se obvia un sistema, un código, se sale de lo consistente, se utiliza lo contradictorio, se ve más allá de lo que las cosas muestran. Como Alejandro cuando “desató” el nudo gordiano, cortándolo (y cumplió la profecía, pero por poco tiempo, es verdad…).

Creo que ese “ver más allá” es lo que la máquina no puede hacer del todo aún. Es entonces de preguntarse si esa astucia, esa malicia tan humana es algo que no puede quedar dentro de los sistemas de las computadoras, o sí podrá ser alcanzado algún día. Yo no lo creo. No porque sea imposible. No es eso: creo que no querríamos construir máquinas así; no confiaríamos en máquinas que pudieran “errar” a propósito o “saltarse” las reglas de la lógica. Aun cuando las máquinas se “enferman”, aún cuando les caen virus, eso no vuelve su funcionamiento tan irracional o loco que sea del todo incomprensible o ilógico; generalmente, lo que sucede en esas situaciones es que se invierten ciertas reglas, como el virus que afecta los programas de escritura, y en vez de ‘ñ’ pone una n, y entonces escribimos “Espana” o “cono”, cuando queremos escribir otra cosa. Es molesto, pero no es incomprensible. Aún cuando están “enfermas”, las máquinas funcionan sistemáticamente.

 En el caso de que las máquinas pudieran eludir reglas de un sistema para pensar en base a otro sistema de reglas diferentes, eso presupondría que tendrían potestad de elegir algo así, y eso creo que haría que desconfiáramos de ellas. Pero esa desconfianza nuestra tendría su contraparte: con la alternabilidad de dos sistemas de “pensamiento”, uno que piensa sobre los objetos que son materia de su pensamiento, y otro que reflexiona sobre ciertas conclusiones y resultados del primer pensar, es probable que, con los datos de ese primer pensar, el segundo, ese supuesto pensamiento reflexivo artificial, desconfiaría de nosotros, los humanos. Este es un poco el dilema que creo postulado en la película “2001, Odisea Espacial” de Stanley Kubrick. Parafraseando la famosa frase de Groucho Marx, sobre el hecho de que no querría entrar en un club que lo tuviese a él como Miembro, nosotros no querríamos aceptar computadoras que no nos aceptaran a nosotros. En realidad, desconfiaríamos de una máquina que pensara como nosotros: si no por otra cosa, por el hecho mismo de que ella desconfiaría perfectamente de nosotros. Una máquina que pensara como nosotros sería tan peligrosa para nosotros como lo es otro humano. Y para hacer otro ser humano hay métodos tradicionales más sencillos y placenteros. Las razones para desarrollar este tema de las características de la inteligencia artificial son largas y no caben aquí, pero creo que salen muchos hilos que pueden tejerse largamente de lo dicho. Ya la terquedad artificial de mi Laptop, que me molesta diariamente, me ha sugerido que intente practicar el estoicismo.

RESPUESTA DEL PROF. CARLOS BLANK AL PROF. VIVANCO:


 Estimado Prof. Luis Vivanco, acabo de leer, con gran placer -lo que no puede hacer una máquina- tu extenso comentario, que más que comentario me parece un buen ensayo o reflexión acerca de la inteligencia humana, que no solamente es lógica, sino que incluye ese elementgo de "astucia" que es indispensable para la vida. Yo resumiría todo en que las computadoras son "inteligencia bruta", así como hay gruas que son "fuerza bruta" y para eso las creamos, para que hagan el trabajo pesado y aburrido. No tendría sentido crear máquinas que fuesen lentas o se equivicasen a la hora de hacer cálculos, por más que con ello se pareciesen más a nosotros. No hay ningún ser humano que pueda hacer 40.000.000 de cálculos complejos en un segundo; en cambio para una máquina eseo es rutinario. 
       El tema de la astucia lo desarrollé precisamente en un artículo publicado en el blog de Octubre: mentira y política. No sé si lo leíste. En todo caso te iba a sugerir que desarrollaras más el tema de la astucia y la inteligencia artificial, o de la astucia a secas, como tema filosófico. Tus reflexiones me parecen muy agudas y relevantes, aún en sus detalles más cotidianos.
       Un abrazo
       Carlos Blank



         

1 comentario:

Luis Vivanco dijo...

Lo felicito por un texto sobre un tema muy difícil, compuesto de manera tan clara. Solo me referiré a una primera parte del mismo. Mi comentario irá en varias partes, porque no deja publicarlo en una sola. Sobre la pregunta “¿Constituye la computadora un modelo preciso y completamente adecuado para la compresión del cerebro humano o de la inteligencia humana?”, confieso ser ignorante supino sobre el tema. Sin embargo, aunque se dice popularmente que a la computadora “le falta algo” para ‘pensar’ como los humanos, yo creo que lo que le falta es algo que encontramos ya en los testimonios más antiguos del homo sapiens civilizado, por ejemplo, en la Odisea y en algunas partes de la Biblia (sobre todo el Génesis). Eso que falta es la astucia, o cuando menos cierta astucia que no está incluida en un pensamiento lógico ni en modos de pensar coherentes con ciertos principios.

Daré un ejemplo un poco estirado, pero el que mejor conozco al respecto. Existe en los juegos de computadora uno que se llama “Hearts” (Corazones). Este juego es casi el mismo que en castellano llamamos Chiflota, solo que en él, la dama de espadas vale trece puntos y no siete, y además, no se puede fallar con esa carta en la primera vuelta (lo cual, por cierto, siempre nos pareció que era un error en el juego tradicional). Déjenme decirles que este juego lo jugábamos con amigos y con la familia durante décadas, sobre todo en fechas como navidad o semana santa, en que íbamos a la montaña o la playa y pasábamos horas jugando cartas. Ahora bien, aparte de las trampas, que la computadora no permite, había otras malicias en el juego que la computadora aparentemente ni conoce ni practica. Explico brevemente de qué se trata para los que no conozcan el juego: uno tiene que hacer dos cosas: o echarle los corazones (que valen un punto c/u) y la dama de espadas a los demás jugadores y uno salir con los menos puntos posibles (pues son puntos en contra), o, si ya está uno llevando muchos puntos, o tiene cartas muy favorables, entonces intentar llevarse TODOS los puntos. Si hace esto, en vez de contárselos contra él, es al revés: el que hace esa hazaña queda en cero en esa mano y la gana, y le echa a cada uno de los contrarios veintiséis puntos (que es la suma de los trece corazones más los trece puntos de la dama de espadas). Cuando se juega entre personas, si alguien trata de llevarse todos los puntos, los demás tratan de impedírselo tomando lo que se llama un “seguro”: un punto en contra o una baza completa de cuatro puntos inclusive, para que no se los pueda llevar completos. Los hay que hasta se llevan la dama de espadas, o sea trece puntos, pues es mejor cargar con trece puntos en contra, que con veintiséis. Pero lo mejor es llevarse solo un punto, a modo de “seguro”, y no más. Los humanos pueden aplicar esa malicia, esa astucia, de “sacrificarse” y llevarse ese punto en contra, para evitar una pérdida mayor, pero siempre he visto que la máquina no puede aplicarla. Su lógica le dice que tiene que deshacerse de todos los puntos y no entra en esa lógica guardarse un punto como “seguro”, o una carta alta de algún palo para poder llevarse una baza y posibilitar que se asegure un punto en contra y así evitar que el que está acumulando se los lleve todos. Ni mucho menos parece entrar eso de “sacrificarse” cargando un punto en contra para evitar llevarlos todos. El principio del ‘sacrificio’ como que no entra en la programación de este juego. Y no solo no entra, sino que no va a entrar: la máquina no va a “aprender” a jugar de otra manera (después de todo, no es ajedrez, del cual dicen que ciertos programas de computadora aprenden a jugar mejor con cada partida. Pero el ajedrez es más imperfecto, porque es un juego lógico, y no incluye el azar. Por eso es un pobre modelo de la realidad).