La
inteligencia artificial:
¿un
simple juego de imitación?
Carlos
Blank
A
manera de introducción: ¿ficción vs. realidad?
Quisiéramos
comenzar diciendo que la realidad, la “cochina realidad” como decía Unamuno,
está sobrevalorada. O mejor dicho, solemos despreciar aquellas actividades que
en principio nos aíslan de la realidad o de las duras realidades de la vida
cotidiana, y nos ubican en un mundo de imaginación, de fantasía y de ficción,
las cuales solemos considerar como medios de evasión o de escape frente a lo
real. Solemos darle una connotación
negativa a la palabra “evasión” o “escape”, aunque es posible que sin una
mínima dosis de evasión cotidiana la vida o la realidad sería insufrible o
insoportable. Así que podemos decir que este mecanismo de evasión tiene una
utilidad hasta biológica, nos permite, junto con otras cosas, sobrevivir, huir
de la desesperación y del aburrimiento, extremos que según Woody Allen, acechan
el cotidiano discurrir de nuestras vidas.[1] No
se trata, por cierto, de afirmar que la realidad y la verdad dan señales de
decadencia, son vintage como se dice
ahora, y que lo cool es la ficción o
el mundo irreal. Por el contrario lo que más nos interesa subrayar es que el
mundo de la ficción, esa “verdad de las mentiras”[2],
es una herramienta poderosísima para sumergirnos de lleno en la realidad o
realidades, para ampliar nuestra experiencia de las realidades. Curiosamente,
entonces, cuanto más nos alejamos de la realidad, cuanto más hacemos
abstracción de la realidad, tanto más somos capaces de explicar o comprender
mejor ese mundo externo, natural o social, que nos rodea o en el cual estamos,
queramos o no, instalados.
Lo
que nos interesa destacar por el momento es la fina línea que separa la
imitación y la simulación con la realidad.[3] De
hecho, como todos experimentamos cuando soñamos –y todos somos artistas o
dementes entonces- para nuestro cerebro no hay diferenciación alguna entre
sueño y realidad. Nuestro cerebro es una fuente permanente de ficciones, de
simulaciones, en engaños, de ilusiones. Por eso poetas como Calderón de la Barca se
han preguntado si la vida misma no es toda ella un sueño o dramaturgos como
Shakespeare se han preguntado si la vida no es más que un cuento relatado por
un idiota.
Resulta
significativo que los más hambrientos de realidad y verdad sean precisamente los
matemáticos, quienes buscan la certeza mediante la formulación de suposiciones
o definiciones y las consecuencias necesarias que se siguen de ellas. En esta
disciplina invención y descubrimiento, suposición y realidad, se dan
constantemente la mano. Las matemáticas encarnan mejor que cualquier otra
disciplina la paradoja de que cuanto más nos alejamos de la realidad concreta
–mediante la abstracción- tanto más es posible acercarnos a ella o somos
capaces de comprenderla. Por eso, la definición que daba Bertrand
Russell de las matemáticas, sin dejar de tener un tono epigramático, resulta
ser perfectamente amoldada al quehacer del matemático: “Las matemáticas podrían
definirse como aquello en lo que nunca sabemos de qué estamos hablando, ni si
lo que decimos es verdad.” No se le escapaba por cierto a Russell el gran poder
de evasión de las matemáticas y como ellas en más de una oportunidad fueron un
dique de contención de pensamientos negros o tendencias suicidas que
experimentó alguna vez. La belleza y la perfección de las matemáticas compensan
con creces las fealdades y las imperfecciones del mundo de la vida
cotidiana, por eso fue un gran shock
emocional para él admitir posteriormente que esa ciencia se debatía entre la
contradicción y la tautología, entre la paradoja y la vacía trivialidad. Fue dentro de esa atmósfera intelectual que
tres siglos antes acogiera a un Barrow o un Newton, la que ahora, mutatis mutandis, cobija a un Russell,
a un Wittgenstein, a un Turing, y más recientemente, a un Penrose o un Hawking,
quien hasta el 2009 ocupó la Cátedra
Lucasiana de Matemáticas que en su momento ocupase también Sir Isaac Newton.
Hablando
precisamente de la ficción o simulación como mecanismo para adentrarnos en la
realidad, queremos destacar el próximo estreno de dos películas cuyos
personajes son dos grandes mentes
contemporáneas educadas en Cambridge. Las películas en cuestión son: La teoría del todo (2014), dirigida por
James Marsh y protagonizada por Eddie Redmayne como Stephen Hawking y El juego de imitación (2014), dirigida
por el noruego Morten Tyidum y protagonizada por Benedict Cumberbach en el papel de Alan Turing
y que se ocupa de las peripecias para quebrar el código de la conocida máquina
alemana Enigma por medio de otra
máquina diseñada con ese fin conocida como
Bomba.[4] Lo
que quizás pudiera dar origen a otra película es que precisamente durante los
años anteriores a la Segunda Guerra Mundial, Turing participó activamente en
los seminarios de Wittgenstein sobre los fundamentos de las matemáticas, junto
con Norman Malcom, Rush Rhees o George Henrik von Wright, entre otros, y que dichas discusiones han sido recogidas en
un texto titulado Wittgenstein’s Lectures
on the Foundations of Mathematics (Cornell University Press, Cornell, 1976).[5]
Algunos mitos sobre la invención del computador u
ordenador
A
menudo se suele señalar la guerra como una de las causas principales de los
avances científicos y tecnológicos modernos y es innegable que en muchos casos
ha sido así. En el caso que nos ocupa, la invención del ordenador, la cuestión
es solo parcialmente verdadera. Sin duda, que durante la Segunda Guerra Mundial
se crearon centros de automatización de datos vinculados a departamentos de
balística y a la propia creación de la bomba atómica, si bien su creación
definitiva se hizo con total independencia del ordenador. También es cierto que
muchas de esa máquinas fueron diseñadas para romper los códigos de los enemigos
y encontraron en ello una fuente permanente de estimulo y financiamiento. Pero
también hay que tomar en cuenta que muchos proyectos que habían sido iniciados
antes de la guerra para desarrollar máquinas automáticas ultrarrápidas fueron
abandonados a causa de la guerra, como ocurrió, por ejemplo, con proyectos llevados a cabo por la IBM en
1942 y que fueron interrumpidos por la incursión de los EEUU en la guerra.
Otro
error que puede cometerse a la hora de trazar los momentos más importantes de
la invención de algo tan complejo como el computador digital moderno es
atribuirle demasiados precursores o genios fundadores. Siguiendo este esquema
deberíamos tomar el ábaco como el primer modelo de una computadora moderna y al
inventor del ábaco como su precursor. (Más risible aún es tomar al ábaco como
un modelo de la mente humana.) Pero resulta, en primer lugar, que nadie sabe quién inventó el ábaco, lo que
suele ser el caso de muchos inventos importantes –el lenguaje o el dinero serían
otros- y que es obvio que existe una distancia nada desdeñable entre el antiguo
ábaco y las modernas computadoras. Incluso en los casos en que se conoce el
nombre específico del inventor, como la máquina inventada por Pascal para
facilitar los cálculos a su padre que era funcionario de aduanas o la máquina
diferencial más compleja inventada por Leibniz, que permitía hacer
multiplicaciones y divisiones complejas, existe un gran salto con relación a las
computadoras modernas. También el caso de Charles Babbage, que suele ponerse como el
precursor más inmediato con su máquina analítica resulta bastante discutible en
muchos aspectos. Sin duda, que fue el
primero que separó las funciones de memoria y cálculo, y que utilizó un sistema
de programas codificados por medio de tarjetas perforadas – que se utilizaron
hasta no hace tanto tiempo-, las cuales, por cierto, fueron tomadas de los telares mecánicos,
protagonistas principales de la revolución industrial en Manchester. Dicho sea
de paso, el inventor de la tarjeta perforada no fue un inglés sino un mecánico
francés llamado Bastidor de Falcon. Sin
embargo, la máquina de Babbage nunca fue realmente construida y él tampoco
pensó en un proceso totalmente automatizado o en un programa interno que
programara la máquina. Y la razón de ello es muy sencilla: aun no se habían
inventado máquinas electrónicas de alta velocidad.[6]
Normalmente,
definimos el ordenador como una calculadora electrónica programable por
programas internos. La noción de programa grabado internamente es fundamental,
ya que, como veremos más adelante, es la que encarna la flexibilidad de uso y
el carácter realmente universal de los ordenadores. Ahora bien, la grabación de
un programa sólo es una ventaja técnica si se dispone de una gran velocidad de
cálculo, es decir, a partir de la invención de las máquinas electrónicas. El
ordenador como tal era algo impensable para Babbage. Algunos fragmentos
marginales de los escritos de lady Lovelace (principal colaboradora de Babbage)
han podido interpretarse como alusiones a una posible incorporación de
programas a la máquina analítica. Pero el significado de esta idea en una
máquina dotada de una memoria interna mecánica, es decir, muy lenta, no es
comparable al que tiene para nosotros.[7]
Quien,
sin duda, se acerca mucho más a la invención de la computadora digital es Alan
Turing. Es él quien comprende perfectamente la vinculación de un programa
interno y una gran capacidad para almacenamiento de datos en una máquina de
alta velocidad. Como veremos con más detalle después, fue a raíz de la
publicación de un artículo sobre la imposibilidad de resolver todo problema de
cálculo que ideó la existencia de una máquina universal que fuese capaz de
realizar cualquier función o computación, y no orientada a funciones
específicas como era el caso más corriente. Es importante tomar en cuenta esto,
que el interés inicial de Turing era un problema teórico de resolución mecánica
de problemas de cálculo más que el diseño concreto de computadoras. Desde luego
resulta irónico pensar que la idea de
una computadora moderna surge como experimento mental para establecer lo que
está más allá de toda computación o cálculo efectivo.
Por
otro lado, aunque se viese involucrado en los primeros diseños electrónicos de
computadoras su interés principal era comprender cómo funciona la mente humana
y desarrollar un modelo artificial de la mente humana, lo que con el tiempo se
conocerá como Inteligencia Artificial.
Según Levy, el que se suela asignarles mayor importancia a determinados
pensadores o matemáticos en la invención de las computadoras, como los ya
mencionados Babbage o Turing, podríamos añadir a von Neumann, en detrimento de
las dificultades concretas a las que se enfrentaban los ingenieros a la hora de
construir dichas máquinas y las soluciones aportadas por ellos, es que
predomina una lectura logicista de la
secuencia de hechos históricos que llevaron a su invención concreta.
La
máquina universal de Turing no inspiró a ningún constructor un autómata
concreto. El contexto en que había sido ideada se encontraba demasiado alejado
de los problemas planteados a los inventores de calculadoras de vidrio y metal,
para que pudieran sacarle provecho. A
posteriori solamente, una historia de inspiración logicista pudo citar a
Turing entre los fundadores de la
informática. Como si la isomorfía funcional abstracta entre los ordenadores y
la máquina universal de Turing permitiera extraer una relación condicional de
posibilidad de causa a efecto, o de derivación. Suponiendo una serie de
condiciones idénticas a las reales, sin la máquina universal, los ordenadores
hubieran existido igualmente. Los fundamentos,
de tipo teórico, deben distinguirse de los cimientos,
de tipo genético.[8]
El
punto de vista de Levy nos parece importante para compensar una descripción
histórica claramente sesgada a favor de los lógicos y matemáticos y que suele
dejar de lado a todos aquellos que hicieron importantes contribuciones de
detalle y que tuvieron que enfrentarse a la utilización o no de determinados
materiales en la construcción de esas máquinas, que generalmente eran
competentes mecánicos o ingenieros. Como suele decirse indistintamente, dios o
el diablo está en los detalles. No
siempre es fácil encontrar en una misma persona la comprensión de las bases
teóricas de un invento y tener el ingenio suficiente para realizarlo o ser
capaz de hacer frente a las dificultades concretas que la realización del
diseño de una máquina como la computadora tuvo que sortear. Pero sin ser
expertos en el tema, nos parece que el propio Levy se contradice cuando
reconoce que no puede atribuirse el adjetivo de fundador a Turing y al mismo
tiempo nos invita a diferenciar entre fundamentos teóricos y cimientos
genéticos, lo cual presupone precisamente lo que quiere que neguemos, que sea
un fundador teórico, contradicción que puede entenderse como producto de la
propia ambigüedad del concepto de Informática: ¿ciencia o técnica? Sin duda que la historia de la ciencia o de
la tecnología suele ser mucho más compleja de lo que ciertas descripciones
esquemáticas propias de manuales de texto presentan y que trabajos como el de
Levy permiten equilibrar o compensar el sesgo marcadamente teoreticista o
logicista en este caso. Seguramente una historia que tome solamente en cuenta los materiales utilizados o solamente los ingenieros y mecánicos o solamente los matemáticos y lógicos, será una historia sesgada e
incompleta, así como aquella que solamente
tomase en cuenta factores económicos o
militares.
Siempre
es bueno destruir ciertos mitos que asumimos como verdaderos simplemente porque
han sido transmitidos por generaciones y tomar en cuenta que determinadas
narraciones históricas pueden ser siempre criticadas, mejoradas o
ampliadas. Pero siempre podemos caer en
la tentación de destruir determinados mitos para sustituirlos por otros. Por
eso tampoco debemos negar el peso
específico que algunos pensadores tienen en un campo. Y como veremos en el caso
de Turing, no ha sido precisamente atribuirle meritos que no son propios sino el no haber reconocido suficientemente
sus méritos en algunos casos lo que más nos interesa destacar. Con lo cual no
pretendemos quitarle ni un ápice de verdad ni humor a las ideas de Levy
expresadas en extenso a continuación:
En
este repaso a las distintas formas de narrar la historia de la informática,
llegamos, finalmente, a la presentación teleológica. Según esta versión de los
hechos, el ordenador, tal como lo conocemos actualmente, estaba ya, de manera
solapada, en el punto de mira de todos aquellos que trabajaban directamente o
indirectamente en la mejora de los métodos de cálculo, de los primeros
constructores de ábacos al inventor de los logaritmos. Toda la historia
converge, desde el principio, en el estado actual de nuestras técnicas y de
nuestro saber. No existieron bifurcaciones, opciones ni reinterpretaciones del
pasado encaminadas a la realización de nuevos proyectos. Nuestro presente y,
sobre todo, nuestra forma de entender dicho presente, es una especie de punto
omega que, desde el futuro, orientó el curso de la historia. Los innumerables
riesgos y contingencias que caracterizan a la historia sólo son medios puestos
al servicio de este proyecto. Las circunstancias se ven así despojadas de su
carácter decisivo, de su poder de orientación.
La
frase inicial de la obra de Robert Ligonnière ilustra perfectamente esta
tendencia:
‘La
creación de los ordenadores constituye la culminación de un antiguo sueño,
inconsciente en un principio y posteriormente madurado durante veinte siglos,
en el cual la máquina llevaba a cabo un trabajo intelectual. Esta aventura ha
arrastrado a toda la humanidad, desde las civilizaciones más antiguas hasta el
período contemporáneo, caracterizado por una colección de potentes soluciones
tecnológicas.’
¿Cómo
admitir que el mismo sueño dirigiera
subrepticiamente a un creador chino de ábacos del siglo X, a Nicolas Chuquet, a
Leibniz y a Steve Jobs (fundador de la compañía Apple)? Objetos y conceptos
cambian de sentido en función de los usos a los que los destinan los diferentes
actores. Cada una de las creaciones de la historia del cálculo se enmarcan en
un mundo imaginario, social y técnico determinado. Las propias nociones de
cálculo y de automatismo se han transformado radicalmente desde las maravillas
de teatro montadas por los mecánicos de Alejandría o desde los primeros dameros
aritméticos trazados en las arenas de Egipto. La crítica de las causas futuras
en la historia debería basarse, prácticamente, en los mismos argumentos que la
crítica de la teleología en la teoría de la evolución. No existe ninguna razón
para extenderse en este punto.
Con
la noción de fundación, andamos en busca de una determinación procedente del
pasado, buscamos el punto a partir del cual el futuro queda establecido de una
vez por todas. En la idea de una presciencia del futuro que orienta
solapadamente la actividad de nuestros antepasados hacia un presente en el que
todo converge, creemos haber encontrado el punto fijo, el polo magnético de la
historia. Se trata en el fondo de la fábula del progreso. En ambos casos se
elimina lo indeterminado de la duración, las bifurcaciones imprevistas en las
que se modifica sin cesar el futuro y la contingencia que preside estas
modificaciones.[9]
La
era de la Inteligencia Artificial
Si
alguna era puede representar el mito de Prometeo y el robo del fuego sagrado
como símbolo del conocimiento es la nuestra. Puestos a elegir una imagen de
nuestra era tecnológica avanzada seguramente podríamos elegir la imagen
desgraciada de un hongo nuclear con todas las ideas negativas que lleva
asociadas dicha imagen. Pero otra imagen o logo que representa el desarrollo
exponencial de las tecnologías de información y comunicación o TIC’s –posiblemente
la más representativa- es la manzana mordida de Apple. Existen muchas versiones
sobre el origen de dicho logo: que si representa la manzana de Newton, que si
simboliza la manzana mordida del Paraíso o
la manzana con cianuro mordida por Turing, que si viene por el interés
inicial de Steven Jobs por el cultivo de las manzanas en granjas comunitarias o
por el sello disquero de los Beatles Apple
Records –las dos últimas encajan perfectamente en el perfil
de ejecutivo-hippie que representaba Jobs y las primeras en su cualidad de
“nerd” o “geek”-. La mordida de la manzana, por otra parte, también se ha asociado a la palabra inglesa
“bite”, la cual asociamos a los “bytes”
del lenguaje de las computadoras. Si bien Steve Jobs descartó específicamente
que simbolizara la manzana con la cual Alan Turing se suicidó en 1954, lo
cierto del caso es que si alguien puede simbolizar esta era de cambios
vertiginosos y de fusiones o sinergias entre los campos de la informática y las
comunicaciones es precisamente Alan Turing.
Como
ya hemos mencionado, él tuvo un rol estelar en el diseño de la máquina llamada
BOMB, la cual en definitiva rompería los códigos o mensajes cifrados de la
máquina de los nazis llamada ENIGMA, siendo así una gran aliada de la victoria
final. La BOMBA era una máquina con una tarea bien definida: buscar patrones en
las posiciones de las ruedas de ENIGMA a alta velocidad mediante un sistema de
búsqueda basado en probabilidades bayesianas. . La primera fue bautizada
VICTORY e instalada en 1940 en Bletchey Park, y estaba hecha a base de relés electromagnéticos,
que darán paso a las válvulas
electrónicas o tubos al vacio. La idea
de utilizar tubos al vacio fue de un ingeniero, Thomas Flowers, quien fue
responsable de la construcción de la primera computadora digital
de gran escala llamada COLOSSUS (1943) en colaboración con el grupo de Bletchey
Park, a cuyo mando estaba un matemático de Cambridge, Max Newman[10], antiguo
profesor de Alan Turing y quien lo interesó en problemas de fundamentación de
las matemáticas. Si durante la guerra figuras como Newman y Turing desempeñaron
un papel decisivo, en los años posteriores a la Guerra fueron desplazados en
los puestos directivos por ingenieros, aunque siguieron colaborando en el
desarrollo de otros proyectos pioneros de la informática y la computación
modernas.
El caso de Turing tiene ribetes incluso
trágicos, pues al final (1952) se le juzgó por su homosexualidad, que entonces
era un crimen, y se le dio a elegir entre la cárcel y la castración química
–tratamiento con hormonas. Turing eligió esta última, aunque al final
presionado por el sistema de “inteligencia” británico, que lo veía como una amenaza
de que se filtrase información dadas sus inclinaciones ya ampliamente
conocidas, se suicidó (1954) con una
manzana que contenía cianuro. Varios gobiernos británicos pidieron disculpas
por el trato inhumano al que fue sometido, aunque solamente fue el 24 de
Diciembre de 2013 que la Reina Isabel II promulgó un indulto de delito alguno.
Muchos
de los trabajos que se llevaron a cabo durante la Guerra, e incluso después de ella, estaban protegidos por los
servicios de Inteligencia Británico que colaboraban, por cierto, con los norteamericanos, por lo que no fue
sino mucho tiempo después que se conocieron los avances británicos, mientras
que los avances de los norteamericanos si fueron dados a conocer mucho antes o
fueron ampliamente difundidos. Por ejemplo, la primera computadora equivalente
a COLOSSUS construida en los EEUU dos años después en 1945 fue ENIAC, aunque
por las razones antes expuestas ha solido señalarse como la primera. Otro ejemplo es que se suele hablar de la
arquitectura de von Neumann, la cual todavía se utiliza en la mayoría de las
modernas computadoras, como si él hubiese sido el dueño original de la idea,
cuando lo cierto es que fue Alan Turing, y no von Newmann, el primero que entendió realmente cuáles eran
los componentes fundamentales en la arquitectura de las computadoras. Se dice que
von Neumann mandaba a los ingenieros encargados del diseño de las primeras
computadoras a leer el trabajo seminal de Turing: “On computable Numbers, with
an Application to the
Entscheidungsproblem” (1936), como para que tuviesen una idea de lo que había
que realizar. Este trabajo tenía como finalidad resolver el problema planteado
por David Hilbert de si era posible encontrar un medio mecánico, una función
recursiva o algoritmo que fuese capaz de decidir si una fórmula del cálculo de
primer grado es un teorema o no, es decir, si es una fórmula derivable de los
axiomas básicos del sistema, lo cual fue
reformulado por Turing por medio de la posibilidad de un programa de
instrucciones que tuviese la capacidad de señalarle a una máquina cuándo
detenerse o no, tomando en cuenta que detenerse era sinónimo de haber resuelto
el problema. La respuesta al problema de Hilbert, que hoy se conoce también como
la tesis Turing-Church, fue negativa: no hay tal procedimiento algorítmico o
mecánico de decisión universal. Lo interesante del caso es que para dar dicha
solución Turing utilizó lo que entonces era un simple experimento mental para
hablar de una máquina universal y anticipase con asombrosa precisión el diseño y funcionamiento de las
computadoras modernas. Se suele decir que una máquina de Turing es como un
escribiente que dispone de tinta y papel en cantidad infinita para resolver
problemas en un tiempo infinito.
Por
si fueran poco los logros de Turing como lógico, matemático, criptógrafo o
“hacker oficial”, pionero en el diseño de las modernas computadoras, todavía no
hemos mencionado el campo en el cual sería más destacado y del que ciertamente fue su verdadero fundador,
cuando todavía no se utilizaba el término: la Inteligencia Artificial.
Donde
realmente puede apreciarse el carácter innovador, visionario y original de
Turing es en sus breves ensayos sobre lo que en 1956 sería bautizado por las
siglas en inglés AI o Artificial
Intelligence. El más conocido y único publicado en vida por la revista Mind (1950) fue: “Computing Machinery and
Intelligence”. Los demás, que corresponden a conferencias o discusiones en la
BBC, aparecen, junto con sus demás
escritos, en la excelente recopilación de Jack Copeland (2014).[11]
Si
uno sigue la trayectoria del pensamiento de Turing con cierto nivel de detalle
se encuentra que sus intereses en simular la inteligencia humana o construir
artificialmente un cerebro aparecen ya en la década de los 30 y que todas sus
peripecias futuras están orientadas a la comprensión de la mente humana, a
comprender las bases de funcionamiento de la mente humana. A pesar de que se
suele asociar el enfoque de Turing a una visión de corte reduccionista,
conductista u operacionalista de la mente humana -nosotros hemos cometido ese
error alguna vez[12]-
lo cierto es que Turing sienta las bases de lo que se conoce como el enfoque
cognitivo de la mente humana, el cual representa justamente una alternativa al
enfoque conductista entonces predominante. Creemos que es importante retomar
este punto pues a menudo se ha tomado también el famoso test de Turing, que
precisamente fue superado este año por un programa o software llamado EUGINE que
simula la mente de un joven de 13 años, como si fuese una definición de
inteligencia a secas.[13]
De
hecho, Turing no proponía una definición de ‘pensamiento’ o ‘inteligencia’. Definiciones son expresadas
de forma estándar como condiciones necesarias y suficientes. En su presentación
del test en 1950, Turing enfatizaba que superar el test (produciendo una
conducta que asemejara la conducta intelectual humana) no es una condición
necesaria del pensamiento. Él decía que las máquinas podían ‘llevar a cabo algo
que podemos describir como pensamiento, pero que es muy diferente de lo que un
ser humano realiza.’ Y en su presentación del test en 1952, en una discusión
por radio (con, entre otros, Max Newman), negó explícitamente que estuviese
ofreciendo una definición.[14]
Muchas
de las objeciones contra el test de
Turing asumen precisamente eso: que se trata de una definición de pensamiento o
de inteligencia. Sin embargo, este test tenía un valor heurístico y estaba
orientado al diseño de programas cada vez más sofisticados que fuesen capaces
de simular las capacidades de
comprensión de la mente humana, del cerebro humano, de esa “sopa de potaje”,
como él decía. Él mejor que nadie fue
capaz de anticipar las limitaciones en las que se vería envuelta esta nueva
disciplina. Comprendió los dos enfoques básicos o líneas posibles de
investigación: el enfoque formalista o informacional y el enfoque conexionista
o de simulación/construcción de redes neuronales. También anticipó como nadie
los diversos campos de aplicación: programas de resolución de problemas, sistemas
expertos, programas de juegos como el ajedrez[15],
autómatas o robótica. Entendió lo
novedoso y joven de este campo y la importancia de que las máquinas tuviesen
programas flexibles capaces de modificarse a sí mismos y que fuesen, como los
propios seres humanos, capaces de aprender de sus errores. La idea de máquinas que fuesen capaces de
aprender implicaba también la idea de máquinas que cometiesen errores, lo cual
suele contradecir la idea que solemos tener de una máquina, en particular, de
una computadora. Sabía de la importancia de la búsqueda por medio del azar y
del valor de programas heurísticos que no tuviesen una solución definida y la
importancia de que las máquinas fuesen capaces de mostrar la misma plasticidad
del cerebro humano, ese órgano al mismo tiempo multifuncional y altamente
especializado. Sus últimas
contribuciones fueron en el campo de la biología matemática, donde ya
comprendía la importancia de la aplicación de la computación a la biología como
herramienta para comprender procesos biológicos, mediante un algoritmo
genético, como se llamará después.[16] Como
señala su biógrafo:
Una
figura extraña, que deleitaba y a menudo enfurecía a sus amigos, Alan Turing estuvo
envuelto en eventos mundanos y al mismo tiempo era capaz de preocuparse con una
intensa integridad personal. Al escribir de modo tan sencillo como hablaba, era
una suerte de Orwell de la ciencia; pero su gran capacidad para la frivolidad,
como se ilustra en sus puestas en escena de las discusiones sobre el Test de Turing,
le dieron un puesto de honor en el más ligero y descarado ambiente de la
cultura inglesa. Su vida estuvo llena de paradojas, como que siendo una de las
personas más originales y socialmente inconformes, fuese considerado como uno
de los más famosos abogados del carácter puramente mecánico de la mente humana.
Siendo uno de los más puros espíritus científicos, su aplicación al trabajo de
la guerra ha tenido posiblemente mayor efecto que cualquier otro científico.
Comprometido con la honestidad y la verdad, su vida siempre estuvo envuelta en
el secreto y el silencio.[17]
Bibliografía de consulta sobre Turing:
Charles Petzold: The Anotated
Turing. A Guided Tour through Alan Turing’s Historic Paper on Computability and
the Turing Machine, Wiley Publishing, Inc., Indianapolis, 2008.
Christof Teuscher (ed.): Alan
Turing: Life and Legacy of a Great Thinker, Springer-Verlag,
Berlin/Heidelberg, 2004.
Gregory J. Chaitin: Thinking about
Gödel and Turing. Essays on Complexity, 1970-2007, World Scientific
Publishing, Londres, 2007.
Jack Copeland (ed.): The Essential
Turing: Seminal Writings in Computing, Logic, Philosophy, Artificial
Intelligence and Artificial Life: Plus the Secrets of Enigma, Oxford
University Press, Oxford, 2004.
James H. Moor (ed.): The Turing
Test. The Elusive Standard of Artificial Intelligence,
Springer-Science+Business Media, Dordrecht, 2003.
Robert Epstein & Gary Roberts & Grace Beber (eds.): Parsing the Turing Test. Philosophical and
Methodological Issues in the Quest for the Thinking Computer, Springer,
2008.
S. Barry Cooper & Jan van Leeuwen (eds.): Alan Turing. His Work and Impact, Elsevier, Amsterdam, 2013
Sara Turing: Turing, Centenary
Edition, Cambridge University Press, Cambridge, 2012.
Simon Lavington (ed.): Alan Turing
and His Contemporaries. Building the world’s first computers, British
Informatics Society, Swindon, 2012.
Stuart M. Shieber (ed.): The
Turing Test. Verbal Behavior as the Hallmark of Intelligence, MIT Press,
Massachusetts, 2004.
Notas:
[1] Por cierto ese mismo genial director de cine, guionista y actor
–además de clarinetista-, también señala que no sabe muy bien qué es la
realidad y que él se la pasa la mayor parte del tiempo -y esa es su realidad-
en un plató de cine, es decir, simulando la realidad, remedando o recreando la realidad. Posiblemente evadimos la realidad última,
nuestra condición de mortalidad, por lo que el propio Woody destaca que “no es
que le tenga miedo a la muerte sino que no quisiera estar allí cuando eso
suceda”.
[2] Expresión de Vargas Llosa, pero
que tiene la misma tesitura de un Oscar Wilde cuando se lamenta de la
decadencia de la mentira en el arte y denuncia esa inclinación malsana o
patológica a decir la verdad. Como es bien conocido, invierte la relación de
origen platónico –el arte como imitación de otra imitación- entre el arte y la
naturaleza, y destaca que es la naturaleza la que imita al arte humano. En otros artículos de este blog nos hemos
ocupado de la importancia que tiene la literatura como medio de aprendizaje
moral, siguiendo, entre otros, a Martha
Nussbaum.
[3] Generalmente hablamos despectivamente de la imitación y no tomamos en
cuenta que gracias a ella se producen procesos de aprendizaje estrechamente
vinculados a la adquisición del lenguaje y al desarrollo de la mente humana en
general. Sobre el
particular véase Andrew N. Meltzoff & Wolfgang Prinz (eds.): The Imitative Mind. Development, Evolution and
Brain Bases, Cambridge University Press, Cambridge,
2002.
[4] Ambas películas y sus respectivas actuaciones protagónicas son fuertes
candidatas al Oscar del 2015, así que ya tendremos oportunidad de comentarlas
en extenso. Curiosamente Cumberbatch encarnó hace 10 años el papel de Hawking
en una adaptación del mismo nombre de la BBC para la televisión y que está
siendo repuesta por el canal Film&Arts.
[5] Turing era formalista y le daba gran importancia a los problemas
matemáticos, en particular, a aquellos que involucraban el infinito, mientras
que Wittgenstein consideraba que las matemáticas estaban sobrevaloradas y que
los problemas relativos al infinito estaban simplemente mal planteados si no
podía construirse una prueba o solución satisfactoria, por ejemplo, decidir si
en la expansión decimal de p aparece el número 777. Sin
embargo, en cierto sentido compartían un enfoque externalista de la mente humana. En otra oportunidad nos
ocuparemos de este tema. Por lo pronto reseñamos el excelente trabajo de Diane
Proudfoot: “Robots and Rule-Following” en Jack Copeland (2004). Entre los
papeles de Wittgenstein se encontró el trabajo seminal de Turing sobre los
números computables que seguramente él le hizo llegar y que ya era ampliamente
reconocido en el medio académico.
[6] Aunque cabe señalar que ello no fue óbice para Turing, como veremos
más adelante.
[7] Pierre Lévy: “La invención del ordenador”, en Michel Serres (ed.): Historia de las ciencias, Cátedra,
Madrid, 1991, p. 578.
[8] Ibid. p. 580. La idea de una máquina universal o máquina de Turing es
genialmente sencilla: en lugar de tener distintas máquinas que hagan distintas
operaciones o una máquina para cada función, podemos tener una sola máquina que
haga diferentes operaciones o funciones mediante un programa adecuado para tal
fin.
[9] Ibid. p. 584. El libro al que
hace referencia el autor es Préhistoire
et histoire des ordinateurs: Des origines du calcul aux premiers calculateurs
éléctroniques, La Fontaine, Paris, 1987. En inglés hay un libro que sigue
los mismos pasos, aunque menos ambicioso,
y al que seguramente Levy pondría los mismos reparos, nos referimos a
Martin Davis: The Universal Computer. The Road from Leibniz to Turing, CRC Press, Boca Ratón, 2012. Para conocer
mejor términos técnicos como logicismo,
entre otros, puede consultarse Stewart
Shapiro (ed.): The Oxford Handbook of
Philosophy of Mathematics and Logic, Oxford University Press, Oxford, 2005.
[10] Cuidado en no confundirlo con John von Neumann, el genial matemático
de origen húngaro y niño mimado del establishment norteamericano.
[11] Entre estos documentos aparece la carta que dirigió a Winston
Churchill solicitando mayores recursos para seguir desarrollando el proyecto de
decodificación de los mensajes nazis durante la guerra.
[13] Como se ha señalado la superación del test de Turing es solo una señal
de que se es capaz de llevar otras muchas funciones que implican inteligencia.
[14] B. J. Copeland & D. Proudfoot: “The Computer, Artificial
Intelligence, and the Turing Test” en Christof Teuscher (2004), p. 338.
[15] De hecho la primera formulación del test de Turing consistía en que alguien
pudiese diferenciar entre un jugador de ajedrez y un programa de computadora
diseñada con ese fin. Después introduciría el famoso juego de imitación en que
había que diferenciar entre un hombre y una mujer inicialmente y después entre
una máquina y una mujer, siendo así que en el primer caso el hombre nos haría
pensar que era una mujer y después sería la máquina la que tratase de
engañarnos.
[16] Curiosamente un nieto de Darwin, que era director el laboratorio en
que trabajó Turing después de la guerra, consideraba sus trabajos como
infantiles, lo que demuestra que el genio no se hereda.
[17] Andrew Hodges : “Introductory Biography”
en Christof Teuscher (2004), p. 7.
No hay comentarios:
Publicar un comentario