Por Hernán Andrés Kruse.-

El 23 de junio se cumplió el centésimo décimo tercer aniversario del nacimiento de un destacado matemático, lógico, informático teórico y filósofo británico. Alan Turing nació en Paddington, Londres, el 23 de junio de 1912. Entre 1922 y 1926 estudió en la Preparatoria Hazelhurst. Con sólo 13 años (año 1026) ingresó en el internado de Sherborne (Dorset). En dicha escuela ganó la mayoría de los premios matemáticos que se otorgaban. Al mismo tiempo, realizaba por su cuenta experimentos químicos, lo que le valió la reprobación del profesorado, poco proclive a convalidar su independencia. Durante las clases de matemática y física, se enamoró de su compañero Christopher Morcom. Su fallecimiento repercutió profundamente en Turing, quien reemplazó su fe religiosa por un profundo ateísmo. Luego de graduarse en King’s College (Universidad de Cambridge), se trasladó a la universidad estadounidense de Princeton, donde trabajó con el lógico Alonzo Church. En 1935 fue nombrado profesor de esa casa de altos estudios. Su carrera docente se vio truncada a raíz de su procesamiento por su homosexualidad. Se lo acusó por “indecencia grave y perversión sexual”. No hay que olvidar que en ese entonces la homosexualidad era considerada ilegal en el Reino Unido. Convencido de que no había razón alguna por la que hubiera debido disculparse, no se defendió de semejantes cargos y fue condenado. En 1954 (dos años después del juicio) falleció por envenenamiento con cianuro. Se trató de una muerte jamás esclarecida (fuente: Wikipedia, la Enciclopedia Libre).

Buceando en Google me encontré con un ensayo de Leonardo Francisco Barón Brichenall (Universidad del Rosario-Bogotá-Colombia) titulado “el juego de imitación de Turing y el pensamiento humano” (Avances en Psicología Latinoamericana, Volumen 26, Número 2, 2008). El autor analiza la relevante contribución del autor a la inteligencia artificial, conocida como “la prueba de Turing”.

EL JUEGO DE TURING

“En su artículo de 1950 en la revista Mind, titulado “Los aparatos de computación y la inteligencia”, Alan Turing plantea la posibilidad de pensamiento por parte de las máquinas; para esto, se sirve de un juego al que llama Juego de la Imitación. Este consta de tres participantes: un hombre (A), una mujer (B) y un interrogador (C) (que puede ser hombre o mujer). C se encuentra separado de los otros dos jugadores y no puede verlos ni escucharlos; solo los conoce como X e Y; además, solo puede comunicarse con ellos en forma escrita o mediante un mensajero (idealmente con una máquina, para evitar el reconocimiento caligráfico).

El objetivo del interrogador es adivinar quién es el hombre y quién la mujer; el del hombre es inducir al interrogador a hacer una identificación errónea; y el de la mujer es colaborar con el interrogador para que este identifique correctamente quién es quién. El interrogador puede hacer preguntas del tipo ¿Puede decirme X de qué largo tiene el pelo?, a las que los otros dos jugadores pueden responder de la forma que consideren más conveniente y convincente para lograr su cometido; por lo demás, el entrevistador no puede exigir demostraciones prácticas de ningún tipo a los otros participantes. Estas son las reglas del juego; no se especifica tiempo límite ni otras restricciones.

Ya explicado el proceso, Turing plantea los siguientes cuestionamientos: “¿Qué sucederá cuando una máquina tome la parte de A en el juego? ¿Decidirá equivocadamente el interrogador con la misma frecuencia cuando se juega así el juego como ocurre cuando en él participan un hombre y una mujer?”. Estas preguntas reemplazan, finalmente, la pregunta original acerca de la posibilidad de pensamiento en las máquinas. La idea, entonces, es esta: si en el juego, una máquina logra engañar a un interrogador, haciéndole creer que es una mujer o que el otro jugador es un hombre, una cantidad de veces equivalente a la que ocurriría si el juego se diera entre humanos y mayor a la que ocurriría por azar, podría decirse que la máquina en cuestión piensa y, por tanto, que las máquinas pueden pensar.

Es preciso aclarar que Turing no profundiza en las conclusiones que arrojaría el hecho de que una máquina pasara la prueba, por lo menos en el artículo que estamos refiriendo; en ese sentido, parece dejar las conclusiones a juicio del lector. Téngase en cuenta también que la máquina expuesta a la prueba puede eludir preguntas, de cualquier forma, como negándose a responder, guardando silencio, repitiendo respuestas o contestando con otras preguntas; por ejemplo: la máquina podría evitar ser descubierta por su precisión matemática, contestando adrede mal a algunas preguntas de dicha índole.

Para Turing, la mejor estrategia que podría adoptar la máquina para engañar al interrogador, sería “… intentar el logro de respuestas como las que naturalmente daría un hombre”. Para alcanzar tal grado de sofisticación, aclara el matemático, se puede hacer uso de cualquier tipo de tecnología para la creación del aparato que ha de superar el reto. El planteamiento de Turing acerca del juego, la parte fundamental del artículo al que hacemos referencia, ocupa unas pocas líneas, un par de carillas a lo más; el resto del texto está dedicado a responder posibles acotaciones al desafío (como convencionalmente se ha denominado a la prueba).

Revisemos brevemente algunas de estas objeciones, para entender mejor la propuesta de Turing. Según la objeción teológica, el pensamiento es una función del alma inmortal que Dios ha dado a los hombres, pero no a los animales o a las máquinas; por consiguiente, las máquinas no pueden pensar. A esto responde Turing que no podemos “incurrir en la irreverencia de usurpar el poder de Dios de crear almas”, y al final desecha el argumento haciendo alusión a casos del pasado en qué concepciones religiosas estuvieron en contra de un hecho científicamente validado más tarde; no se crea, sin embargo, que Turing cae en el embrollo metafísico de la repartición de almas; simplemente sucede que evita el terreno de la especulación pura.

Otra objeción considerada es la llamada de cabezas hundidas en la arena, según la cual, “las consecuencias de que las máquinas pensaran serían horrorosas”; objeción esta, según Turing, posiblemente hecha por personas que postulan una superioridad humana basada en el pensamiento; en consecuencia, Turing deja ir la objeción, en sus palabras, con tan solo una “nota de consuelo” (es decir, la considera no a lugar).

Una réplica más científica es la objeción matemática, según la cual en cualquier sistema lógico se pueden formular afirmaciones imposibles de probar o refutar dentro de la lógica propia de dicho sistema, a menos que el sistema mismo no sea consistente; esta objeción estriba en el segundo teorema de la incompletitud de Kurt Gödel: ningún sistema consistente se puede usar para demostrarse a sí mismo; es decir, dentro de cualquier sistema lógico se pueden generar afirmaciones imposibles de probar o refutar dentro del propio sistema, a no ser que el mismo sea incoherente (esto es, que haga uso de un lenguaje que no le es propio), ya que no todos los teoremas posibles se desprenderían lógicamente de los axiomas del sistema, obligando al uso de un lenguaje externo para establecer los elementos ajenos.

La respuesta de Turing a esta objeción es tan sencilla como categórica: si bien las máquinas pueden presentar errores de pensamiento y mostrar inconsistencias, los humanos también; en otras palabras, si se pudiesen evaluar todas las ideas de un individuo, éstas no presentarían una total coherencia interna. De hecho, presentarían incoherencias, muchas incoherencias; no obstante, no es esto impedimento para que el sistema cognitivo humano funcione en concordancia con el medio. En el caso del humano, como en el de los sistemas de Gödel, existe la imposibilidad de explicarse totalmente a sí mismo, lo cual, nuevamente, no ha sido obstáculo para que los humanos, y los sistemas, sigan existiendo.

Otra acotación considerada es el argumento de la conciencia de uno mismo. Éste plantea la imposibilidad de que las máquinas tengan auto-conciencia, es decir, que piensen sobre su pensamiento. Turing responde a esta objeción afirmando que los estados de conciencia sólo pueden inferirse mediante la observación de la conducta, ya que es imposible comprobar la existencia de los procesos mentales ajenos. No hacerlo de este modo, equivaldría a un solipsismo, en el que sólo se da por cierto el pensamiento propio.

A estas y otras posibles objeciones contesta Turing; sin embargo, la refutación más conocida al reto del pensamiento maquinal es la del filósofo norteamericano John Searle, publicada en 1980 (cuando Turing ya había fallecido) y conocida como el argumento de la habitación china”.

EL ARGUMENTO DE LA HABITACIÓN CHINA

“En términos generales, este argumento consiste en la reducción del supuesto pensamiento de las máquinas, a un proceso de relacionamiento de símbolos basado en reglas impartidas por un operador. Este proceso no incluiría la comprensión de sentidos y significados, y funcionaría bajo principios meramente sintácticos. Concretamente, este argumento consiste en un experimento mental, perteneciente a una clase de procesos experimentales virtuales de amplia aceptación en el ámbito de la filosofía de la mente. En dicho experimento, nuestro filósofo se imagina a sí mismo encerrado en un cuarto, en el que se le entrega un manuscrito en chino (idioma que no comprende en absoluto); luego, se le da otro manuscrito, también en chino, junto a una serie de instrucciones escritas en inglés que correlacionan el manuscrito entregado en primer término con el que se entregó después (los dos en chino); a continuación, se le entrega un tercer juego de símbolos en chino y otras instrucciones en inglés que permiten correlacionar este último manuscrito chino con los dos manuscritos anteriores (con base en la forma y obviando el significado).

Con toda esta documentación, el filósofo de la habitación china es capaz de aparentar el conocimiento de variados asuntos que le son consultados, así como el conocimiento del idioma chino (entregando determinado manuscrito cuando se le presenta otro); es decir, relacionando juegos de símbolos que no conoce, mediante instrucciones que sí conoce (ya que se dieron en inglés). El filósofo en la habitación hace parecer que conoce los temas que se le consultan, y el lenguaje en el cual le son consultados.

Veámoslo un poco más detalladamente: las instrucciones en inglés, perfectamente entendibles para Searle (quien, no olvidemos, se ha confinado él mismo en la habitación), equivaldrían al programa de un computador. Estas indicaciones le permitirían, al hombre o a la máquina, correlacionar lo que para un observador externo (hablante del chino) sería una serie de preguntas y respuestas lógicas, coherentes y acertadas (en forma de intercambio de manuscritos). El observador externo (quien no ve los escritos, la traducción ni los demás papeleos) no tiene forma de saber que quien da contestación tan acertada no tiene ni idea de qué está hablando (ya que simplemente correlacionó símbolos, sin comprenderlos). Aún más, un conjunto de jueces que realizasen preguntas en inglés y chino, y recibieran respuestas correctas en ambos idiomas, podrían deducir que un mismo proceso de pensamiento subyace a ambas.

El quid del planteamiento de Searle en contra de la posibilidad de pensamiento en las máquinas, es la falta de intencionalidad del mismo. La intencionalidad se ha considerado tradicionalmente como un rasgo definitorio de los procesos mentales, y tal cual fue definida por el filósofo alemán Franz Brentano en el siglo XIX consiste en el hecho de estar dirigido a algo; es decir, ser acerca de algo. Las manipulaciones formales de símbolos realizadas por las máquinas no poseerían intencionalidad, ya que la base de su organización sería la forma, y no el significado; o lo que es igual, los procesos realizados por una máquina no estarían dirigidos a algo, no serían acerca de nada. Según Searle, los humanos, por el contrario, realizamos manipulaciones sintácticas de símbolos y, además, tenemos acceso a su significado. Para este filósofo de la mente, los humanos somos máquinas exponentes de programas de computación, manipulamos símbolos formalmente y, aun así, podemos pensar. Las computadoras no tienen intencionalidad y, por ende, no piensan. La intencionalidad de los humanos deviene de su biología, y las entrañas de nuestros aspirantes a seres pensantes no poseen tal característica”.

A LA DEFENSA DE TURING: EL PREDICAMENTO DE LAS MÁQUINAS Y LOS HURACANES SIMULADOS

“Iniciando la década de los 80, el matemático y físico estadounidense Douglas Hofstadter defendió la posibilidad de pensamiento en las máquinas, en un escrito en forma de conversación (virtual, como el argumento de la habitación china) titulado “Temas metamágicos bizantinos. El test de Turing: Conversación en un café”. En esta conversación hipotética, toman parte tres personajes igualmente hipotéticos: Sandy, estudiante de Filosofía; Pat, estudiante de Biología; y Chris, estudiante de Física. Estos camaradas discurren alegremente entre sí, dejando de a poco emerger las ideas de Hofstadter en defensa del pensamiento de las máquinas, las cuales podemos caracterizar así: Para Hofstadter: desear, pensar, intentar y esperar (procesos considerados tradicionalmente como intencionales), son características que emergerían de la complejización de las relaciones funcionales de las máquinas.

Refiere también, este teórico de la mente, que los computadores se han considerado tradicionalmente como objetos fríos y cuadrados, y que acaso, si esto cambiase, se facilitaría la concepción de la inteligencia artificial, y las máquinas podrían evocar en las mentes humanas “trazados de luz danzantes más bien que palas de vapor gigantescas”. Refiriéndose al estatus del pensamiento artificial como simulación del pensamiento humano, Hofstadter entiende la simulación como equivalente a lo simulado. Para establecer este punto, se vale como ejemplo de la simulación computarizada de un huracán, la cual considera como una suerte de huracán real que modifica las relaciones existentes dentro del programa, damnificando a los unos y ceros: habitantes binarios de la simulación. Se lee en el texto: “En el caso del huracán simulado, si observas la memoria de la computadora con la esperanza de ver cables rotos y demás, tendrás una desilusión. Pero mira el nivel correcto (…) Verás que se han roto algunos lazos abstractos, que han cambiado radicalmente algunos de los valores de las variables y muchas cosas más. Aquí tienes tu inundación…”.

Evidentemente, el análisis de Hofstadter se da en un nivel abstracto, ya que si bien no afirma que el simulacro de un huracán es idéntico a un huracán real, sí ubica, usando una expresión propia del ámbito filosófico, la “huracaneidad”, en los efectos del fenómeno y la coherencia de sus componentes; es decir, la esencia del huracán no estaría en sus componentes físicos, sino en sus efectos dentro de las restricciones específicas del marco en que se desarrolla. Se simularía pues la esencia de lo simulado, lo cual significa, extrapolando, que la esencia del pensamiento habría de ser el proceso que lo subyace: el cómputo matemático. Al final, no interesaría tanto el medio en el que, y mediante el cual, se realiza la operación, sino la operación misma.

Este tipo de razonamiento corresponde a una corriente filosófica conocida como funcionalismo, la cual fundamenta la ciencia cognitiva presentando los fenómenos mentales en función de sus roles causales, sin depender de un constituyente físico (no confundir con el funcionalismo de James). Dicho de otra forma, no importa si se es un computador o un humano; para el funcionalismo, la esencia del pensamiento radica en el proceso del mismo y no en su sustrato físico. Son palabras del texto de Hofstadter: “Yo diría que el que tú hagas depender de mi cuerpo físico la evidencia de que soy un ser pensante es un poco superficial”.

Es evidente, en este postulado, una objeción fundamental al argumento de la habitación china (en el que la intencionalidad del pensamiento emerge del sustrato biológico del organismo). Para Hofstadter, al igual que para el filósofo de la mente Jerry Fodor, la intencionalidad del pensamiento existe; pero responde a la complejidad de las relaciones funcionales del ser pensante, sea este, máquina o humano. Según la lectura que el lingüista Ray Jackendoff hace de Hofstadter, el planteamiento de este implica que si un computador puede alcanzar un alto grado de complejidad, la conciencia emergerá de alguna forma milagrosa. Al igual que para Turing, para Hofstadter, la forma de constatar que los otros piensan es mediante la observación de los hechos externos: sus acciones. Esta sería evidencia directa; el resto (preguntarles, por ejemplo), sería evidencia indirecta y por tanto sospechosa.

De no confiar en el método de observación externa caeríamos en un solipsismo; en términos de Hofstadter: “… la gente acepta que el prójimo tiene conciencia tan sólo porque hay un monitoreo exterior constante sobre los otros, lo cual en sí se parece mucho al Test de Turing”. En consonancia y según Fodor: “… no podemos tener nunca razones para suponer que los predicados mentales se puedan aplicar a personas distintas de nosotros mismos”. Como consecuencia de lo anterior, el conocimiento de los estados mentales de los otros es sólo probable; la única forma de acercamiento es mediante la conducta.

Una de las razones de esta tesis, es validar la existencia de pensamiento, sin la presencia de procesos “internos”, basándose sólo en la conducta observable. De esta forma, en el caso de la habitación china, los observadores externos podrían concluir que se está produciendo un proceso legítimo de pensamiento, tan solo considerando la naturaleza y relación de las preguntas y respuestas, sin importar qué clase de proceso se dé dentro de la habitación. En cuanto a la ausencia de una estructura biológica, subyacente al pensamiento maquinal, se plantea Hofstadter la posibilidad transicional entre un nivel físico y uno biológico, en el sistema constituyente del organismo; en este sentido, los hombres seríamos máquinas y la base biológica de nuestra humanidad sería una serie de procesos físicos que bien podrían ser emulados por otra máquina; de esta forma, al igual que mediante la complejización de procesos formales, también podría emerger la intencionalidad.

En todo caso, en el artículo que estamos refiriendo, Hofstadter no profundiza en las particularidades de su proceso de transición entre el nivel biológico y físico en los humanos, lo cual, junto a su planteamiento de las características conscientes-emergentes, y la posible identidad de la simulación y lo simulado, basada en presupuestos funcionalistas, constituye su defensa de la posibilidad del pensamiento artificial. No obstante, la posibilidad total, o la imposibilidad absoluta del pensamiento artificial, no son la única forma de contestar al desafío de Turing; pasemos ahora, a considerar otras opciones”.

POSIBLES RESPUESTAS AL DESAFÍO DE TURING

¿REALMENTE, PUEDEN PENSAR LAS MÁQUINAS?

“Ángel Rivière, psicólogo madrileño, refiere cuatro respuestas al desafío de Turing, en sus Objetos con mente. La primera es simple y llanamente: No, las máquinas no pueden pensar (que sería acorde al argumento de la habitación china); la segunda, considera totalmente posible el pensamiento en las máquinas y lo ubica en la misma categoría del pensamiento humano (consonante con el argumento de Hofstadter); la tercera, implica aceptar el desafío de Turing como una metáfora y, por tanto, menguar de alguna forma la rigidez de una pretendida identidad entre el pensamiento humano y el maquinal, haciendo brumosa la frontera entre estos y aprovechando la analogía para el estudio de la mente humana. La cuarta respuesta corresponde, en palabras de Rivière, a una posición matizada ante el desafío, en la cual se considera a la mente como un sistema de cómputo, pero no del tipo que propone Turing, sino como un sistema acorde a ciertas propiedades específicas del sistema nervioso humano.

Consideremos un poco más de cerca las tres opciones que admiten la existencia de inteligencia artificial. La aceptación total de la posibilidad de pensamiento artificial, versión fuerte de la metáfora del ordenador o paradigma de cómputos sobre representaciones, busca la explicación del conocimiento en general, profesando la identidad del pensamiento hombre-máquina y radicando su fundamento en operaciones formales sobre símbolos (de ahí la acepción de paradigma de cómputos…). De acuerdo con esta línea teórica, el pensamiento podría identificarse con un tipo de estructura compleja algorítmica, que permitiría la resolución de problemas abstractos y cotidianos. Para alcanzar sus objetivos, los defensores de la versión fuerte de la metáfora del ordenador se valen del “modelado computacional”, el cual consiste, grosso modo, en programar una máquina para que realice procesos de conocimiento comunes en las personas; sin embargo, para lograr esto, no se circunscriben a las restricciones psicológicas características del sistema cognitivo humano, por lo cual, igualar o mejorar el proceso o el resultado mediante artilugios informáticos, les viene bien.

La aceptación restringida de la posibilidad de inteligencia artificial, versión débil de la metáfora del ordenador o paradigma del procesamiento de información, busca explicar el conocimiento psicológico en específico, sin la pretensión de generalizar su teoría a la cognición en general. Así como los teóricos de la metáfora fuerte hacen uso del modelado computacional, el paradigma del procesamiento de información se sirve de la simulación, la cual, si bien busca implementar procesos de conocimiento en máquinas para develar el funcionamiento cognitivo, respeta las restricciones psicológicas y se sirve de estudios de la actuación humana, esto es, de teorías psicológicas (método tal que es obviado por el paradigma de cómputos sobre representaciones). Esta forma de entender la inteligencia artificial se constituye como una influencia teórica contundente en la psicología cognitiva contemporánea.

La cuarta opción ante el desafío de Turing, que considera las especificidades del sistema nervioso humano en la investigación de los procesos de conocimiento, se conoce como conexionismo, y goza de buena reputación en el ámbito científico moderno. A diferencia del tradicional procesamiento de tipo serial (en serie), el conexionismo se ha caracterizado por postular un manejo de información simultáneo y paralelo, lo que implica la posibilidad de realizar varios procesos al mismo tiempo, e incluso varias fases de un mismo proceso en simultáneo. Diferenciándose aun más de las teorías anteriormente citadas, el conexionismo no se basa en representaciones simbólicas, sino en patrones de activación en redes de nodos (que equivaldrían en manera aún algo confusa, a las neuronas). De acuerdo con lo anterior, se busca una síntesis equilibrada entre procesos operacionalizables computacionalmente y características conocidas del hardware humano, es decir, su biología.

Ya referidas algunas de las posibles respuestas al desafío de Turing, continuemos con los efectos que el reto del matemático causó en la comunidad académica.

ESTIBADORES VIRTUALES, PARANOICOS APARENTES Y OTRAS PARTICULARES CONSECUENCIAS DEL DESAFÍO DE TURING EN EL DESARROLLO DE LA INTELIGENCIA ARTIFICIAL

“En este punto nos es imposible proseguir, sin una definición de inteligencia artificial (I.A.), así que brindaremos la siguiente: la I.A., consiste en producir, en un ente no-humano, y ante un estimulo especifico, una respuesta que al ser dada por una persona, se consideraría inteligente. Es esta definición sencilla, práctica y usual, la que nos hacía falta. En cuanto al albor de esta disciplina (la I.A.), señalaremos que estuvo nutrido por diversos saberes, entre los cuales resaltan la teoría de la comunicación, de Claude Shannon, que vio la luz pública en 1948; la teoría cibernética, de Norbert Wiener, de la década del 40; los estudios psicolingüísticos, liderados por Noam Chomsky, académico de creciente relevancia a partir de mediados del siglo pasado; y en gran medida, por el desafío de Turing; el cual, según algunos teóricos, constituye el nacimiento mismo de la inteligencia artificial.

Ya sea que adoptasen la versión débil o fuerte de la metáfora del ordenador, varios científicos se vieron muy influenciados por el planteamiento de Turing, entre ellos, los pioneros de la inteligencia artificial: John McCarthy, Marvin Minsky, Allen Newell y Herbert Simon (todos investigadores norteamericanos), quienes se reunieron en 1956 en el Simposio de Dartmouth (que constituye un hito en la creación de la I.A.), En este encuentro se discutió sobre las bases de la nueva ciencia, y se acuñó el término “inteligencia artificial”. También en 1956, durante el Simposio sobre la teoría de la información, Newell y Simon presentaron su “máquina de la teoría lógica”, bautizada Johniac, la cual realizó con éxito la resolución de uno de los teoremas, que ya habían sido resueltos por Alfred Whitehead y Bertrand Russell; sin embargo, aunque el teorema fue resuelto en forma más elegante que la de Whitehead y Russell, según refiere Gardner, no se aceptó su publicación, debido a la autoría robótica.

Con base en los planteamientos expuestos y las conclusiones alcanzadas durante estos encuentros, en épocas subsiguientes se creó software computacional que realizaba interesantes y curiosas labores, del cual se suele destacar: el programa Eliza, realizado en la década del 70 por el científico alemán, recientemente fallecido, Joseph Weizenbaum. Dicho programa consistía en la simulación (o parodia) de un terapeuta de corte rogeriano; el SHRDLU, de Terry Winograd, desarrollado por la misma época que el Eliza, se dirigía, mediante un reducido número de órdenes por escrito, a un acomodador de figuras geométricas, en un pequeño mundo virtual de bloques; y por supuesto, el inquietante Parry: paranoico aparente, profundamente consternado por la mafia y las carreras de caballos, escrito (es decir, creado como programa) en los tempranos 70, por el psiquiatra norteamericano Kenneth Colby.

El funcionamiento de estos programas, Parry y Eliza en específico, no era en ningún sentido misterioso. Entre las acciones para las que estaban programados, conocidas como proceso de comparación de patrones, estaba la de detectar palabras específicas en las oraciones, y contestar, tomando la primera de una lista de respuestas predeterminada; estas respuestas estaban asociadas en forma coherente con la palabra elegida, o consistían en una simple transformación sintáctica de la frase de entrada. La frase con que se respondía era ubicada luego al final de la lista, de forma tal que se agotase determinado número de respuestas, antes de repetirse. Parry, por ejemplo, emitía una respuesta acalorada cuando detectaba una increpación de paranoico en la charla de su interlocutor. Estos programas también podían transformar pronombres tales como tú o mí, en yo o tú, respectivamente, así como modificar la sintaxis de la oración entrante, para crear, mediante la oración de salida, una ilusión de entendimiento.

Eliza, por su parte, retenía frases encabezadas por mío o mí, escritas por el interlocutor, las etiquetaba, y las usaba luego, tomándolas como frases de contenido especialmente significativo para los pacientes (de acuerdo con la programación del operador, claro está). Para los casos en que no se detectaba un patrón específico al cual contestar, contaba Eliza con frases de cajón como: “¿Qué te hace pensar eso?” (si acaso el lector se ha visto interesado por una conversación de este tipo, no hace falta más que navegar en la red, en donde se encuentran disponibles al público diversas versiones de estos programas).

Aunque el proceso de funcionamiento de los primeros programas de I.A. no es ningún arcano, el desempeño de los mismos resulta desconcertante y atrayente, pero causa aún más desconcierto todo el asunto de la creatividad en las máquinas. Considérese que varios autores de la psicología de la creatividad, como Howard Gardner, Robert Weisberg y Margaret Boden, comparten algo conocido como la concepción “más de lo mismo”, la cual consiste en el planteamiento de que no hay nada especial o místico en el trabajo creativo de la mente humana, sino más de lo mismo, de los procesos que utilizamos habitualmente. En este sentido, no es de extrañar que existan programas que realicen obras de arte pictóricas, musicales o literarias; programas que descubran leyes científicas, e incluso, uno que otro que publique un artículo (todo esto avalado por el ámbito al que pertenecen las creaciones).

Para la muestra, un botón. He aquí las primeras líneas, respetando el idioma vernáculo, del libro de prosa y poesía, de Racter (abreviación de raconteur, término galo para narrador de cuentos): programa de inteligencia artificial creado por William Chamberlain y Thomas Etter, quienes le atribuyen la autoría del escrito: “At all events my own essays and dissertations about love and its endless pain and perpetual pleasure will be known and understood by all of you who read this and talk or sing or chant about it to your worried friends or nervous enemies”.

Con respecto a la creatividad en la inteligencia artificial, el investigador croata Mihály Csikszentmihalyi señala que a los computadores les es dada la información y las variables específicas por parte de los científicos; que esta información sirve como pábulo de sus creaciones, y que esto no sucede en la vida real. Por el contrario, algunos autores consideran que la creatividad es un proceso no exclusivo de los humanos, e incluso consideran que las creaciones artísticas computacionales zanjan otro tanto la brecha que aleja a los hombres de las máquinas; al respecto, afirma la investigadora en inteligencia artificial Margaret Boden que la creatividad computacional no amenaza nuestro auto-respeto, ya que el hecho de compartir procesos no termina por igualar a los seres que los realizan”.

Share