Por Hernán Andrés Kruse.-

EN LAS TEORÍAS DE LA MENTE

“La influencia del desafío de Turing no fue exclusivamente sobre el trabajo en la inteligencia artificial; se dio también en teóricos del funcionamiento de la mente humana, quienes propusieron ideas de suma relevancia, como la de arquitectura mental, del filósofo norteamericano Jerry Fodor. Fodor, claro seguidor de la metáfora fuerte, propone la organización funcional de la mente, mediante la siguiente división: transductores sensoriales, sistemas de entrada y sistemas centrales. Los transductores tomarían, en forma pre-conceptual, información sobre los estímulos del ambiente, para pasarla luego a los sistemas de entrada. Estos serían perceptivos y tratarían la información algorítmicamente, enviándola luego a los sistemas centrales (el pensamiento y la resolución de problemas).

Lo más curioso de la tesis de Fodor es la definición que realiza de los sistemas de entrada y de los sistemas centrales: los primeros, responderían a la característica de ser modulares, lo que implica funcionar de forma algorítmica, automática y sumamente eficiente, en un dominio específico y con un tipo de información que no se compartiría con otros módulos. Estos sistemas modulares de entrada reconocerían solamente los estímulos que les es propio tratar y aplicarían procesos formales sobre ellos, de forma súper rápida, eficiente, obligatoria y, de cierta forma, obtusa, ya que harían lo que tienen que hacer, siempre de la misma forma, y lo que es aún más importante, sin que nuestra conciencia tuviese acceso a sus procedimientos, ni pudiese modificarlos; sólo contemplar al resultado del cómputo de información, que llega del ambiente.

Los sistemas centrales, según Fodor encargados del pensamiento y la resolución de problemas, funcionarían bajo las características que este filósofo denomina isotropía y quineanismo, que básicamente se refieren al inconveniente de definir qué información es relevante para aplicar en una situación problemática, o para comprobar una hipótesis dada, y qué información se afecta y modifica después de un proceso de conocimiento. Estas supuestas características del funcionamiento del pensamiento humano (isotropía y quineanismo) guardan preocupante similitud con el llamado “problema del marco”, propio del ámbito computacional, y que según refiere John Tienson fue una de las razones de la crisis de la buena y anticuada inteligencia artificial (BAIA, como la denomina Haugeland). El problema del marco consiste justamente en la extrema dificultad de que una máquina, o su operador, establezca el conjunto de información que se debe considerar antes y durante una acción específica, así como el conjunto de información que se ve modificada luego de algún proceso.

En este punto no es difícil notar cómo el funcionamiento específico de una máquina, y en este caso una restricción procedimental o de implementación, se extrapola de forma tal que se le confieren a la mente humana propiedades y restricciones propias de las máquinas. La propuesta de Fodor ha dado paso a lo que se conoce como arquitecturas mentales post-fodorianas, como las inteligencias múltiples de Gardner, la mente computacional de Jackendoff o la escuela de la modularidad masiva. Estas formas de explicación de la mente, basadas en la metáfora del ordenador, proponen una particular partición de la mente que contempla una gran variedad de componentes, entre los que podemos contar: de lenguaje, visión y musical; perceptivos; de inteligencias de diversos tipos (entre los más conservadores modularmente hablando); o módulos innatos de física, biología y psicología; e incluso, módulos a granel del tamaño de conceptos.

De estas arquitecturas, la propuesta taxonómica de la mente, realizada por Ray Jackendoff, ha sido de particular importancia en la psicología moderna. Consiste, básicamente, en la diferenciación entre mente fenomenológica y mente computacional. En la primera residirían las ilusiones, sensaciones, imaginaciones y la conciencia de uno mismo, mientras que la segunda se encargaría del reconocimiento, comparación, análisis y demás procesos de conocimiento, los cuales estarían por fuera del alcance consciente. Reflexiones de esta índole, sumadas a numerosas investigaciones prácticas en psicología, han llevado a postular un supuesto muy común en las explicaciones contemporáneas sobre la mente, según el cual, la mayoría de los procesos del conocimiento suceden a un nivel no consciente, en ocasiones llamado: inconsciente Cognitivo.

Es así como tenemos que en las teorías actuales sobre la mente se evidencia, cada vez con mayor fuerza, una clara diferencia e independencia entre la mente que realiza los procesos de conocimiento y la mente que comporta la conciencia. Esta última (la conciencia) ha ido perdiendo paulatinamente su relevancia en el terreno del pensamiento (en términos teóricos por supuesto); de hecho, existen teorías como la del filósofo americano Richard Rorty, quien propone el abandono de la investigación y discusión de los conceptos relativos a la conciencia fenomenológica, para centrarse en el estudio neurofisiológico, buscando con ello cambiar la forma intencional de comprender la mente, por una centrada en su constituyente neural; incluso, propone Rorty que así pervivan los términos referentes a la mente fenomenológica (los términos mentalistas propiamente hablando, como: desear, querer o intuir), los estados del sistema nervioso serían suficientes para explicar y entender la actividad humana.

Consideraciones como las precedentes sobre el carácter computacional único de los procesos de conocimiento, la imposibilidad de comprender fenómenos que no sean formulados en términos de cómputos sintácticos sobre representaciones, o la futilidad de los estados conscientes, constituyen un ejemplo de las repercusiones de una extrapolación de concepciones sintáctico-computacionales a la explicación de la mente humana. Esto puede redundar (o degenerar) en teorías confusas sobre los procesos de pensamiento, la voluntad y la esencia del conocimiento; pero, un momento, tal parece que el sencillo juego planteado por Turing ha tenido algunas repercusiones inesperadas; acaso sea menester, hasta donde nos sea posible, plantear las condiciones del tipo de inteligencia que se toma hoy en día como modelo para la explicación de la mente. Ya que hemos llegado hasta aquí, ¿por qué no hacerlo?”

RESTRICCIONES FUNDAMENTALES DE LA INTELIGENCIA ARTIFICIAL

“Ya expuestas las singularidades del tema en cuestión (quizá muy extensamente), mediante la presentación del desafío de Turing, sus consecuencias y posibles respuestas, el contraargumento de la habitación china, las razones de Hofstadter y la alusión al nacimiento y temprano desarrollo de la inteligencia artificial, estamos preparados para tratar el tema que va a englobar la reflexión buscada: las restricciones fundamentales de la inteligencia artificial. Proponemos aquí, las dos siguientes: 1. Imposibilidad ontológica de la identidad de la inteligencia artificial y el pensamiento humano, debido a génesis dispares. 2. Imposibilidad semántica de la identidad de la inteligencia artificial y el pensamiento humano, debido a categorías conceptuales dispares.

CONSIDERACIONES PRELIMINARES SOBRE EL SENTIDO Y EL ENGAÑO

“En relación con el asunto del acceso al significado en la I.A., comenta Searle que “una de las afirmaciones de los propulsores de la IA fuerte [versión fuerte de la metáfora del ordenador] es que cuando yo comprendo una historia en inglés, lo que estoy haciendo es ni más ni menos lo mismo —por lo menos aproximadamente lo mismo— que lo que hacía al manipular los símbolos chinos”. Este presupuesto de los defensores de la metáfora fuerte no es muy atinado, ya que la “ruta” del proceso cognitivo, en el ejemplo de la habitación china, consiste en una conexión directa entre sistemas de entrada y salida, o una conexión que en cualquier caso, no pasa por el “almacén” de significados; y es que ese es un atajo cognitivo no del todo impropio del humano.

Los investigadores en neuropsicología cognitiva Andrew Ellis y Andrew Young refieren posibles conexiones entre lexicones de entrada y salida que obvian el paso por el almacén semántico, ruta tal que si bien en ocasiones es funcional (para la repetición de palabras desconocidas o no-palabras, por ejemplo), puede constituir una patología, de ser el único medio usado para la comprensión o producción del lenguaje. Para decirlo en forma sencilla: el recibir y responder preguntas relativas a una lluvia venidera, en forma coherente e incluso precisa, solo basándose en la estructura de las mismas y no en su significado, no implica considerar el uso de un paraguas en un futuro próximo para evadir el chaparrón. Estamos hablando pues de dos tipos de entendimiento distintos: asociativo y comprensivo; el último abarca al primero, pero no al contrario. Esta cuestión de acceso al significado ha obstaculizado los avances en I.A. de tal forma que se ha considerado dotar a las máquinas de una semántica que analice imágenes y las relacione con estructuras sintácticas, almacenadas en la memoria.

Existe también, en relación con la prueba de Turing, el problema de la máquina engañando, haciendo creer que es un humano; y es que este asunto del engaño no carece de profundidad, ya que presupone la capacidad del que engaña de comprender, en un nivel no necesariamente consciente, que los otros poseen representaciones mentales que son esencialmente distintas a la realidad, y que se basan en éstas para conducirse; en este sentido, las representaciones del que es engañado pueden ser más o menos acordes a la situación, pudiendo por eso conducirlo a equivocaciones en su actuar.

Ángel Rivière refiere la diferencia entre un engaño, digamos automático, como el de algunos animales para despistar a sus enemigos y presas, y uno de tipo táctico. Éste se define por su flexibilidad y su posibilidad de ser adaptado según la situación y las características del que se quiere engañar. El engaño no-táctico, entonces, sería inflexible, predeterminado y no intencional, y sucedería en seres que no poseen la capacidad de reconocer al otro como un ser de experiencia, falible y guiado por sus representaciones mentales del mundo y de los otros; seres que no poseen la capacidad que usualmente se denomina teoría de la mente. Sin intención de entrar en la polémica sobre la ToM, la semántica o el tipo de engaño que implicaría la táctica de una máquina para pasar el desafío de Turing, es obligado hacer notar que hace falta algo más que coherencia sintáctica para poseer pensamiento”.

IMPOSIBILIDAD ONTOLÓGICA DE LA IDENTIDAD DE LA INTELIGENCIA ARTIFICIAL Y EL PENSAMIENTO HUMANO DEBIDO A GÉNESIS DISPARES

“El estudio de la mente y su análisis no se agotan en una visión centrada en las características actuales de la población, representada por unos pocos. Debe considerarse, además, entre otras cosas, la aproximación filogenética; es decir, el estudio de la mente desde presupuestos evolucionistas y de adaptabilidad y progresión como los que han sido defendidos por la escuela conocida como Nueva Síntesis (llamada así debido a su concreción de teorías cognitivas con la teoría evolucionista de Darwin). De acuerdo con las investigaciones de esta escuela, la especificidad genética innata interactúa con las características ambientales haciendo posible la modificación modular. De acuerdo con lo anterior, la mente, incluso, puede haber venido mutando de tal forma que recursos que usamos hoy día en un proceso X, pudiesen ser modificaciones de otros usados originalmente en un proceso Y.

Esta transformación no solo sería filogenética, ya que podría también presentarse en forma progresiva en el transcurso de una vida, mediante, por ejemplo, el proceso que Karmiloff-Smith denomina redescripción representacional. Durante este proceso de cambio conceptual, los formatos representacionales, esto es, las formas en que está representado el conocimiento, van modificándose hasta alcanzar niveles cuyas características constituyentes son disímiles de las de sus predecesores. Desde otro ámbito de la psicología, se afirma que, dependiendo de la organización de un sistema y de la complejidad de sus relaciones, pueden emerger cualidades que no existen por sí solas en los elementos constituyentes de un conjunto; es decir, las relaciones estructurales y funcionales de un conjunto son más que la suma de las características estructurales y funcionales de sus constituyentes. Cuando las cualidades de los componentes interactúan, crean fenómenos que responden específicamente a la dinámica del grupo en que se presentan. En sistemas complejos, es decir, con gran cantidad de componentes y relaciones, los fenómenos resultantes de la interacción de los elementos del grupo pueden generar características definitorias del propio sistema (es siguiendo esta lógica que Searle propone a la intencionalidad como propiedad emergente de la biología humana, y Hofstadter la propone como propiedad emergente de la conformación estructural del organismo).

Desde estos presupuestos (la modificación modular, la redescripción representacional y las propiedades emergentes), el pensamiento podría considerarse como una propiedad emergente del sistema humano en su totalidad, que se ha constituido con el paso del tiempo en lo que es hoy: una cualidad (por nombrarlo de algún modo) que responde a las particularidades del hombre como especie y a las de la historia que ha transitado. Para Hofstadter, las cualidades intencionales serían características que emergerían en la máquina de la complejización de sus relaciones funcionales internas. En este sentido, es oportuno aclarar que si la emergencia de cualidades está basada en las relaciones generales que posee un sistema, la aparición de las características específicas presentes en el humano respondería a un largo y complejo proceso de interacción entre sus constituyentes biológicos, culturales y ambientales (entre tantos otros).

Asimismo, las características que pudiesen emerger de las relaciones de los componentes de las máquinas responderían a las especificidades de su hardware, su ambiente, su historia y, por supuesto, ¡sus creadores! Es en este sentido que el argumento de Hofstadter se queda corto, ya que aun aceptando que la interacción de características en la máquina redundara en la emergencia de propiedades novedosas, no hay ninguna razón para suponer que estas serían idénticas a las que han emergido en los humanos a través de su historia. Señala también Hofstadter: “Lo que pasa además es que los diseñadores humanos van a acelerar el proceso evolucionario al dirigirse en forma deliberada a la meta de crear inteligencia…”. Este hecho implica que en la evolución y génesis de la máquina, a diferencia de la nuestra, la participación de los creadores es clara.

Sería quizá insensato ignorar estos factores preponderantes en la aparición de las propiedades emergentes en las máquinas, que imposibilitan la identidad del pensamiento humano y la inteligencia artificial desde la constitución misma de su esencia. No significa esto que las características que pueda llegar a presentar una máquina, bien sea por su constitución o por la relación compleja de sus componentes, no puedan ser similares en sus efectos o procesos a las humanas; simplemente significa, que no son, o serán, idénticas. Para lograr un repertorio de características mentales iguales a las de los humanos, se requeriría la creación de un ser con características constituyentes iguales a las humanas, y este asunto, por métodos distintos al tradicional, acaso se nos complicase un poco”.

IMPOSIBILIDAD SEMÁNTICA DE LA IDENTIDAD DE LA INTELIGENCIA ARTIFICIAL Y EL PENSAMIENTO HUMANO DEBIDO A CATEGORÍAS CONCEPTUALES DISPARES

“Para Turing, la mejor estrategia que pudiese usar una máquina sería “la de intentar el logro de respuestas como las que naturalmente daría un hombre”; es decir, la máquina debería imitar con precisión la conducta verbal humana (y eventualmente también las acciones). Sin embargo, imitar implica la irrealidad de lo que imita frente a lo imitado; veamos cómo. De acuerdo con Chomsky, existe cierta clase de categorías semánticas innatas, categorías conceptuales predeterminadas en el humano que se etiquetan por medio del lenguaje y significan lo mismo universalmente; aun siendo nombradas de forma distinta por distintas culturas, estas categorías implicarían la existencia de estructuras conceptuales similares en las distintas personas del mundo; de ahí lo que este autor denomina “verdades de significado”.

Estas verdades de significado no dependerían de la experiencia para su constatación, es más, ni siquiera requerirían constatación, ya que oficiarían como pilares categoriales del proceso de adquisición de conocimiento. Esta idea de conocimientos y categorías preestablecidas en la mente es también un presupuesto fundamental para los teóricos de la modularidad masiva, quienes refieren, con amplio apoyo empírico, la existencia de conocimiento (nociones o preferencias) de tipo físico, biológico, psicológico y de otras variadas índoles. Estos conocimientos estarían presentes en los recién nacidos (o en todo caso a tempranísima edad) y constituirían el fundamento para la consolidación del conocimiento. Estos autores afirman, además, que una categoría de conocimiento innata al humano le permite distinguir entre seres animados e inanimados o vivos y no-vivos.

Con base en este principio y en las verdades de significado de Chomsky podemos entender las categorías semánticas de simulación y simulado como dispares, por el hecho mismo, tan evidente que se obvia, de que la simulación por definición requiere lo simulado para existir; su esencia se basa en tratar de ser algo que no es: en aparentar; en otras palabras, la simulación es irreal en el sentido de la realidad de lo que simula: desde estas premisas, la inteligencia artificial representa una fantasmagoría. Aclaremos que bajo ninguna circunstancia estamos en una discusión de términos de cómo calificar lingüísticamente la inteligencia artificial; el punto aquí recae en las diferentes esencias del pensamiento humano y el pensamiento artificial, ocupando distintas categorías conceptuales en la clasificación propia de la mente humana; esto debido, entre otras cosas, a que las génesis de ambas son claramente dispares.

Ahora, aunque esta negación de la identidad entre el pensamiento humano y la I.A. pueda parecer vana, no lo es; téngase en cuenta que pioneros de la I.A., como Allen Newell y Herbert Simon, “escriben que el tipo de conocimiento cuya existencia ellos afirman en las computadoras es exactamente el mismo que el de los seres humanos.”; y no se olvide tampoco de las repercusiones que puede traer, y de hecho ha traído, en la concepción contemporánea de la mente, el forzado parangón entre ésta y una máquina computarizada. Así que si tomar el pensamiento humano por único, o como el pensamiento por antonomasia, resulta ingenuo, lo es también considerar que el pensamiento de las máquinas, en algún tramo de su periplo evolutivo, resulte ser idéntico al nuestro.

La inteligencia artificial llegará con seguridad, si es que no lo ha hecho ya, a superar la prueba de Turing; es de esperar también que se logre simular, de alguna forma, la intencionalidad y la conciencia en cerebros de silicio; pero, aun así, las propiedades de estas máquinas no serán las mismas que las nuestras, ya que entre la complejidad de la interacción de sus componentes constitutivos, se contarán factores distintos a los que cuentan en nosotros; el pensamiento de las máquinas, si quiere llamársele así, va a pertenecer, o pertenece, a categorías primordialmente distintas”.

(*) Leonardo Francisco Barón Brichenall (Universidad del Rosario-Bogotá-Colombia) titulado “el juego de imitación de Turing y el pensamiento humano” (Avances en Psicología Latinoamericana, Volumen 26, Número 2, 2008).

Share