ACERCA DE LA 'INTELIGENCIA ARTIFICIAL'
(1ª parte)
MARC GARCÍA

"Realiza grandes señales, hasta hacer bajar 
ante la gente fuego del cielo a la tierra; 
y seduce a los habitantes de la tierra con 
las señales que le ha sido concedido 
obrar al servicio de la Bestia" (...). 
Ap 13, 13-14 

Si los cuatro números dobles -con más de mil seiscientas páginas en su conjunto- que la revista SYMBOLOS dedicó al Fin de Ciclo y la ciclología entre 1998 y 2001 se hubiesen publicado hoy, no cabe duda de que el tema de la llamada 'inteligencia artificial' habría ocupado un lugar destacado en ellos. Tema que no es ajeno al empeño de un segmento de la humanidad en remedar al Creador intentando fabricar una 'transhumanidad' con facultades superiores de conocimiento haciendo uso de las tecnologías de la información y la computación.

Este personal, cuyos logros concitan la admiración del público en general, ignora todo lo referente a la Ciencia Sagrada y, por consiguiente, que la inteligencia humana excede la facultad mental de razonar lógico-discursivamente pues las raíces de nuestro intelecto se expanden mucho más allá del estado humano de existencia y de sus indefinidos desarrollos, incluidos los devaneos 'transhumanos'. Clavadas en lo más alto del Ser Universal, por ellas corre una savia nutricia que emana de lo que la tradición hindú denomina Atma, "el principio trascendente y permanente del cual el ser manifestado, el ser humano por ejemplo, no es más que una modificación transitoria y contingente".1 Esa savia es Buddhi, el "Intelecto Superior", el primer grado de la manifestación de Atma y al que muchas veces se simboliza como un rayo que brota del principio del Ser. Aunque es informal y de orden universal, Buddhi pertenece a la manifestación, si bien "sobrepasa el dominio, no solamente de la individualidad humana, sino de cualquier otro estado individual". Es el "principio inmediato pero trascendente" de todos los estados individuales del ser; proyectándose sobre el centro de cada uno de ellos, Buddhi hace que esos puntos se identifiquen, de manera virtual o potencial, con el centro del Ser total y ello conlleva que cualquier estado pueda "ser tomado como base para la realización de la Identidad Suprema".

Es "por su intersección con el dominio especial de ciertas condiciones de existencia por las cuales está definida la individualidad considerada" que Buddhi produce la conciencia individual (ahankara) que "da origen a la noción del 'yo'". De este modo,

la conciencia individual procede inmediatamente, pero a título de simple modalidad 'condicional', del principio intelectual y, a su vez, produce los otros principios o elementos especiales de la individualidad humana,2

uno de los cuales es manas, el "sentido interno" o facultad mental. Se relaciona con manas el pensamiento individual de carácter formal y por tanto el razonamiento, la memoria y la imaginación; pero el "intelecto puro [que] es de orden trascendente y tiene como objeto propio el conocimiento de los principios universales", la intuición intelectual que brinda al ser humano el conocimiento directo o no mediato de la Realidad con mayúsculas en su dimensión suprahumana -o sea, su identificación con ella-, proviene directamente de Buddhi. Siendo así las cosas por más que hoy en día se las desconozca, salta a la vista la inanidad del propósito 'transhumanista' y de la posibilidad de una auténtica 'inteligencia artificial'.

La idea de construir ingenios dotados de una inteligencia semejante a la de los seres humanos es tan antigua como la propia humanidad.3 Este propósito siempre tenía que ver con lo sagrado y lo ritual hasta que con el advenimiento del racionalismo y el positivismo se proclamó, para nuestra desgracia, que la razón individual es la facultad de conocimiento superior del ser humano y que sólo existe lo contable, medible y pesable, excluyendo así lo espiritual y buena parte de lo anímico. Cuando en el oscuro terreno de juego que demarcan estas concepciones profanas aparecen las máquinas calculadoras y más adelante, ya en el siglo XX, los ordenadores electrónicos, se crean las condiciones adecuadas para el desarrollo de lo que hoy se suele denominar por sus siglas, IA (AI en inglés), algo que como hemos visto nada tiene que ver con la verdadera inteligencia.

La historia reciente de la IA arranca de un proyecto que investigadores de varias universidades y empresas americanas formulan en 1955 para sustentar la hipótesis de que cualquier aspecto del aprendizaje humano puede ser descrito con un nivel de detalle suficiente para ser reproducido en una máquina que luego sea capaz de hacer un uso eficaz del 'conocimiento' adquirido en la resolución de distintos problemas. A decir verdad, este ha sido el leit motiv de toda la investigación en IA llevada a cabo durante las casi siete décadas transcurridas. Su meta última ha sido, y sigue siéndolo, crear una IA de propósito general (AGI en inglés), o sea máquinas que tengan una capacidad de razonamiento lógico sobre cualquier cuestión semejante a la que posee la mente humana y que puedan procesar la información, decidir y ejecutar acciones de manera autónoma y a gran velocidad. Ahora bien, la investigación en IA es muy costosa y siempre ha necesitado del apoyo económico de los gobiernos y las grandes corporaciones privadas, que exigen resultados tangibles a cambio de sus subvenciones y rentabilizar sus inversiones; esta es la razón por la que ha prevalecido frente a la investigación en AGI, de resultados inciertos, el desarrollo de IA parciales especializadas en funciones concretas (el reconocimiento de formas en imágenes, la cirugía robótica, la conducción automática de vehículos, la generación de textos, etc.), una estrategia con la que ha sido posible obtener resultados prácticos e impactantes de manera mucho más ágil.

Un elemento clave para el impulso reciente de estas IA de propósito particular ha sido la adopción de los llamados sistemas de computación 'conexionistas', constituidos por una gran multitud de unidades de cálculo interconectadas que procesan informaciones en paralelo, o sea de forma simultánea, para producir un resultado rápido a partir de un estímulo inicial (una pregunta, por ejemplo). Reciben el nombre de 'redes neuronales' porque su arquitectura informática emula el conexionado tridimensional y múltiple de las células que integran el sistema nervioso central de los seres vivos, aunque las 'neuronas' de dichas redes no tienen nada de biológico; son unidades de proceso matemático -chips o zonas de un chip- en las que se llevan a cabo cálculos relativamente simples con coeficientes libres que se ajustan en el 'aprendizaje' del sistema, un proceso que viene a ser, en última instancia, la resolución de un enorme sistema de ecuaciones para determinar los valores óptimos de los parámetros libres, esto es, aquellos con los que se minimiza el error estadístico de las respuestas del modelo. Cuanto mayor es la red neuronal de la IA, mayor es el número de coeficientes a ajustar (las IA de generación de texto actuales utilizan modelos que llegan a los billones de parámetros) por lo que mayor es el número de datos input y output (o preguntas con respuestas conocidas) que hay que suministrar para 'enseñarle', mayor el número de operaciones matemáticas a realizar durante el 'aprendizaje', mayor el consumo de electricidad...4

Como hemos dicho, la semejanza entre el cerebro humano y los sistemas conexionistas que sustentan las actuales IA de propósito particular se limita a la conectividad de sus 'neuronas' entre sí. Salta a la vista que las IA generativas de textos, imágenes o vídeo más populares (GPT-4, Dall-E, Sora, etc.) suelen producir respuestas correctas a las peticiones o preguntas que se les formula -y a una velocidad sorprendentemente elevada-; pero ello no se debe a que la máquina entienda racionalmente lo que se le pide. No puede hacerlo porque carece de la facultad mental necesaria para ello, y tampoco puede entender lo que genera; tan sólo lo parece. El filósofo y lingüista americano John Searle lo explicaba didácticamente con su “experimento de la habitación china”:

Supongamos que yo, que no sé absolutamente nada de chino, me encierro en una habitación donde tengo a mi disposición un conjunto muy completo de reglas, escritas en inglés, sobre cómo manipular símbolos chinos y cómo generar otros símbolos chinos partiendo de estas manipulaciones. A continuación, desde el exterior me proporcionan una serie de caracteres chinos y yo, aplicando las reglas, los transformo en otros caracteres chinos que devuelvo al exterior de manera que estas respuestas son indistinguibles de las que daría una persona de lengua materna china.5

Por supuesto, las "reglas" pueden ser muy sofisticadas en el caso de las IA actuales, que disponen de la ingente cantidad de información indexada6 que se les proporciona para su 'aprendizaje'. Pero de hecho, entre el texto que produce GPT-4 y las sugerencias que proporciona el buscador de Google en su versión clásica pre-IA como respuesta a una misma pregunta, la única diferencia es que la IA seleccionará la información que va a utilizar en su output y nos la ofrecerá refrita en forma de una redacción continua de calidad literaria mediana, claro está, sin comprender qué significa el hilado sintáctico que ha construido.7 Refiriéndose a esta cuestión, Ramón López de Mántaras escribía hace un año en el diario La Vanguardia:

En mi opinión, el excesivo antropomorfismo es el principal motivo de que la sociedad tenga una percepción errónea de la IA. Cuando nos informan de logros espectaculares de una IA tendemos a generalizar y le atribuimos la capacidad de hacer prácticamente cualquier cosa que hacemos los seres humanos e incluso de hacerla mucho mejor. Dicho de otra forma, creemos que la IA prácticamente no tiene límites cuando de hecho es extremadamente limitada y, lo que es muy importante, no tiene nada que ver con la inteligencia humana.

En realidad, lo que tienen los actuales sistemas de IA no es inteligencia sino habilidades sin comprensión en el sentido que apunta el prestigioso filósofo de la ciencia Daniel Dennett en su libro From Bacteria to Bach and Back. Es decir, sistemas que pueden llegar a ser muy hábiles llevando a cabo tareas concretas sin comprender absolutamente nada sobre su naturaleza debido a la ausencia de conocimientos generales sobre el mundo.

Esta incapacidad para entender el mundo imposibilita que sistemas como el mencionado ChatGPT entiendan el significado de los textos que generan. Como dice la experta en lingüística computacional Emily Bender, son "loros estocásticos". Es decir, programas que combinan secuencias de palabras en base a información probabilística sobre cómo se combinan. Información que han aprendido entrenándolos con grandes corpus de texto, pero sin referencia alguna a su significado.

Más concretamente, trabajan detectando patrones en estos grandes corpus disponibles en internet y después utilizan estos patrones para adivinar cuál debería ser la siguiente palabra de una secuencia de palabras. No tienen acceso a los referentes del mundo real que dan contenido a sus palabras. A los diseñadores de estos loros no les importa si generan verdades o falsedades. Solo les importa el poder retórico, engañando a los lectores haciéndoles creer que estos "loros" entienden el lenguaje como lo entienden los humanos.8

A la IA Dall-E se le puede pedir que genere una imagen realista de una persona atravesando una pared sin huecos ni puertas y la producirá sin ninguna objeción porque no entiende qué es una persona -simplemente asocia la palabra persona a un tipo de figura con unos rasgos determinados-, ni qué es una pared ni mucho menos que las personas, debido a su corporalidad, no pueden atravesar las paredes.9 Este tipo de conocimiento sensato surge de lo que la filosofía denomina "sentido común", un saber innato perteneciente a la esfera de manas que poseen todos los seres humanos -o al menos aquellos que han logrado preservarlo en estos tiempos tan duros- por medio del cual es posible decidir correctamente. También llamado "buen juicio", los interlocutores de Sócrates recurren a él para contestar las preguntas que el sabio ateniense hace en los diálogos mayéuticos, conversaciones por medio de las cuales se establecen verdades a partir de la reminiscencia o recuerdo suscitado de ellas.

Un pasaje de la obra de Platón que ilustra muy bien la naturaleza del sentido común como conocimiento innato y la manera como logra conducir a la reminiscencia es el fragmento del Menón en el que Sócrates dialoga con un esclavo que jamás ha recibido enseñanzas de geometría. Sin conocer el teorema de Pitágoras, el esclavo, sometido al escrutinio mayéutico, acaba concluyendo por sí mismo que el cuadrado construido con la diagonal de un cuadrilátero cuadrado tiene una superficie doble a la de éste.10 El diálogo continúa entre Sócrates y Menón, el amo del esclavo:

SÓCRATES. ¿Qué te parece, Menón? ¿Ha dado alguna respuesta que no sea suya?
MENÓN. No; ha hablado siempre por su cuenta.
SÓCRATES. Sin embargo; como dijimos antes, él no lo sabía.
MENÓN. Dices verdad.
SÓCRATES. ¿Estos pensamientos estaban en él o no estaban?
MENÓN. Estaban.
SÓCRATES. El que ignora, tiene, por lo tanto, en sí mismo opiniones verdaderas relativas a lo mismo que ignora.
MENÓN. Al parecer.
SÓCRATES. Estas opiniones llegan a despertarse, como un sueño; y si se le interroga muchas veces y de diversas maneras sobre los mismos objetos, ¿crees que al fin no se adquirirá un conocimiento que será lo más exacto posible?
MENÓN. Es verosímil.
SÓCRATES. De esta manera sabrá, sin haber aprendido de nadie, por medio de simples interrogaciones, y sacando así la ciencia de su propio fondo.
MENÓN. Sí.
SÓCRATES. ¿Pero sacar la ciencia de su propio fondo no es recordar?
MENÓN. Sin duda.
SÓCRATES. ¿No es cierto que la ciencia, que tiene hoy tu esclavo, es preciso que la haya recibido en otro tiempo, o que la haya tenido siempre?
MENÓN. Sí.
SÓCRATES. Pero si la hubiera tenido siempre, habría sido siempre sabio; y si la recibió en otro tiempo, no pudo ser en la vida presente, a no ser que alguno le haya enseñado la geometría; porque lo mismo hará respecto de las demás partes de la geometría y de todas las demás ciencias. ¿Le ha enseñado alguien todo esto? Tú debes saberlo, tanto más cuanto que ha nacido y se ha criado en tu casa.
MENÓN. Yo sé que nunca le ha enseñado nadie semejantes cosas.
SÓCRATES. ¿Tiene o no estas opiniones?
MENÓN. Me parece incontestable que las tiene, Sócrates.
SÓCRATES. Si no ha recibido estos conocimientos en su vida presente, es claro que los ha recibido antes, y que ha aprendido lo que sabe en algún otro tiempo.
MENÓN. Al parecer.
SÓCRATES. ¿Este tiempo no será aquel en que aún no era hombre?
MENÓN. Sí.
SÓCRATES. Por consiguiente; si durante el tiempo que él es hombre y del tiempo en que no lo es, hay en él verdaderas opiniones que se hacen conocimientos, cuando se las despierta con preguntas; ¿no es cierto que en todo el trascurso de los tiempos su alma ha sido sabia? Porque es claro que durante toda la extensión del tiempo es o no es hombre.
MENÓN. Eso es evidente.
SÓCRATES. Luego si la verdad de los objetos está siempre en nuestra alma, nuestra alma es inmortal. Por esta razón es preciso intentar con confianza el indagar y traer a la memoria lo que no sabes por el momento, es decir, aquello de que tú no te acuerdas,
11

algo que por la esencia del sentido común no está al alcance de una IA, por más esmero que se ponga en su desarrollo. A tal respecto, es reveladora esta opinión de un investigador prominente en IA:

Parece que no haya límites en su potencial, pero en realidad la IA está encallada desde hace más de 50 años en una de las cuestiones más fundamentales: ¿cómo dotar a las máquinas de conocimientos de sentido común? Es una cuestión crucial si queremos lograr inteligencias artificiales de tipo general indistinguibles de la inteligencia humana. Hasta ahora, los investigadores en IA no hemos visto que pueda ser resuelto a corto ni a medio plazo.12


(Continuará)

 

NOTAS
1 Ver René Guénon, El hombre y su devenir según el Vedanta. CS Ediciones, Buenos Aires, 1990.
2 Op. cit.
3 Son ejemplos conocidos las estatuas animadas del Asclepios hermético o el Golem de la tradición hebrea. Acerca de este último tema, ver el artículo La Inteligencia en la Cábala de Mireia Valls en el número 66 de la Revista SYMBOLOS (en preparación).
4 Para limitar la duración de estos procesos de cálculo intensivo, las IA emplean hoy en día procesadores gráficos (GPU) como los que usan los videojuegos. Estos tienen una mayor capacidad de proceso y velocidad que las unidades centrales de cálculo de los ordenadores convencionales (CPU), por lo que su desarrollo y venta se ha convertido en uno de los negocios más lucrativos del sector informático.
5 Cita del artículo Minds, brains and programs del autor, publicada en la revista Behavioural and Brain Sciences, vol. 3 (3), Cambridge, 1980. Extraída de Ramón López de Mántaras, 100 coses que cal saber sobre intel.ligència artificial. Cossetània Edicions, Valls, 2023.
6 Es decir, archivada de modo que su recuperación pueda ser extremadamente rápida.
7 Tampoco el buscador de Google comprende la información que proporciona.
8 Ramón López de Mántaras, ChatGPT no tiene nada que ver con la inteligencia humana. La Vanguardia, 16 de marzo de 2023.
9 Se comprende que nos estamos refiriendo al estado ordinario de la existencia humana.
10 En términos matemáticos, 2l2 = l2 + l2= d2, siendo l la longitud del lado del cuadrado y d la de su diagonal.
11 Platón, Obras completas. Edición de Patricio de Azcárate, tomo 4, Madrid, 1871 (disponible en internet).
12 Ramón López de Mántaras, 100 coses que cal saber sobre intel.ligència artificial, op. cit.

 

No impresos
Home Page