(2ª parte) |
|
Decididos a emular la capacidad de razonamiento del esclavo de Menón,1 unos investigadores franceses desarrollaron en los años 70 un lenguaje de programación lógica (al que denominaron Prolog) para que un ordenador pudiese realizar inferencias según las reglas de la lógica formal y de este modo responder a cierto tipo de preguntas. Si escribimos en dos líneas de código de Prolog "Todos los humanos son mortales" y "Sócrates es un ser humano", a la pregunta "¿Es Sócrates mortal?" la máquina sabrá responder afirmativamente sin que el programador le haya suministrado el dato de que Sócrates es mortal. Aunque esta respuesta no procede de un razonamiento inteligente, claro: se trata solamente de una aplicación mecánica de la regla de inferencia inherente a Prolog en base a los dos datos-premisa introducidos con anterioridad.2 Es evidente que si se codifican muchísimos más datos-premisa, el ordenador será capaz de responder a partir de ellos a muchas más preguntas y más diversas;3 pero nunca podrá reproducir el razonamiento humano sustentado en la anamnesis, el recuerdo de un saber que, por hallarse en el olvido hasta el instante del acto inteligente, no puede ser 'codificado' a priori (el esclavo de Menón no es capaz de exponer formalmente la relación geométrica que existe entre los lados y la diagonal de un cuadrado porque cree desconocerla, pero el razonamiento mayéutico lo conduce a aplicarla correctamente y a extraer de ella la conclusión adecuada). Los desarrollos con Prolog han permitido construir programas que no sólo deducen (p. ej.: "Ha llovido. ¿La calle estará mojada?" Respuesta del ordenador: "Sí"), sino también formulan hipótesis plausibles para explicar un hecho observado (p. ej.: "La calle está mojada. ¿Porqué?" Respuesta: "Quizás porque ha llovido, o porque han regado, o..."). Es curioso que los sistemas basados en programación lógica dispongan de tal facultad especulativa pero no así los modelos conexionistas más recientes como GPT-4, que son admirados como lo más de lo más. Por cierto, esta especie de entusiasmo generalizado con las IA de último grito recuerda mucho al embelesamiento de la Europa de finales del siglo XIX con un caballo supuestamente inteligente que se llamaba Hans.
Wilhelm Von Osten, profesor de matemáticas retirado y entrenador de Hans, sostenía que su caballo podía razonar y quiso demostrarlo con una gira mundial. El asunto alcanzó tal envergadura que fue objeto de investigación en Alemania por parte de una comisión oficial, la cual, tras múltiples sesiones de escrutinio, concluyó que los métodos empleados por Von Osten se asemejaban a "la enseñanza en la educación básica" y que "eran dignos de estudiarse científicamente". Pese a esta venia oficial, dos de los miembros de la comisión siguieron estudiando el asunto por su cuenta y acabaron cayendo en la cuenta de que el caballo rara vez acertaba cuando el entrenador no sabía la respuesta o bien cuando éste se encontraba muy lejos del animal. La conclusión a la que llegaron –que más tarde fue corroborada– es que "la postura del interrogador [Von Osten], así como su respiración y expresión facial, cambiaban sutilmente cuando los golpeteos de Hans alcanzaban la respuesta correcta, lo que lo hacía parar justo en ese momento".5 Seguramente nadie se acordaba del caballo pretendidamente inteligente pocos años después, pero cabe que la propaganda global de las IA conexionistas nos acompañe hasta el final de nuestro ciclo intentando hacernos creer una y otra vez que son sistemas autónomos, inteligentes y fiables cuando no son ni lo uno ni lo otro ni lo siguiente. Del mismo modo que Clever Hans lograba un alto porcentaje de respuestas acertadas gracias a la mediación sutil de su entrenador, las IA consiguen reducir sus errores de bulto, eufemísticamente denominados 'alucinaciones', gracias al crowdsourcing,6 una inmensa legión invisible de trabajadores con sueldos irrisorios y condiciones laborales deplorables que son contratados para efectuar tareas repetitivas como etiquetar miles de horas de datos para el entrenamiento de los modelos, eliminar de tales datos los contenidos engañosos o dañinos y filtrar las respuestas incorrectas o sesgadas de los sistemas. Valga como ilustración de tales trabajos y de lo que suponen para quienes los desarrollan la información aparecida en diversos diarios españoles en octubre de 2023:
O sea que el engaño siempre está rondando a las IA, siendo consustancial a su historia y a su desarrollo. Muchas veces es considerado como algo a evitar, pero otras que se diría que se fomenta. En 1966, Joseph Weizenbaum construyó un programa informático al que llamó Eliza "para simular, en forma de parodia, la interacción de un terapeuta (un Chat Bot) dando conversación al usuario a través de preguntas preconfiguradas, diseñadas para mantener un diálogo básico entre el usuario y el Chat Bot".
Cincuenta años después de la aparición de Eliza, en 2016, se lanzó Replika.com, "un chatbot comercial diseñado específicamente para convertirse, sí o sí, en un amigo, en un acompañante e incluso en un amante virtual.9 Algo que, aunque no sabe lo que está diciendo, 'aprende' del usuario a medida que éste le cuenta sus cosas".10 Y hace apenas unos meses, Open AI, la empresa desarrolladora de los modelos de lenguaje GPT (cuyo funcionamiento, recordémoslo, se basa en la ingesta de enormes cantidades de texto de distintas fuentes –entre ellas todo lo que se publica en internet a excepción del volumen limitado de aberraciones que alcanzan a detectar y a eliminar los sufridos esclavos invisibles del crowdsourcing– con el fin de hallar patrones que sirvan para predecir la siguiente frase o término en una oración, sin la más mínima comprensión del texto generado por parte de la máquina)11 presentó GPT-4 Omni, o abreviadamente GPT-4o, un nuevo modelo que "interactúa a partir de imagen y voz y responde al instante, con la velocidad de un humano, de una forma aparentemente indistinguible de una persona".
Para muchos de nuestros contemporáneos, "si 'vemos' que un programa nos pregunta y contesta como un ser humano tendemos a pensar que detrás de ese programa hay alguien como nosotros",13 y por consiguiente se dará crédito a lo que cuenta. Pero las IA de generación de lenguaje abrevan para su entrenamiento en casi todo lo que se ha publicado en nuestro mundo, incluidos los muchos engaños y falsedades que los equipos de crowdsourcing no alcanzan a filtrar, por lo que a los sistemas, de facto, también se les está enseñando a mentir. Un estudio reciente del Massachussets Institute of Technology titulado El engaño de la IA: un estudio de ejemplos, riesgos y posibles soluciones ilustra cómo "los grandes modelos lingüísticos y otros sistemas de IA ya han aprendido, gracias a su entrenamiento, la capacidad de engañar mediante técnicas como la manipulación, el servilismo y las trampas en las pruebas de seguridad".
Los autores del estudio agrupan los "riesgos derivados de que los sistemas de IA induzcan sistemáticamente creencias falsas" en tres bloques:
Quizás nos dediquemos en otro momento al tema de las regulaciones que están surgiendo en Europa y en otros lugares para hacer frente a estos peligros derivados del desarrollo sin normas de las IA comerciales, pero desde ya avanzamos al lector nuestro escepticismo acerca de la eficacia de los textos jurídicos mencionados. La mejor defensa ante las mentiras construidas y diseminadas por los sistemas de IA va a seguir siendo nuestro sentido común,16 como han evidenciado los ciudadanos de la ciudad norteamericana de Cheyenne en las pasadas elecciones municipales.
(Continuará) |
NOTAS | |
1 | Ver la primera parte de nuestro trabajo. |
2 | Ver: Jorge Izquierdo, Inteligencia Artificial etcétera. El Garaje Ediciones, Madrid, 2024. Al ordenador le consta, por las informaciones introducidas, que Sócrates es humano y que los seres humanos son mortales, pero por supuesto no entiende qué es ser mortal, ni qué son los seres humanos ni quién es Sócrates. |
3 | Esta ha sido una de las líneas de investigación en la que IBM ha invertido grandes esfuerzos. Desde el año 2011 dispone de una aplicación informática denominada Watson –suponemos que medio en joda–, escrita principalmente en lenguaje Prolog, que es capaz de responder a múltiples preguntas formuladas en lenguaje natural. La información de base que emplea Watson proviene de fuentes tales como enciclopedias, diccionarios, artículos de prensa, etc. Ver Jorge Izquierdo, op. cit. |
4 | Kate Crawford, Atlas de IA. Ned Ediciones, Barcelona, 2023. |
5 | Op. cit. |
6 | La traducción de esta palabra es algo así como "externalización de trabajos a multitudes". |
7 | Marta Sánchez Iranzo, Más de 400 moderadores de Facebook en Barcelona, de baja por las atrocidades que revisan. El Nacional.cat, 6 de octubre de 2023. |
8 | Jorge Izquierdo, ibid. |
9 | Este es precisamente el argumento de la película Her de 2013, cuyo protagonista (Joaquin Phoenix) se acaba enamorando perdidamente de un sistema operativo llamado Samantha que se comunica con el pobre usuario con la voz de Scarlett Johansson, actriz que en el film pone voz al sistema. |
10 | Ibid. |
11 | De hecho, así funcionan todos los modelos de generación de lenguaje más populares actualmente. |
12 | Francesc Bracero, 'Her', más cerca: OpenAI lanza una IA que interactúa con la voz como un humano. La Vanguardia, 14 de mayo de 2024. |
13 | Jorge Izquierdo, ibid. |
14 | Francesc Bracero, Las IAs ya han aprendido a engañar y manipular a los humanos. La Vanguardia, 15 de mayo de 2024. |
15 | Op. cit. |
16 | Aunque no somos ilusos; sabemos, porque está escrito, que la falsedad acabará prevaleciendo en el fin de ciclo. |
17 | Francesc Bracero, Votar a una IA. La Vanguardia, 23 de agosto de 2024. |
|
|