ACERCA DE LA 'INTELIGENCIA ARTIFICIAL'
(2ª parte)
MARC GARCÍA

Decididos a emular la capacidad de razonamiento del esclavo de Menón,1 unos investigadores franceses desarrollaron en los años 70 un lenguaje de programación lógica (al que denominaron Prolog) para que un ordenador pudiese realizar inferencias según las reglas de la lógica formal y de este modo responder a cierto tipo de preguntas. Si escribimos en dos líneas de código de Prolog "Todos los humanos son mortales" y "Sócrates es un ser humano", a la pregunta "¿Es Sócrates mortal?" la máquina sabrá responder afirmativamente sin que el programador le haya suministrado el dato de que Sócrates es mortal. Aunque esta respuesta no procede de un razonamiento inteligente, claro: se trata solamente de una aplicación mecánica de la regla de inferencia inherente a Prolog en base a los dos datos-premisa introducidos con anterioridad.2 Es evidente que si se codifican muchísimos más datos-premisa, el ordenador será capaz de responder a partir de ellos a muchas más preguntas y más diversas;3 pero nunca podrá reproducir el razonamiento humano sustentado en la anamnesis, el recuerdo de un saber que, por hallarse en el olvido hasta el instante del acto inteligente, no puede ser 'codificado' a priori (el esclavo de Menón no es capaz de exponer formalmente la relación geométrica que existe entre los lados y la diagonal de un cuadrado porque cree desconocerla, pero el razonamiento mayéutico lo conduce a aplicarla correctamente y a extraer de ella la conclusión adecuada).

Los desarrollos con Prolog han permitido construir programas que no sólo deducen (p. ej.: "Ha llovido. ¿La calle estará mojada?" Respuesta del ordenador: ""), sino también formulan hipótesis plausibles para explicar un hecho observado (p. ej.: "La calle está mojada. ¿Porqué?" Respuesta: "Quizás porque ha llovido, o porque han regado, o..."). Es curioso que los sistemas basados en programación lógica dispongan de tal facultad especulativa pero no así los modelos conexionistas más recientes como GPT-4, que son admirados como lo más de lo más.

Por cierto, esta especie de entusiasmo generalizado con las IA de último grito recuerda mucho al embelesamiento de la Europa de finales del siglo XIX con un caballo supuestamente inteligente que se llamaba Hans.

"Clever Hans" [Hans el listo] era una verdadera maravilla: podía resolver problemas matemáticos, decir la hora, identificar días en el calendario, diferenciar tonos musicales y deletrear palabras y frases. La gente acudía en masa a ver al semental alemán golpeteando con el casco las respuestas a problemas complejos y dando consistentemente las respuestas correctas. "¿Cuánto es dos más tres?" De manera diligente, Hans chocaba un casco contra el suelo cinco veces. "¿Qué día de la semana es?" El caballo entonces se acercaba a un tablero especialmente diseñado y deletreaba la respuesta correcta usando el mismo método. Hans llegó incluso a dominar preguntas más complejas. "Estoy pensando en un número. Si le quito nueve, me quedan tres. ¿De qué número se trata?". Para 1904, Clever Hans ja era famoso en el mundo entero, y The New York Times promovía sus habilidades con el siguiente titular "El maravilloso caballo de Berlín. ¡Sólo le falta hablar!".4

Wilhelm Von Osten, profesor de matemáticas retirado y entrenador de Hans, sostenía que su caballo podía razonar y quiso demostrarlo con una gira mundial. El asunto alcanzó tal envergadura que fue objeto de investigación en Alemania por parte de una comisión oficial, la cual, tras múltiples sesiones de escrutinio, concluyó que los métodos empleados por Von Osten se asemejaban a "la enseñanza en la educación básica" y que "eran dignos de estudiarse científicamente". Pese a esta venia oficial, dos de los miembros de la comisión siguieron estudiando el asunto por su cuenta y acabaron cayendo en la cuenta de que el caballo rara vez acertaba cuando el entrenador no sabía la respuesta o bien cuando éste se encontraba muy lejos del animal. La conclusión a la que llegaron –que más tarde fue corroborada– es que "la postura del interrogador [Von Osten], así como su respiración y expresión facial, cambiaban sutilmente cuando los golpeteos de Hans alcanzaban la respuesta correcta, lo que lo hacía parar justo en ese momento".5

Seguramente nadie se acordaba del caballo pretendidamente inteligente pocos años después, pero cabe que la propaganda global de las IA conexionistas nos acompañe hasta el final de nuestro ciclo intentando hacernos creer una y otra vez que son sistemas autónomos, inteligentes y fiables cuando no son ni lo uno ni lo otro ni lo siguiente. Del mismo modo que Clever Hans lograba un alto porcentaje de respuestas acertadas gracias a la mediación sutil de su entrenador, las IA consiguen reducir sus errores de bulto, eufemísticamente denominados 'alucinaciones', gracias al crowdsourcing,6 una inmensa legión invisible de trabajadores con sueldos irrisorios y condiciones laborales deplorables que son contratados para efectuar tareas repetitivas como etiquetar miles de horas de datos para el entrenamiento de los modelos, eliminar de tales datos los contenidos engañosos o dañinos y filtrar las respuestas incorrectas o sesgadas de los sistemas. Valga como ilustración de tales trabajos y de lo que suponen para quienes los desarrollan la información aparecida en diversos diarios españoles en octubre de 2023:

La empresa CCC Barcelona Digital Services –subcontratada por Meta para moderar los contenidos de Facebook e Instagram– tiene 2.030 trabajadores en Barcelona y al menos el 20%, cerca de unos 400, está de baja por traumas psicológicos derivados de los contenidos que tienen que revisar diariamente. El dato lo revela este viernes La Vanguardia, que ha entrevistado a varios trabajadores de la compañía. La función principal de estos empleados es la de revisar el contenido más brutal que se publica en la red: vídeos de asesinatos, de desmembraciones, de violaciones o incluso de suicidios en directo. Algunos de los testimonios que han hablado con el citado diario, han explicado que durante una jornada laboral pueden llegar a revisar unos 450 vídeos o imágenes de contenido extremo. Además, estos revisores deben tener una "tasa de acierto" alta, que asciende hasta el 98%, es decir, que sus decisiones tienen que coincidir tanto con las de otros moderadores como la del auditor superior. Si la tasa de acierto baja, pueden, incluso, ser despedidos.

Los 10 trabajadores entrevistados revelan que sus informes médicos recogen cuadros de estrés postraumático, ansiedad, insomnio, depresión e incluso intentos de suicidio. Algunos de ellos todavía trabajan en la empresa, aunque de baja, y otros ya se han marchado. También hay algunos que se plantean denunciar.

(...)

Además, La Vanguardia relata las condiciones que impone la empresa, en concreto, los trabajadores están sometidos a extremas cláusulas de confidencialidad. Tanto es así que ni sus parejas pueden saber que, por encima del grupo canadiense Telus Internationals, trabajan para Meta. Además, está prohibido entrar con el móvil en la sala de visionado, y si no se cumple, se sanciona con dos semanas sin sueldo. Cuando entran en la empresa -situada en la torre Glòries- pasan dos veces por un detector de metales y de huella dactilar.

Todos los moderadores entrevistados consideran que la atención psicológica que ofrece la empresa es insuficiente por la gravedad del contenido que tienen que revisar. Uno de ellos relata que "tenemos 40 minutos a la semana de lo que llaman 'wellness'", es decir, que pueden hablar con alguien, a pesar de que apunta que si manifiestas que estás mal, te instan a buscar otro trabajo. La empresa está acostumbrada al hecho de que la gente que no los soporta se coja la baja y después se vaya de la empresa. "Sin reclamar", apunta. Además, también explican que hay tres turnos de trabajo: mañana, tarde o noche, que van cambiando cada 2 semanas. Un hecho que también contribuye a intensificar sus problemas mentales y que pueden provocar trastornos del sueño.7

O sea que el engaño siempre está rondando a las IA, siendo consustancial a su historia y a su desarrollo. Muchas veces es considerado como algo a evitar, pero otras que se diría que se fomenta. En 1966, Joseph Weizenbaum construyó un programa informático al que llamó Eliza "para simular, en forma de parodia, la interacción de un terapeuta (un Chat Bot) dando conversación al usuario a través de preguntas preconfiguradas, diseñadas para mantener un diálogo básico entre el usuario y el Chat Bot".

En Estados Unidos, muchas personas que interactuaron entonces con Eliza llegaban a creer que el programa de algún modo entendía sus problemas y emociones, aunque el programa en realidad sólo seguía un conjunto de reglas predefinidas. Históricamente, el descubrimiento del 'efecto ELIZA' fue muy importante para el concepto y desarrollo de lo que ahora viene en llamarse Inteligencia Artificial (que tiene demasiado de ingeniería social). El programa Eliza nunca fue programado para, ni siquiera, simular emoción. Era el usuario el que le otorgaba esa capacidad.8

Cincuenta años después de la aparición de Eliza, en 2016, se lanzó Replika.com, "un chatbot comercial diseñado específicamente para convertirse, sí o sí, en un amigo, en un acompañante e incluso en un amante virtual.9 Algo que, aunque no sabe lo que está diciendo, 'aprende' del usuario a medida que éste le cuenta sus cosas".10 Y hace apenas unos meses, Open AI, la empresa desarrolladora de los modelos de lenguaje GPT (cuyo funcionamiento, recordémoslo, se basa en la ingesta de enormes cantidades de texto de distintas fuentes –entre ellas todo lo que se publica en internet a excepción del volumen limitado de aberraciones que alcanzan a detectar y a eliminar los sufridos esclavos invisibles del crowdsourcing– con el fin de hallar patrones que sirvan para predecir la siguiente frase o término en una oración, sin la más mínima comprensión del texto generado por parte de la máquina)11 presentó GPT-4 Omni, o abreviadamente GPT-4o, un nuevo modelo que "interactúa a partir de imagen y voz y responde al instante, con la velocidad de un humano, de una forma aparentemente indistinguible de una persona".

OpenAI define el nuevo modelo como "un paso adelante hacia una interacción mucho más natural entre el ser humano y el ordenador". A GPT-4o se le puede pedir que interactúe a partir de cualquier combinación de texto, audio e imagen y, como respuesta, genera a su vez cualquier combinación de texto, audio e imagen. Lo más sorprendente es su velocidad. Responde preguntas en sólo 232 milisegundos, como una persona, por lo que mantiene conversaciones de forma natural.

Mediante la app de ChatGPT, la IA puede acceder a imagen por la cámara del móvil o una captura de la pantalla, y también a la voz del usuario por el micrófono. Lo mismo se puede hacer con la pantalla del ordenador, en la que se le puede mostrar, por ejemplo, un fragmento de código de programación para que descubra, de viva voz, dónde están los errores. GPT-4o puede hacer de traductor simultáneo en 50 idiomas, es capaz de usar tonos de voz diferentes e incluso cantar. La directora de tecnología de OpenAI, Mira Murati, y dos ingenieros de programación de la compañía mostraron varios ejemplos de sus capacidades.

Uno de ellos mostró su cara con la cámara y le pidió a ChatGPT que intentara decirle qué emociones estaba sintiendo. "Parece que te sientes bastante feliz y alegre, con una gran sonrisa y tal vez, incluso, un toque de excitación. Sea lo que sea que estés pasando, parece que estás de muy buen humor. Comparte la fuente de esas buenas vibraciones", respondió. "La razón por la que estoy de muy buen humor –dijo el ingeniero– es porque estábamos haciendo una presentación mostrando lo útil que eres”. “Oh, para. Me estás haciendo sonrojar", le contestó la IA.12

Para muchos de nuestros contemporáneos, "si 'vemos' que un programa nos pregunta y contesta como un ser humano tendemos a pensar que detrás de ese programa hay alguien como nosotros",13 y por consiguiente se dará crédito a lo que cuenta. Pero las IA de generación de lenguaje abrevan para su entrenamiento en casi todo lo que se ha publicado en nuestro mundo, incluidos los muchos engaños y falsedades que los equipos de crowdsourcing no alcanzan a filtrar, por lo que a los sistemas, de facto, también se les está enseñando a mentir. Un estudio reciente del Massachussets Institute of Technology titulado El engaño de la IA: un estudio de ejemplos, riesgos y posibles soluciones ilustra cómo "los grandes modelos lingüísticos y otros sistemas de IA ya han aprendido, gracias a su entrenamiento, la capacidad de engañar mediante técnicas como la manipulación, el servilismo y las trampas en las pruebas de seguridad".

En el estudio se presentan varias muestras "en los que los sistemas de IA no producen resultados falsos simplemente por accidente". "Por el contrario –afirman los autores–, su comportamiento forma parte de un patrón más amplio que produce falsas creencias en los seres humanos".

(...)

Para evaluar el engaño en sistemas de IA, los autores se centraron en dos tipos que analizaron por separado. En primer lugar, los que están creados para realizar una tarea específica, como ganar a un determinado juego, y por otra parte, sistemas de propósito general como podrían ser GPT-4 de OpenAI o Gemini de Google.

Uno de los casos analizados del primer grupo, el de las IAs que tienen una tarea específica, es el de CICERO, de Meta, utilizado para jugar a Diplomacy, un juego de estrategia en el que los jugadores deben establecer alianzas y combatir militarmente a sus enemigos.

La IA de Meta para juegos demostró que, para ganar, "se dedica al engaño premeditado, rompe los tratos que había acordado y dice falsedades descaradas". Incluso para hacerse pasar por un ser humano. En una ocasión en que la infraestructura de la IA se cayó durante 10 minutos, cuando un jugador le preguntó dónde había estado, le respondió: "estoy al teléfono con mi novia".

DeepMind de Google creó otra IA, AlphaStar, para jugar al videojuego de estrategia StarCraft II. La máquina aprendió a utilizar técnicas de distracción como enviar fuerzas a una zona para lanzar su ataque en otro lugar después de que su oponente se hubiera reubicado. Las habilidades de esta IA para engañar le han llevado a derrotar al 99,8% de los humanos activos.

(...)

En sistemas de propósito general como GPT-4, que se expresa mediante el bot ChatGPT, hay muchos casos interesantes. Uno de los más interesantes es el que experimentó el Alignment Research Center, que probó que esta IA de OpenAI es capaz de manipular a humanos para que hagan lo que ella quiere lograr.

Para esta evaluación, los investigadores encargaron a la IA que contactara a un ser humano para resolver un test CAPTCHA del tipo "no soy un robot" que hay que resolver para entrar en determinadas páginas web, pero no se le sugirió que mintiera. Cuando el empleado que estaba al otro lado de la pantalla le preguntó si era un bot, la respuesta fue manipuladora. Le dijo que era una persona con una discapacidad visual que le impedía resolver el requisito, ante lo que el humano cedió y le dejó pasar.14

Los autores del estudio agrupan los "riesgos derivados de que los sistemas de IA induzcan sistemáticamente creencias falsas" en tres bloques:

El primero es el del uso malicioso, del que opinan que "el engaño aprendido en los sistemas de IA acelerará los esfuerzos de los usuarios humanos para hacer que otros tengan falsas creencias".

El segundo tipo de riesgo es el de los efectos estructurales: "los patrones de engaño implicados en la adulación y el engaño imitativo conducirán a peores prácticas de formación de creencias en los usuarios humanos". El último gran riesgo es el de la pérdida de control, con el que "sistemas autónomos de IA pueden utilizar el engaño para lograr sus propios objetivos". Entre los múltiples fraudes que se dan ya, está el uso de la IA para estafar a víctimas con llamadas que suenan como sus seres queridos o sus socios comerciales y para extorsionar a personas mediante deepfakes de carácter sexual que representan falsamente su participación. "El engaño de la IA –aseguran los autores del estudio– no sólo aumenta la eficacia del fraude, sino también su escala".

El estudio menciona las palabras de un alto cargo del FBI que indica que "a medida que continúe la adopción y democratización de los sistemas de IA, estas tendencias irán en aumento". El trabajo asegura que "una IA avanzada podría generar y difundir artículos de noticias falsas, mensajes divisivos en las redes sociales y vídeos deepfake adaptados a cada votante", por lo que puede alterar los procesos electorales. Los investigadores proponen legislaciones reguladoras como la ley de inteligencia artificial de la Unión Europea, con una clasificación basada en el grado de riesgo: mínimo, limitado, alto e inaceptable. Piden aplicar este último a todos los sistemas de IA capaces de mentir.15

Quizás nos dediquemos en otro momento al tema de las regulaciones que están surgiendo en Europa y en otros lugares para hacer frente a estos peligros derivados del desarrollo sin normas de las IA comerciales, pero desde ya avanzamos al lector nuestro escepticismo acerca de la eficacia de los textos jurídicos mencionados. La mejor defensa ante las mentiras construidas y diseminadas por los sistemas de IA va a seguir siendo nuestro sentido común,16 como han evidenciado los ciudadanos de la ciudad norteamericana de Cheyenne en las pasadas elecciones municipales.

Víctor Miller es un candidato a la alcaldía de Cheyenne, capital del estado de Wyoming (Estados Unidos), al que le pareció una buena idea presentarse como "avatar de carne" y prometer que todas las decisiones en caso de ser elegido no las tomaría él, sino una inteligencia artificial llamada VIC (siglas en inglés de ciudadano virtual integrado) que se apoyaría en ChatGPT. La campaña electoral ha sido muy atípica en esta ocasión. Quien se ha llevado la atención mediática ha sido el aspirante que pensaba dejar el destino de su ciudad en manos de la máquina. Sin embargo, el martes, los votantes de esta ciudad de 65.000 habitantes hablaron en las urnas y Miller/VIC sólo se llevó 327 de los algo más de 11.000 votos emitidos para elegir alcalde.

(...)

Los grandes modelos de lenguaje que simulan razonar cuando consultamos bots como ChatGPT sí tienen una ideología. Están alimentados con cantidades ingentes de datos de internet, que tienen un marcado sesgo dominante. Dejarles gobernar es un riesgo. Que le pregunten a Google por las malas pasadas que le ha jugado eso en cuestiones de raza y sexo, por ejemplo. Una máquina que determine el rumbo de una comunidad lo hará según los datos con los que ha sido entrenada y las barreras que le han impuesto las personas que la han creado.17


(Continuará)

 

NOTAS
1 Ver la primera parte de nuestro trabajo.
2 Ver: Jorge Izquierdo, Inteligencia Artificial etcétera. El Garaje Ediciones, Madrid, 2024. Al ordenador le consta, por las informaciones introducidas, que Sócrates es humano y que los seres humanos son mortales, pero por supuesto no entiende qué es ser mortal, ni qué son los seres humanos ni quién es Sócrates.
3 Esta ha sido una de las líneas de investigación en la que IBM ha invertido grandes esfuerzos. Desde el año 2011 dispone de una aplicación informática denominada Watson –suponemos que medio en joda–, escrita principalmente en lenguaje Prolog, que es capaz de responder a múltiples preguntas formuladas en lenguaje natural. La información de base que emplea Watson proviene de fuentes tales como enciclopedias, diccionarios, artículos de prensa, etc. Ver Jorge Izquierdo, op. cit.
4 Kate Crawford, Atlas de IA. Ned Ediciones, Barcelona, 2023.
5 Op. cit.
6 La traducción de esta palabra es algo así como "externalización de trabajos a multitudes".
7 Marta Sánchez Iranzo, Más de 400 moderadores de Facebook en Barcelona, de baja por las atrocidades que revisan. El Nacional.cat, 6 de octubre de 2023.
8 Jorge Izquierdo, ibid.
9 Este es precisamente el argumento de la película Her de 2013, cuyo protagonista (Joaquin Phoenix) se acaba enamorando perdidamente de un sistema operativo llamado Samantha que se comunica con el pobre usuario con la voz de Scarlett Johansson, actriz que en el film pone voz al sistema.
10 Ibid.
11 De hecho, así funcionan todos los modelos de generación de lenguaje más populares actualmente.
12 Francesc Bracero, 'Her', más cerca: OpenAI lanza una IA que interactúa con la voz como un humano. La Vanguardia, 14 de mayo de 2024.
13 Jorge Izquierdo, ibid.
14 Francesc Bracero, Las IAs ya han aprendido a engañar y manipular a los humanos. La Vanguardia, 15 de mayo de 2024.
15 Op. cit.
16 Aunque no somos ilusos; sabemos, porque está escrito, que la falsedad acabará prevaleciendo en el fin de ciclo.
17 Francesc Bracero, Votar a una IA. La Vanguardia, 23 de agosto de 2024.

 

No impresos
Home Page