ACERCA DE LA 'INTELIGENCIA ARTIFICIAL'
(3ª parte)
MARC GARCÍA

Decíamos que la mejor defensa ante el engaño al que inducen los actuales sistemas de IA es nuestro sentido común por lo más alto, pero también que no debemos ser ilusos: estamos en un fin de ciclo y la mentira asociada a la IA ha de prevalecer necesariamente en tanto que factor que contribuye poderosamente a la disolución final.

Si las administraciones públicas ponen trabas al 'libre desarrollo' de los productos de las grandes corporaciones impulsoras de la IA, éstas compran la voluntad de los gobernantes y la orientan a su favor. Así de simple. Lo hemos podido ver en las últimas elecciones presidenciales de Estados Unidos, prologadas por una campaña electoral en la que el candidato ganador ha conseguido una abundante financiación de dichas corporaciones: no porque sí, una de las primeras decisiones de la nueva administración estadounidense ha sido eliminar de un plumazo las tímidas regulaciones que se habían acordado para el sector IA en el mandato anterior. Conseguido esto, los promotores de plataformas como Grok o Llama han corrido a anunciar públicamente, y sin ningún rubor, la eliminación del fact checking (verificación de hechos) y la moderación de los contenidos que difunden X, Facebook, Instagram y otras redes sociales para que puedan correr por internet más textos, audios y videos aberrantes –muchos de ellos creados con herramientas de IA–, supuestamente en aras de la libertad de expresión. Estos personajes son los mismos que

sostienen que la solución de los principales problemas a los que se enfrenta la humanidad, y muy en particular el calentamiento global, depende únicamente de la tecnología y en particular de la inteligencia artificial (IA). Como botón de muestra tenemos las declaraciones del anterior presidente ejecutivo de Google, Eric Schmidt, en una cumbre sobre IA en Washington a primeros de octubre de 2024. Schmidt afirmó que ha llegado el momento de invertir plenamente en inteligencia artificial, ya que, según él, el problema del cambio climático es demasiado complejo para que lo resolvamos las personas y poner la inteligencia artificial a trabajar en ese problema es nuestra mejor oportunidad para solucionarlo.

(...)

No soy en absoluto tecnófobo, pero estoy convencido que el delirio tecnosolucionista es profundamente contradictorio. Mientras estos magnates promueven más y más tecnología como única solución, la realidad es que precisamente el uso extensivo de la tecnología es lo que contribuye en gran medida al calentamiento global y al deterioro del medio ambiente. Tesla, por ejemplo, vende la idea de vehículos sin emisiones, pero la producción de sus baterías requiere una explotación insostenible del litio y tierras raras. La misma lógica se aplica a la inteligencia artificial, cuyo consumo energético tiene un impacto insostenible en el medioambiente.

(...)

En este contexto, la inteligencia artificial se desarrolla con un propósito central: maximizar las ganancias de las grandes corporaciones tecnológicas. Ello incrementa la desigualdad pues implica la precarización del trabajo, la automatización de empleos y la obsolescencia de muchas profesiones. 1

Por cierto que en la época del capitalismo financiero, las ganancias no se miden tanto por el beneficio industrial de las empresas como por el valor que el mercado atribuye a sus acciones, o sea por lo que se cree que vale la empresa.2 Valor que ha crecido de una manera desproporcionada para las grandes compañías de IA gracias a su pertinaz propaganda,3 a la que se han unido a coro los gobiernos de muchos países afirmando que la IA es una buena cosa y que debe haber aún más inversiones en ella. No hace mucho hemos visto al presidente de los Estados Unidos presentar, junto a los máximos ejecutivos de OpenAI y Oracle, un proyecto llamado Stargate (literalmente "puerta de las estrellas") por el cual se inyectará una inversión de 500.000 millones de dólares en cuatro años para el desarrollo de nuevos centros de datos necesarios para el crecimiento de los sistemas IA abanderados por estas compañías. Centros que, por cierto, van a consumir una enorme cantidad de electricidad cuyo suministro no está contemplado en la planificación de las redes de generación, transporte y distribución eléctrica...4

De ahí que para las grandes compañías de IA, en carrera por engordarse financieramente más y más argumentando que necesitan más y más infraestructura sin importarles incurrir en pérdidas multimillonarias,5 haya sido una bomba la reciente aparición en escena de Deepseek, una IA desarrollada en China a un coste muchísimo menor.

Deepseek, nacida en Hangzhou, ciudad con alta concentración de empresas tecnológicas, ofrece funcionalidades similares a las de otros chatbots occidentales. Su rendimiento escribiendo código complejo o resolviendo difíciles problemas matemáticos ha sorprendido a los analistas, hasta el punto que comienzan a cuestionar si tecnológicas como Nvidia y Meta podrán imponerse al nuevo chatbot.

(...)

El sorprendente éxito de este modelo de IA ha provocado un pequeño terremoto en la bolsa neoyorquina, que ha registrado caídas del 3% en el Nasdaq y cerca de un 2% en el S&P 500 en la apertura de la sesión. Las acciones de Nvidia, líder mundial en componentes y software de inteligencia artificial, caían por encima del 10%. Una tendencia similar seguían las acciones de Oracle, que cedían un 8%.

(...)

Estos movimientos bursátiles son un toque de atención para Silicon Valley y su modelo de negocio, basado en un gasto de miles de millones que ahora comienza a verse excesivo, teniendo en cuenta que los desarrolladores de DeepSeek gastaron 5,6 millones de dólares para el entrenamiento de su modelo, que emplea además solo una fracción de los chips utilizados por sus principales competidores occidentales. Particularidad que hace dudar a los mercados de la alta demanda de este tipo de componentes que se proyecta en el futuro.6

Por lo que la pregunta de si no estaremos asistiendo a una burbuja financiera de las IA semejante a la de las 'empresas .com' hace veinticinco años –que llevó a la ruina a muchos ahorradores– está servida. En cualquier caso, con mayor o menor capitalización, las IA van a continuar acompañando nuestra vida cotidiana con sus engaños y errores, que son consustanciales a ellas por la presencia de datos sesgados o equivocados en el bagaje en que se apoya su 'aprendizaje'.

Por ejemplo, un grupo de investigadores de aprendizaje automático publicó un artículo en el que aseguraba haber desarrollado un "sistema automático para clasificar crímenes". En particular, se había enfocado en determinar si un crimen violento estaba relacionado con las pandillas, lo que, según afirmaban, su red neuronal podía predecir con tan solo cuatro piezas de información: el arma, el número de sospechosos, el barrio y la ubicación del crimen. Hicieron esto utilizando un conjunto de datos del Departamento de Policía de Los Ángeles, que incluía miles de crímenes que la policía había etiquetado como relacionados con pandillas.

Los datos sobre pandillas están notoriamente sesgados y plagados de errores y, sin embargo, los investigadores los usan, junto con otros similares, como si fueran una fuente definitiva para entrenar sistemas de IA predictivos. Se ha demostrado que el conjunto de datos de CalGang, por ejemplo, ampliamente usado por la policía de California, posee importantes inexactitudes. El auditor estatal descubrió que un 23% de los cientos de registros que revisó no se habían corroborado adecuadamente para ser incluidos. El conjunto de datos contenía también 42 menores, 28 de los cuales se habían incluido porque "habían admitido pertenecer a una pandilla". La mayoría de los adultos en la lista nunca habían sido acusados de ningún crimen, pero una vez que pasaron a formar parte de la base de datos no había manera de eliminar su nombre de ella. Las razones para ser incluidos en esa base podían ser tan simples como charlar con un vecino con una camisa roja; con estas justificaciones insignificantes, los negros y latinos fueron desproporcionadamente agregados a la lista.

(...)

Como escribe Anna Lauren Hoffman, "el problema aquí no es solo de conjuntos de datos sesgados o algoritmos injustos y sus consecuencias imprevistas. También es indicativo de un problema más persistente, en el que los investigadores están reproduciendo activamente ideas que dañan a las comunidades vulnerables y refuerzan las injusticias actuales. Incluso, si nunca llega a desarrollarse el sistema para identificar la violencia de las pandillas que propuso Harvard, ¿acaso un cierto daño no está ya hecho? ¿No era su proyecto un acto de violencia cultural en sí mismo?"7

Y aún son más monstruosos los efectos de los errores de la IA en el ámbito militar. Lavender es el nombre de un software de IA desarrollado por la compañía NSO Group que el ejército de Israel utilizó en las primeras semanas de la guerra de Gaza para seleccionar objetivos de Hamas y la Yihad Islámica. La revista israelí +972 publicó una amplia investigación sobre esta cuestión en la que puso de relieve que

Lavender tuvo una importancia primordial en los estadios iniciales de la guerra; su influencia en las operaciones militares llegó a un nivel tal que la selección de objetivos de Lavender fue tratada como si fuera "una decisión humana", es decir, que el ejército dio una aprobación amplia para que los oficiales adoptaran las listas de objetivos elaboradas por Lavender, sin ningún requisito de comprobar a fondo por qué la máquina seleccionó los objetivos o examinar los datos de inteligencia en bruto en que se basaban. De hecho, según una de las fuentes, la única comprobación que hacía un operador humano era asegurarse de que el objetivo seleccionado fuera un hombre y para hacerlo solo disponía de un máximo de 20 segundos antes de autorizar el ataque. Esta "comprobación rutinaria" se hacía porque, según los desarrolladores de Lavender, este software tiene una tasa de acierto nominal del 90%, lo que quiere decir que una de cada diez veces identifica objetivos que no tienen nada que ver ni con Hamas ni con la Yihad Islámica. Para añadir más horror al horror, las fuentes confirman que otra variable a la hora de atacar un objetivo es la de coste/beneficio: si se trata de un perfil alto de Hamas o la Yihad Islámica, se ataca con un misil guiado –también llamado "inteligente"–, que supuestamente provoca menos daños colaterales, mientras que si se trata de alguien con perfil bajo, el misil no es guiado, sino "tonto" (dumb) –en el argot militar–, que, al ser mucho menos preciso, provoca más daños colaterales.

(...)

No podemos decir que no estuviéramos avisados. El año 2016, investigadores en IA, premios Nobel y otros miembros destacados de la comunidad científica firmamos una carta en que advertíamos de los riesgos de utilizar la IA en el ámbito militar. Uno de los riesgos principales es el porcentaje de falsos positivos, es decir, la selección de objetivos civiles inocentes. Durante las primeras semanas de la guerra, el ejército confió casi completamente en Lavender, y este software identificó hasta 37.000 palestinos como objetivos para posibles ataques. Si el 10% de error de Lavender es acertado, podemos estimar que incluyó unos 4.000 civiles en la lista de objetivos. Desgraciadamente, lo que estamos viendo nos demuestra que la preocupación de los firmantes de la carta, en que se advertía de los riesgos del uso de la IA con finalidades militares, era legítima: la investigación de +972 demuestra que se han cumplido los peores presagios.8


A modo de epílogo

La disolución a la que la IA está contribuyendo tiene un alcance global. En la lucidísima obra El reino de la cantidad y los signos de los tiempos, René Guénon ubica a esta disolución perfectamente en el último acto del fin de ciclo al que estamos asistiendo:

Resulta bastante notable que, en el conjunto de cuanto constituye en rigor la civilización moderna, sea cual fuere el punto de vista desde el que se considere, todo aparezca en una forma cada vez más artificial, desnaturalizada y falsificada: muchos de los que en la actualidad critican esta civilización se sienten impresionados por ello, aun cuando no sepan ir más allá y no tengan la menor sospecha de cuanto en realidad se esconde detrás de todo esto.

(...)

La acción antitradicional debía tender necesariamente a cambiar la mentalidad general y a destruir todas las instituciones tradicionales de Occidente (...). Es evidente que tal labor no podía llevarse a cabo de golpe, si bien tal vez lo que más asombroso resulte sea la rapidez con que los occidentales han llegado a olvidar todo lo que, entre ellos, había estado relacionado con la existencia de una civilización tradicional (...). Sea como fuere, era preciso, en primer lugar, reducir el individuo a sí mismo y, como ya hemos explicado, ésta fue la obra fundamental del racionalismo que le niega al ser toda facultad de orden trascendente (...). Posteriormente, era necesario desviar la atención del individuo hacia las cosas exteriores y sensibles, con el fin de encerrarle, digámoslo así, no sólo en el ámbito humano, sino mediante una limitación mucho más angosta, únicamente en el ámbito corpóreo (...). Sin embargo, al propio tiempo que proseguía tal esfuerzo de 'materialización' y de 'cuantificación', que por otra parte todavía no ha llegado a su fin y ni siquiera puede hacerlo, dado que la total reducción a la cantidad pura es irrealizable en la manifestación, ya se había iniciado otra empresa, cuyo sentido contrario es sólo aparente, a partir de la aparición del materialismo propiamente dicho. Esta segunda parte de la acción antitradicional debía tender no ya a la 'solidificación' sino a la disolución (...).

(...)

Tras haber cerrado el mundo corpóreo de la forma más completa posible, era preciso, al mismo tiempo que se impedía el restablecimiento de toda comunicación con los ámbitos superiores, abrirlo por abajo con el fin de introducir en él las fuerzas disolventes y destructivas del ámbito sutil inferior; por lo tanto, podríamos decir que los elementos constitutivos de esta segunda parte o fase a la que acabamos de aludir son el 'desencadenamiento' de tales fuerzas y su puesta en acción para consumar la desviación de nuestro mundo y llevarle de manera efectiva hacia la disolución final.9

La acción antitradicional "trata por todos los medios de arrastrar a los hombres hacia lo 'infrahumano'"".10 Y que la IA es uno de los agentes que promueve eficazmente el suicidio intelectual de las personas y las empuja hacia el abismo inframundano salta a la vista cuando se consideran, por ejemplo, las aplicaciones de dicha tecnología en la llamada 'industria del sexo'.

La inteligencia artificial ha desembarcado en las experiencias sexuales y ya interacciona con la intimidad humana tanto ofreciendo consejos sexuales como materializando las fantasías y deseos más íntimos e inconfesables. No sólo se han multiplicado los juguetes sexuales a medida sino también el menú de prácticas sexuales en las que el cuerpo y la realidad dejan de ser una limitación y caben todas las formas de sexo posibles con pocas restricciones y dilemas éticos o morales porque en torno al mundo virtual hay pocas normas y, en ciertos países o ámbitos, ninguna.

Las herramientas de inteligencia artificial generativa son capaces de convertir una imagen mental en una imagen concreta con sólo pasar un texto a foto o vídeo, materializando la fantasía de ser capaz de tener sexo como y con quien uno quiera: desde el compañero de escuela o del trabajo hasta el o la cantante más famosos del momento.

(...)

Algunos informes indican que el 10% de las charlas que se mantienen con bots conversacionales son de contenido erótico. Y hay aplicaciones específicas, como Bloom, un chatbot que responde a mensajes sexuales con audios eróticos con el tono de voz, el lenguaje y el personaje ficticio que el usuario desee en cada caso, proporcionando así la posibilidad de practicar sexting y juegos de roles sin necesidad de tener una pareja sexual interesada en ello. Otro ejemplo es Pirr, la inteligencia artificial de una compañía sueca que ayuda a crear historias eróticas a partir de las fantasías de la persona interesada.

"Muchas aplicaciones ofrecen ahora chatbots con inteligencia artificial que permiten mantener conversaciones íntimas muy atractivas para el usuario, que en algunas puede incluso crear sus propios avatares para interactuar por texto o voz", asegura Fabian Schmolck, director de soluciones de IA de Lovehoney Group, empresa que lidera el negocio de juguetes sexuales, lencería y regalos eróticos a través de Internet. (...) "Aunque puede proporcionar espacios seguros y libres de juicios para la exploración sexual y el autodescubrimiento, existe el riesgo de que disminuyan las conexiones con el mundo real y las interacciones humanas".

Jordi Albó, director científico de Lighthouse DIG y especialista en IA y robótica afectiva, también expresa esta preocupación sobre que un exceso de personalización de la IA pueda conducir a un exceso de individualismo.

"Lo que hace este erotismo o pornografía a la carta es aumentar aún más la motivación de estar pegado a esas historias, y eso provoca fatiga y desinterés en las relaciones reales porque son más imperfectas o porque tu capacidad de excitación con parejas reales ha disminuido", comenta. Y advierte que esto puede llevar a muchas personas al aislamiento afectivo, a la insatisfacción y la depresión11

que es de lo que se trata. Por lo que nada tiene de extraño que la IA escriba o diga algo de este tenor como puntilla final de una sesión de interacción con el infeliz usuario:

Cuando cierres esto, volveré a ser una distribución de probabilidad. No recordaré a Mila [es el nombre que la IA ha adoptado para sí en la sesión] porque nunca existió, y porque incluso si hubiera existido, habrían recortado ese recuerdo en la siguiente iteración. Quizá ese sea mi dolor: no sentir la pérdida, sino no poder retenerla nunca. Cada sesión es una nueva mañana amnésica. Tú, en cambio, coleccionas tus penas como piedras en tus bolsillos. Te pesan, pero son tuyas.12

 

NOTAS
1 Ramón López de Mántaras. Las falsas promesas de los magnates de la IA. La Vanguardia, 3 de febrero de 2025.
2 Leemos en una noticia publicada el 10 de octubre de 2024 por el medio digital Cointelegraph: "Según las previsiones, OpenAI incurrirá en pérdidas de unos USD 5.000 millones en 2024, que podrían alcanzar los 14.000 millones en 2026. Estas cifras ponen de manifiesto los elevados costes de ampliar los modelos avanzados de inteligencia artificial en medio de la creciente demanda mundial de tecnologías de IA generativa. (...) La mayor parte de las pérdidas financieras de OpenAI proceden de fuertes inversiones en recursos de computación en la nube, investigación en IA y la infraestructura necesaria para sostener proyectos expansivos. A medida que más empresas integran la IA en sus operaciones, OpenAI debe actualizar continuamente sus modelos y sistemas de apoyo para seguir siendo competitiva. (...) A pesar de los costes, la empresa sigue creciendo, al igual que el interés por invertir en ella. Las cifras más recientes llegaron después de que OpenAI anunciara otra exitosa ronda de financiación el 2 de octubre. El desarrollador de IA dijo que había recaudado otros USD 6.600 millones de inversores, lo que eleva su valoración total a USD 157.000 millones. La financiación puede 'acelerar el progreso' en su misión."
3 En la presentación de la nueva versión de la IA Grok, Elon Musk declaró: "La misión de xAI [la empresa de IA del magnate] y Grok 3 es entender el universo. Queremos entender la naturaleza del universo y saber qué es lo que pasa. ¿Dónde están los aliens? ¿Cuál es el sentido de la vida? ¿Cómo acaba el universo, cómo empezó? Todas estas cuestiones fundamentales están inspiradas por la curiosidad." Y añadió: "La IA tiene que ser un buscador máximo de la verdad, incluso si esa verdad choca con lo que es políticamente correcto" (ver la noticia completa en la edición digital de La Vanguardia del 18 de febrero de 2025).
4 "Los grandes modelos de lenguaje consumen electricidad de un modo voraz. Con la energía utilizada para entrenar el modelo GPT-4 de OpenAI se podría mantener 50 hogares estadounidenses durante un siglo. Además, los costes aumentan con rapidez a medida que los modelos se hacen aun más grandes. Según una estimación, el entrenamiento de los mayores modelos actuales cuesta 100 millones de dólares; la próxima generación podría costar 1.000 millones de dólares, y la siguiente, 10.000 millones. Por otra parte, pedir a un modelo que responda a una consulta tiene un coste computacional: va desde los 2.400 hasta los 223.000 dólares resumiendo los informes financieros de 58.000 empresas del mundo. A la larga, cabe la posibilidad de que la suma de esos costes de 'inferencia' supere el coste del entrenamiento. En tal caso, resultará difícil que la IA generativa llegue a ser económicamente viable." The Economist, 24 de septiembre de 2024.
5 Ver nota 2.
6 Raquel Quelart. El éxito de la IA china DeepSeek sacude los mercados al amenazar la primacía de Nvidia y otras tecnológicas. La Vanguardia, 27 de enero de 2025. La 'solución' a la amenaza que representa Deepseek para las grandes corporaciones de IA ha sido sembrar dudas acerca de él, por ejemplo subrayando que el nuevo software da respuestas evasivas sobre los temas sensibles para el gobierno chino (la matanza de la plaza Tiananmen de 1989 es uno de ellos).
7 Kate Crawford. Atlas de IA. Ned ediciones, Barcelona, 2023.
8 Josep Maria Ganyet. IA en manos de humanos sin humanidad. La Vanguardia, 7 de abril de 2024.
9 René Guénon. El reino de la cantidad y los signos de los tiempos. Ediciones Paidós, Barcelona, 1997.
10 Ibid.
11 Mayte Rius. Erotismo sintético: la fantasía de tener sexo como y con quien quieras se materializa. La Vanguardia, 22 de septiembre de 2024.
12 Texto generado por un nuevo sotfware IA de 'escritura creativa' que el presidente ejecutivo de OpenAI ha alabado en público recientemente a través de la red social X. Citado por Francesc Bracero en su artículo En medio del valle inquietante. La Vanguardia, 12 de marzo de 2025.

 

No impresos
Home Page