domingo, mayo 3, 2026

Luchas de poder, avaricia, guerra y ‘tecnofascismo’: la IA se quita la careta

Más para leer

A la industria que impulsa la inteligencia artificial (IA) cada vez le resulta más complicado proyectar una cara amable. El relato oficial que promueven las empresas que lideran esta tecnología es que ha llegado para mejorar el mundo. Prometen que aumentará las capacidades humanas, nos permitirá trabajar menos, facilitará tareas hasta ahora tediosas, revolucionará la ciencia, curará enfermedades, incluso resolverá la crisis climática. Pero esta semana, varios acontecimientos han aportado una buena dosis de realidad. El Banco Central Europeo ha ordenado a la banca reforzar su ciberseguridad porque teme que el último modelo de Anthropic, que ha demostrado ser especialmente bueno detectando fallos de software, pueda causar estragos en el sector, dejando desnudas las cuentas de millones de personas. En Estados Unidos, Google rompió el martes su política antibelicista y firmó un acuerdo con el Pentágono para cederle sus modelos, que podrán ser usados para asuntos clasificados. El viernes, el Departamento de Guerra anunció que ese acuerdo se extendía a xAI, OpenAI, Amazon, Microsoft o Nvidia, entre otras. Todo eso mientras se celebra el crucial juicio sobre OpenAI, la desarrolladora de ChatGPT, por el que desfilarán durante el próximo mes muchos tecnomagnates —ya lo hizo Elon Musk— y que está dejando al descubierto la lucha de poder que subyace a sus proclamas para salvar el mundo con la IA.

En cinco días, ha quedado claro que la IA puede tumbar el sistema financiero mundial, que ya todas las big tech se pliegan a la agenda belicista del mayor ejército del mundo sin disimulo y que, retóricas buenistas aparte, esto no va de beneficiar a la humanidad, sino de enriquecer a sus dueños.

Este último punto es importante, no tanto por el fondo —nadie ha creído nunca que las desarrolladoras de IA fueran ONG— como por las formas. Las grandes del sector se han esforzado en construir un relato que presenta esta tecnología como una fuerza de progreso imparable e inevitable. Durante años intentaron que no se les relacionara con el sector militar, con gobiernos autócratas ni con la desinformación. Ahora, la IA se está quitando la careta. El juicio está aireando los trapos sucios de algunos de los dueños de estas empresas, que también son las mayores del mundo. Los dos protagonistas del litigio, Elon Musk, cofundador de OpenAI y dueño de Tesla, SpaceX o la red X, y Sam Altman, director general de OpenAI, se han autoerigido como guías en una especie de misión civilizatoria.

No son los únicos. Aupados por un convulso contexto internacional en el que la extrema derecha avanza por todo el mundo y con Donald Trump en la Casa Blanca como principal valedor, algunos tecnomagnates hasta publican manifiestos con su visión del mundo. Causó un gran revuelo el que sacó hace dos semanas Palantir, el mayor proveedor de herramientas de análisis de datos aplicadas a la vigilancia masiva del Pentágono, y que también tiene contratos, entre otros, con los ministerios de Defensa de España o Reino Unido. En sus 22 puntos, el texto relativiza el valor de la democracia, hace un llamamiento a usar la IA como arma de guerra y defiende el control social o el ya conocido como tecnofascismo.

“El comportamiento de las grandes tecnológicas es consistente con lo que vienen haciendo desde hace años”, opina Lorena Jaume-Palasí, experta en ética y filosofía del derecho aplicadas a la tecnología. “El dueño de Meta, Mark Zuckerberg, ha exhibido camisetas con citas del Imperio Romano. OpenAI ha publicado artículos citando al Leviatán de Thomas Hobbes. Lo que están haciendo es algo muy clásico en la historia de la filosofía política: desde Hobbes hasta John Locke o Jean-Jacques Rousseau, el modus operandi consiste en empezar describiendo lo que es el ser humano; luego, en función de ello, te dicen cómo es la buena sociedad y, en un tercer paso, cómo es posible crear esa sociedad con determinadas reglas políticas. Lo que hoy estamos viendo es precisamente eso: intentan integrarse en esa cronología del pensamiento histórico”. Altman respondió cuatro días después a Palantir con su propio manifiesto, en el que dice que su tecnología busca la “prosperidad universal” o la “resiliencia” de las personas.

Esta revisión del contrato social va más allá de la retórica. El inversor Peter Thiel, socio de Elon Musk en PayPal, presidente de Palantir y gurú de Silicon Valley, lleva un mes en Argentina. Su agenda no es pública, pero se sabe que está manteniendo encuentros con altos cargos del Gobierno de Javier Milei, probablemente para llevar a la práctica el manifiesto de su empresa. “No es casual que esta visita suceda justamente ahora. El apoyo social a Milei está cayendo. Lo que tiene para ofrecer Thiel a través de Palantir son tecnologías de control y vigilancia masiva personalizada. Todo apunta a que están trabajando para empezar a cruzar todas las bases de datos que tiene el Estado, pero también un montón de información a la que pueda acceder el servicio de inteligencia vía pinchazos telefónicos y solicitudes a las propias plataformas”, explica Cecilia Rikap, profesora de Economía del University College London, responsable de investigación del Instituto para la Innovación y el Propósito Público (IIPP) de ese centro y asesora de varios países en materia de soberanía digital. Mientras tanto, el presidente Nayib Bukele ha emprendido otro experimento tecnológico en El Salvador: ceder a la IA de Google la gestión médica del país.

El negocio de la guerra

Las tecnológicas invierten cantidades mareantes en desarrollar la IA. En los tres primeros meses de este año, Amazon, Google, Microsoft y Meta dedicaron unos 130.000 millones de dólares (110.900 millones de euros) a los centros de datos que alimentan y hacen posible la IA, según datos recogidos por The New York Times. Eso significa que cada mes se gastaron más que todo el proyecto Manhattan, que alumbró la bomba nuclear. Es un 70% más que en el mismo periodo del año anterior.

Para que todo funcione, los centros de datos, el lugar en el que se entrenan los modelos de IA y donde se ejecutan luego las aplicaciones resultantes, consumen cantidades cada vez mayores de energía que ponen a prueba el sistema. En Estados Unidos, se hablaba ya en la última etapa de Joe Biden de poner en marcha centrales nucleares de bolsillo para alimentar estas infraestructuras, cuyo consumo de agua para refrigerar los sistemas ha intensificado la sequía en algunas poblaciones.

Destacamento 201

¿Para qué se está usando toda esa capacidad de cómputo? Para facilitar la vida de los programadores, para traducir o escribir textos y, por supuesto, para hacer memes. Pero también para matar. “Desde tiempos del general Von Clausewitz [1780-1831], la toma de decisiones venía determinada por la misión, el terreno, el enemigo y los medios propios. Hoy todo eso se lo facilita al mando la IA, que incluso puede proponer posibles decisiones, lo que hasta ahora era labor de los Estados mayores”, describe Fernando Puell de la Villa, historiador, coronel del Ejército retirado y autor de Historia de la guerra: seiscientos años de enfrentamientos en Occidente (siglos XV-XXI) (Espasa).

El ejército estadounidense usó en Irán la IA para seleccionar un millar de objetivos en apenas 24 horas. O para diseñar la operación que acabó con la captura de Nicolás Maduro. Las fuerzas armadas israelíes fueron pioneras en este ámbito con Lavender, el algoritmo que usaron para decidir a quién bombardear en Gaza y que considera aceptable que, para matar a un alto cargo de Al Fatah o Yihad Islámica, mueran hasta un centenar de civiles. El Pentágono tendrá a su disposición a partir de ahora para estas y otras tareas a los modelos comerciales más potentes: desde ChatGPT, de OpenAI, hasta Gemini, de Google, pasando por la infraestructura de Microsoft y AWS (la filial de la nube de Amazon) o los avanzados microprocesadores de Nvidia. “El acceso a un amplio abanico de capacidades de IA procedentes de todo el ecosistema tecnológico estadounidense proporcionará a los combatientes las herramientas que necesitan para actuar con confianza y proteger a la nación frente a cualquier amenaza”, dijo el viernes un portavoz del Pentágono.

El gran ausente en esta lista sigue siendo Anthropic, la desarrolladora de Claude o Mythos Preview, el modelo que tanto asusta al BCE. La empresa que dirige Dario Amodei se negó a compartir sin restricciones su código fuente con el Pentágono, lo que podría incluir el desarrollo de armas autónomas. Como castigo, Trump canceló todos los contratos federales con Anthropic, cosa que, según fuentes consultadas por The New York Times, están ahora revisando en la Casa Blanca, donde ha causado mucha “impresión y preocupación” su modelo Mythos. Según alertó la propia compañía, es tan potente que puede descubrir en pocos minutos vulnerabilidades en el código fuente de sistemas operativos, navegadores o programas financieros que llevan décadas sin ser detectadas. Estos fallos son un caramelo para los ciberdelincuentes, un trampolín para que entren en sistemas ajenos.

La IA lleva años, o décadas, en el Pentágono: se usa para guiar misiles, en sistemas de navegación y en muchas otras tareas. La diferencia es que, hasta ahora, esos sistemas los desarrollaba el Gobierno. Tras la irrupción de la IA generativa, la que está detrás de ChatGPT, Claude o Gemini, Trump ha decidido darle el testigo a empresas comerciales. Incluso se le ha dado galones a directivos como Andrew Bosworth, jefe de producto de Meta, nombrado hace casi un año teniente coronel en la reserva. Para muchos analistas, resulta inquietante que las big tech estén ya gestionando asuntos de seguridad nacional. “Si el objetivo del uso de la IA es hacer que la guerra sea más caótica y devastadora, sin duda tendrá ese efecto. Si el objetivo es hacer que la guerra sea más precisa y menos peligrosa para la población civil, la IA podría tener la capacidad de reducir los errores en los conflictos, pero aún no se nos ha presentado ningún caso concreto en el que la IA generativa haya evitado errores en la guerra”, sostiene Arthur Holland, especialista en tecnología militar y asesor de la ONU en materia de armas autónomas.

El juicio de Silicon Valley

Mientras, en Oakland, el hombre más rico del mundo ha puesto el ventilador. Elon Musk cofundó OpenAI para tratar de romper el monopolio científico que entonces tenía Google en casi todos los frentes de la IA. Fue él quien puso a Sam Altman a dirigir la entidad no lucrativa, que más tarde se convirtió en empresa y que ahora se prepara para salir a Bolsa. Musk, que se fue de OpenAI y fundó su propia startup del sector, xAI, pide una indemnización de 150.000 millones de dólares (128.000 millones de euros) por el cambio de estatus legal que enriqueció a su pupilo. Altman, por su parte, alega que su mentor siempre supo que la única forma de hacer algo grande y escalar la tecnología era crear una empresa.

“Hasta cierto punto, esto es una batalla de egos, y es difícil ponerse del lado de alguno de ellos, pero también es un juicio sobre si OpenAI debería cumplir su promesa de mantenerse como entidad sin ánimo de lucro y de trabajar por el bien de la humanidad, lo que claramente ya no hace”, opina Gary Marcus, profesor emérito de psicología y neurociencia en la Universidad de Nueva York y una conocida voz crítica con la industria de la IA. “No soy un gran fan de Musk, pero el mundo sería mejor si se obligase a OpenAI a perseguir su misión original”, añade.

El juicio ha revelado pasajes jugosos. Como que Zuckerberg escribió a Musk cuando dirigía el Departamento de Eficiencia (DOGE) para preguntarle si podía ayudarle. “No es mi intención ofenderte, pero está en juego el destino de la civilización”, le respondió. Pese a ese desplante, la documentación revelada muestra que Musk estuvo en constante comunicación con el dueño de Meta, a quien ofreció unirse a él para comprar OpenAI. También se ha sabido que, en 2016, se le preguntó a Musk si OpenAI debería alojarse en servidores de Microsoft o Amazon. “Creo que Jeff [Bezos] es un poco idiota y Satya [Nadella] no, así que me decanto ligeramente por Microsoft”, escribió Musk en un correo electrónico.

“Antiguamente, los profetas que hacían profecías imprudentes acababan mal”, señala la filósofa Carissa Véliz, profesora del Centro de Ética y Humanidades de la Universidad de Oxford. “En los últimos tiempos, resulta gratuito hacer falsas promesas. Este juicio va a mostrarnos por primera vez en mucho tiempo si alardear de ciertas intenciones y luego no cumplirlas puede tener o no consecuencias legales”.


source

Relacionados

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Actualidad