domingo, mayo 10, 2026

La IA crea un temible dilema al estilo de la Guerra Fría

Más para leer

Trump y Xi Jinping con elementos de robots, misiles, IA y ajedrez en fondos de EE.UU. y China.
Donald Trump y Xi Jinping se enfrentan simbólicamente en un tablero de ajedrez, representando una nueva Guerra Fría por la supremacía en inteligencia artificial y tecnología (Imagen Ilustrativa Infobae)

Cuando Xi Jinping y Donald Trump se reunirán en Pekín los días 14 y 15 de mayo, es posible que aborden problemas tan complejos como la guerra en Medio Oriente, los desequilibrios comerciales y la situación de Taiwán. A esta lista de temas alentadores se suma la inteligencia artificial. Las élites tanto de Beijing como de Washington están inquietas por el rápido avance de esta tecnología. Cuanto más inteligentes se vuelven los modelos de IA, más vitales resultan para la prosperidad interna y la influencia geopolítica en el extranjero. Pero los riesgos que plantean aumentan a la par. Desde la creación de la bomba atómica, ninguna gran potencia se había enfrentado a un dilema semejante.

La administración Trump lo reconoce cada vez más. Tras su reciente disputa con Anthropic, un laboratorio estadounidense, ha abandonado su postura de no intervención en la regulación tecnológica y está considerando la posibilidad de que el gobierno someta los nuevos modelos a un riguroso proceso de verificación. En abril, Anthropic anunció la creación de Mythos, un modelo tan capaz de detectar vulnerabilidades en las ciberdefensas que no podía hacerse público. Estados Unidos y sus rivales tomaron nota. Tras un escepticismo inicial, los medios estatales chinos destacaron las “capacidades de ciberataque sin precedentes” de Mythos, mientras que una emisora ​​rusa lo calificó de “peor que una bomba nuclear”.

El temor a que modelos cada vez más avanzados puedan lanzar ciberataques, diseñar armas biológicas o escapar del control humano ha convertido la diplomacia de la IA en una necesidad urgente. Algunos en Estados Unidos y China sopesan discretamente si pueden acordar límites para una tecnología que ambos consideran esencial para vencer al otro. La desconfianza impera. Ninguna de las partes quiere frenar su propio desarrollo y arriesgarse a otorgar ventaja a la otra.

Algunos expertos tecnológicos estadounidenses teorizan que ser los primeros en crear un modelo de IA que se auto-mejore —y, por lo tanto, sea cada vez más potente— podría generar una enorme ventaja estratégica. Los expertos chinos tienden a ver la IA como clave para el crecimiento económico: más energía nuclear que armas nucleares.

Estados Unidos y China tienen un “interés mutuo” en la seguridad de la IA , declaró Xue Lan, asesor del gobierno chino, ante los asistentes a un evento en el Capitolio estadounidense a finales de abril. “Si un país no está seguro, ninguno de nosotros lo está”, afirmó. Xue Lan y Yi Zeng, director del instituto de seguridad de la IA de Beijing, hicieron un llamamiento a la colaboración global para regular e incluso frenar el desarrollo de la IA.

Esto coincide con la política china. Poco después del lanzamiento de Chat GPT en 2022, China comenzó a impulsar la cooperación internacional en IA y la creación de un organismo de la ONU. Los diplomáticos chinos han planteado la idea de “pausar” el desarrollo de la IA y argumentan que se deben adoptar estándares globales para garantizar que los humanos sigan teniendo el control. Su plan insta a Occidente a compartir su tecnología de IA con los países pobres para evitar la división del mundo entre potencias tecnológicas y países sin acceso a ella.

Es más probable que se adopte un enfoque bilateral, y este enfoque es el preferido por los funcionarios en Washington. Estados Unidos y China concentran el 90% de la capacidad de computación de vanguardia mundial, por lo que son los únicos con verdadera influencia regulatoria. Los funcionarios estadounidenses también consideran que el ecosistema de IA de China representa un riesgo particular. Los modelos chinos son en su mayoría de código abierto, lo que significa que los parámetros que les permiten funcionar se publican libremente, facilitando así el acceso de actores malintencionados a potentes herramientas de IA.

Las conversaciones directas no serían del todo nuevas. Los señores Trump y Xi acordaron “colaborar” en materia de IA cuando se reunieron en Busan, Corea del Sur, en octubre. Anteriormente, en 2024, Joe Biden logró que Xi acordara que las ojivas nucleares serían controladas por humanos, no por IA. Sin embargo, el ritmo acelerado de los riesgos emergentes obliga a replantearse cualquier enfoque fragmentado de la cooperación.

Investigadores estadounidenses y chinos ya colaboran de forma menos pública. Por ejemplo, algunos de los laboratorios más importantes de China, como Baidu, han adoptado código abierto desarrollado por programadores de Anthropic para regular la comunicación entre agentes de IA. En los últimos años se han celebrado varios diálogos informales, a veces en secreto, entre directivos de empresas tecnológicas y ex funcionarios estadounidenses y chinos. Sin embargo, los participantes señalan que, con frecuencia, los expertos técnicos necesarios para lograr avances reales en la armonización de estándares no están presentes.

Ahora parecen posibles tres tipos de cooperación. Primero, el diálogo. Estados Unidos y China podrían participar en un intercambio estratégico de confianza, según un funcionario occidental. En las negociaciones sobre armas nucleares, los países suelen debatir sus planes para gestionar el riesgo, generar confianza y reducir las posibilidades de errores de cálculo. Estados Unidos y China podrían elaborar normas de IA en paralelo, pero no de forma coordinada. “Si leen los mismos documentos técnicos y comparten una información similar, ambos podrían tomar medidas razonables en respuesta”, afirma Karson Elmgren, del Instituto de Política y Estrategia de IA, un centro de estudios estadounidense.

En segundo lugar, Estados Unidos y China podrían acordar cómo evaluar la seguridad de los modelos. Sin compartir sus hallazgos, ambas partes podrían adoptar medidas comunes para detectar comportamientos peligrosos o métodos para identificar motivaciones que no coincidan con las de sus creadores humanos. Es difícil distinguir los datos utilizados para monitorear la seguridad de la IA de la información relevante para su desarrollo, señala Jeffrey Ding, de la Universidad George Washington. Al no compartir los resultados, ambas partes podrían mitigar los temores de filtración de datos técnicos.

En tercer lugar, confiar, pero verificar. Si los señores Trump y Xi se sintieran ambiciosos, podrían buscar un acuerdo formal para desarrollar pruebas de seguridad comunes y compartir los resultados de dichas evaluaciones. Sin embargo, para ello probablemente se requerirían métodos intrusivos para comprobar que se respeta el acuerdo. Estos podrían incluir inspecciones o la transmisión de información sobre la actividad de los centros de datos a un organismo internacional de control, como el Organismo Internacional de Energía Atómica de la ONU, que supervisa el material nuclear.

Todos estos tipos de cooperación parecen muy lejanos. Los investigadores estadounidenses de IA se muestran escépticos ante la sinceridad de los funcionarios chinos. Los laboratorios de IA de China han sido relativamente laxos en materia de seguridad, quizás porque sus modelos aún no son lo suficientemente potentes como para representar amenazas existenciales, o porque carecen del tiempo y el dinero necesarios para probarlos. Los documentos que acompañaban al modelo v4 de DeepSeek, publicado el mes pasado, omitieron medidas de seguridad comunes en los laboratorios estadounidenses. Ryan Fedasiuk, ex funcionario de la administración Biden, sugiere que las preocupaciones expresadas por China sobre la seguridad de la IA son pura fachada y tienen como objetivo “dejar mal parados a los estadounidenses”.

A pesar del apoyo público de China a la gobernanza global de la IA, hasta ahora se ha resistido a dialogar en profundidad con Estados Unidos sobre el tema. En 2024, Estados Unidos envió a altos funcionarios de seguridad y expertos técnicos a reunirse con sus homólogos chinos en Ginebra. China envió funcionarios políticos que se negaron a debatir sobre la seguridad de la IA hasta que Estados Unidos levantara los controles de exportación de chips informáticos avanzados, según fuentes cercanas a las conversaciones. Los diplomáticos estadounidenses se quejan de que China tiene un largo historial de manipulación del diálogo para obtener réditos políticos: por ejemplo, interrumpió las conversaciones sobre el cambio climático en 2022 debido a la visita de Nancy Pelosi a Taiwán.

El discurso chino sobre la IA, incluyendo las recientes conversaciones sobre Mythos, puede reflejar la paranoia de que los laboratorios estadounidenses utilicen las preocupaciones de seguridad para controlar el desarrollo de la tecnología. Algunos temen que compartir datos de seguridad sea una estratagema para arrebatar los secretos tecnológicos de China. Tong Zhao, experto en negociaciones de control de armas nucleares en la Fundación Carnegie, un centro de estudios estadounidense, afirma que los estrategas chinos suelen ser escépticos ante los acuerdos con una contraparte tecnológicamente superior. El historial de China de firmar “tratados desiguales” en el siglo XIX ha hecho que los funcionarios desconfíen de los acuerdos que puedan ralentizar su desarrollo o relegarlos a un segundo plano.

La cooperación resulta aún más difícil debido a lo mucho que está en juego. “Si no ganamos en IA, entonces se acabó el juego”, declaró el secretario del Tesoro estadounidense al Wall Street Journal en abril. El Sr. Xi recientemente elogió la IA como un avance que “definirá una época”. Sin embargo, pronto los líderes estadounidenses y chinos podrían llegar a considerar la IA como existencial por otras razones. “Lamentablemente, la evidencia histórica sugiere que solo se observa un impulso real después de un accidente trágico”, afirma el Sr. Ding, haciendo referencia a los estándares globales establecidos tras el desastre químico de Bhopal en 1984 o el desastre de Chernóbil en 1986. Las negociaciones sobre IA siguen siendo una verdadera prueba para la inteligencia humana.

© 2026, The Economist Newspaper Limited. All rights reserved.


source

Relacionados

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Actualidad