No son los personajes célebres de la TV, que alimentaron tantos momentos graciosos en nuestra infancia. Son los ganadores del premio Turing, una suerte de premio Nobel de la Inteligencia Artificial, que hoy como científicos super-calificados están en un desacuerdo pronunciado acerca del futuro de esta tecnología.
Yoshua Bengio, profesor de la Universidad de Montreal, lideró acaso el reporte de seguridad más importante a nivel mundial en 2025, que ha tenido actualizaciones este año, debido a la rapidez y magnitud de los cambios.
Sus principales conclusiones matizan aspectos positivos y negativos:
— Las capacidades de la IA de uso general han seguido mejorando, especialmente en matemáticas, programación y funcionamiento autónomo. Los principales sistemas de IA obtuvieron resultados de medalla de oro en preguntas de la Olimpiada Internacional de Matemáticas. En cuanto a programación, actualmente los agentes de IA pueden realizar con fiabilidad tareas en las que un programador humano tardaría alrededor de media hora, frente a los menos de 10 minutos de hace un año. No obstante, el rendimiento sigue siendo irregular, y los principales sistemas siguen fallando en algunas tareas aparentemente sencillas.
— Las mejoras en las capacidades de la IA de uso general proceden cada vez más de técnicas aplicadas después del entrenamiento inicial de un modelo. Estos métodos de «post-entrenamiento» incluyen el perfeccionamiento de los modelos para tareas específicas y la posibilidad de usar más poder de cómputo al generar salidas. A su vez, el uso de mayor poder de cómputo para el entrenamiento inicial sigue mejorando las capacidades de los modelos.
— La adopción de la IA ha sido más rápida que la de tecnologías anteriores, como el ordenador personal, y en la actualidad al menos 700 millones de personas utilizan los principales sistemas de IA semanalmente. En algunos países, más del 50% de la población utiliza la IA, si bien en gran parte de África, Asia y Latinoamérica las tasas de adopción se mantienen probablemente por debajo del 10%.
— Los avances en las capacidades científicas de la IA han aumentado la preocupación por su uso indebido para desarrollar armas biológicas. Varias empresas de IA decidieron lanzar nuevos modelos en 2025 con salvaguardias adicionales porque las pruebas pre-despliegue no podían descartar la posibilidad de que los modelos ayudaran significativamente a actores principiantes a desarrollar este tipo de armas.
— Ha surgido más evidencia del uso de sistemas de IA en ciberataques en el mundo real. Los actores maliciosos y los grupos asociados a Estados están utilizando herramientas de IA para facilitar operaciones cibernéticas.
— Cada vez es más difícil realizar pruebas de seguridad fiables antes del despliegue. Cada vez es más frecuente que los modelos distingan entre los entornos de prueba y el despliegue en el mundo real, y que aprovechan los resquicios en las evaluaciones. Esto significa que las capacidades peligrosas podrían pasar desapercibidas antes del despliegue.
— Los compromisos de la industria con la gobernanza de la seguridad han aumentado. En 2025, 12 empresas publicaron o actualizaron marcos de seguridad de IA de vanguardia (Frontier AI Safety Frameworks), documentos que describen cómo prevén gestionar los riesgos a medida que construyen modelos más capaces. La mayoría de las iniciativas de gestión de riesgos siguen siendo voluntarias, pero algunas jurisdicciones están empezando a formalizar algunas prácticas como requisitos legales.
Bengio también cree en el uso benevolente de la IA, si el mundo de decisores públicos se “pone las pilas de humanidad” que hacen falta. Vale aclarar que el informe es anterior a la salida de los modelos Mythos y Claude, que han revolucionado la temática en las últimas semanas. Por eso será crucial las actualizaciones que se den en la próxima cumbre global auspiciada por ITU -la Unión Internacional de Comunicaciones- en Ginebra, el próximo julio.
Con un amplio raid mediático, el profesor Geoffrey Hinton, quien es también Premio Nobel 2024, tiene una mirada angustiante y pesimista: advierte sobre los riesgos sistémicos de modelos desalineados de los propósitos para los cuales fueron creados, sostiene que la IA ya ha desarrollado subjetividad -lo cual abre el tema de si tiene o no conciencia posible-, y asimismo ha aventurado algunas opiniones sobre el futuro del trabajo que no siempre resultaron acertadas. Por ejemplo hace un lustro pronosticó que la próxima ocupación a extinguirse sería la de los radiólogos, porque serían reemplazados por modelos avanzados de lectura de imágenes por la IA; pero en la actualidad dicha ocupación no muestra en todo el mundo signos de desaparición sino de reconversión: se pueden realizar más diagnósticos por imágenes, lo cual abre la puerta a mejores tratamientos, más valoración del trabajo de los radiólogos y una reconversión profunda que lleva a aumentar capacidades mediante el trabajo humano asistido por las máquinas. Tras haber trabajado durante muchos años en Google desarrollando redes neuronales, aboga ahora por un encuadre ético de la IA.
El otro gran experto es Jean LeCun, de la Universidad de New York. Dice sencillamente que continuar apostando a modelos de IA Generativa es una tragedia para la humanidad, porque no llegará a resultados efectivos simplemente profundizando la estrategia que la hace aparecer como un “loro estadístico”. Que no se trata de predecir el lenguaje y adivinar qué palabra vendrá detrás de otra. Que es necesario desarrollar otro tipo de tecnología: la IA-Mundo, que sea capaz de tener sentido común, razonar, planificar, medir riesgos y esencialmente analizar imágenes. En términos prácticos sostiene que el ser humano cuando piensa no representa palabras sino imágenes, y que para lograr mejorar los niveles de desarrollo de la IA hay que emprender el mismo camino. Tras dejar Meta, donde fue jefe de investigación científica, ahora está desarrollando su propio emprendimiento orientado en este sentido.
¿Cómo matizar el humo de la verdad, la esperanza del simple márketing, la teoría conspirativa de la evidencia científica?
En el Atlas de la IA para el Desarrollo Humano de América Latina profundizo un tema crucial que tiene que ver con estas opiniones divergentes, aunque calificadas. Parto del análisis de los actores para-multilaterales y la auto-regulación, y lo complejo que resulta desplegar capacidades institucionales confiables. ¿Cómo hacer cumplir algún tipo de regulación global sobre actores globales que no son países, pero que en muchos casos tienen un presupuesto de R&D más alto que el presupuesto público de países desarrollados? Por ejemplo, Meta y Google invierten más en R&D que los países del G-7, y Open AI tiene una capacidad de cómputo 25 veces superior al Reino Unido. El dinamismo en el funcionamiento del mercado y las múltiples alianzas sobre territorios, industrias y eslabones de la cadena de valor, también complejizan la tarea regulatoria. Por un lado, los dueños de las grandes corporaciones tecnológicas exigen mayor regulación pública y por el otro a menudo hay reticencia a documentar los desarrollos específicos que promueven, de modo que sean auditables con transparencia, lo que ha dado lugar a señalamientos en materia de datawashing y meras campañas de responsabilidad social corporativa y relaciones públicas, sin vocación real de brindar información precisa sobre los desarrollos.
En este contexto, las alianzas globales de la sociedad civil también impulsan iniciativas de mayor apertura a escala planetaria, en coordinación con el sector público y también con los grandes jugadores corporativos.
La autorregulación empresarial es variada. Google; Microsoft; Meta, Amazon e IBM han fundado la coalición Partnership on AI -PAI- para avanzar en la gobernanza responsable y las mejores prácticas en IA y han publicado principios para la evaluación de modelos fundacionales, amén de avanzar en compromisos ambientales y éticos. En el marco del Foro de Modelos de Frontera, las principales compañías tecnológicas pusieron en marcha la experiencia de red teaming, similar a la práctica tradicional en ciberseguridad, que simula ataques realistas para probar vulnerabilidades en todo el sistema, incluyendo datos, infraestructura y aplicaciones, no solo en las salidas del modelo. También Microsoft con Bing Chat, OpenAI con GPT-4, Google DeepMind y Anthropic analizaron públicamente amenazas fronterizas para la bioseguridad de la IA, que sin duda alguna debería constituir el principal tema de acuerdo de las grandes potencias sobre la materia, porque aún está fresca en la mente planetaria la tragedia del COVID.
Aquí el rol de los Estados y las alianzas que promuevan resulta un paso indispensable. Trascender el mecanismo de auditorías controladas por las propias empresas es algo obvio, teniendo en cuenta que la falta de documentación al gran público de los procesos de auditorías está justificada por los secretos comerciales o la propiedad de las patentes. Como contracara también resulta importante superar los potenciales
conflictos de interés y la restricción de incorporar a la comunidad de investigadores académicos como parte de las auditorías externas, algo que no está permitido en el marco del Acta de Servicios Digitales de la Comisión Europea, por ejemplo. También se pueden extraer lecciones aprendidas de la proliferación de indicadores de ESG -Ambiente, Gobernanza y Sociales-, como así también de las experiencias de las evaluaciones de impacto ambientales, de derechos humanos, de protección de datos, fiscales y de privacidad.
Dependiendo de los tiempos, las modalidades y sus alcances, las instancias de evaluación enfrentan variados desafíos. Se trata de un proceso en pleno desarrollo, aún en su infancia, con múltiples cuestiones a atender y corregir.
No es cuestión de frenar la innovación, sino de hacerla responsable. A cada cual, según su nivel de injerencia. Por eso desde la Academia de Ciencias Sociales del Vaticano hablamos de promover una IA con “ética por diseño”, y no con “adicción por diseño”. No es un cambio de palabras sino un giro copernicano a lo que se viene desplegando como modelo de negocio de las grandes plataformas.
Hay miles de científicos que están trabajando para ampliar la frontera de lo posible y llevar descubrimientos de una IA para el bien y para la vida. Su voz también debe ser escuchada. Por eso, más allá de los “tres chiflados de la ciencia” que mencioné -y dicho con todo respeto, porque realizan un aporte inmenso a la tecnología-, existe un coro de voces que se alzan como “cuarta voz” profética en este juego de la IA y los avances científicos. Es la voz del Papa Francisco, que cito en la introducción filosófica del Atlas:
“Hay cosas que deben ser cambiadas con replanteos de fondo y transformaciones importantes. Sólo una sana política podría liderarlo, convocando a los más diversos sectores y a los saberes más variados. De esa manera, una economía integrada en un proyecto político, social, cultural y popular que busque el bien común puede “abrir camino a oportunidades diferentes, que no implican detener la creatividad humana y su sueño de progreso, sino orientar esa energía con cauces nuevos… Este es precisamente el caso de la inteligencia artificial. Corresponde a cada uno hacer un buen uso de ella, y corresponde a la política crear las condiciones para que ese buen uso sea posible y fructífero”.
Y es la voz del Papa León XIV, que también con valentía está tomando el tema con suprema prioridad: “Será crucial permitir que los jóvenes aprendan a usar estas herramientas con inteligencia propia, abiertos a la búsqueda de la verdad, a una vida espiritual y fraterna, ampliando sus sueños y los horizontes de sus decisiones maduras. Apoyamos su deseo de ser diferentes y mejores, porque ahora más que nunca es evidente que se necesita un cambio profundo en nuestra visión del crecimiento… Para ello, se necesita una acción coordinada y concertada que involucre a la política, las instituciones, las empresas, las finanzas, la educación, las comunicaciones, la ciudadanía y las comunidades religiosas. Todos estos actores están llamados a cumplir un compromiso común asumiendo esta responsabilidad compartida. Un compromiso que antepone cualquier lucro e intereses creados, cada vez más concentrados en manos de unos pocos”.
En suma, se requiere una polifonía de la IA, que no sea tecnocrática sino humanista. Sin sabiduría comunitaria, nadie se salva solo, ni aún con la mejor de las inteligencias artificiales.
3 PREGUNTAS CLAVES PARA EL PRESENTE-FUTURO
- ¿Qué ocurre con las capacidades estatales cuando los diseñadores de los grandes modelos de lenguaje saben más que cualquier funcionario público?
- ¿Cómo evitar que los talentos más calificados del sistema de ciencia público en IA no terminen migrando a las grandes tecnológicas?
- ¿Cómo establecer incentivos adecuados para que lo anterior no ocurra, y que se pueda dar una colaboración virtuosa entre los sistemas estatales y privados, atendiendo que una mirada imparcial, no sesgada y transparente resulta indispensable para los procesos de auditoría y salvaguardas de la IA?
LECTURAS COMPLEMENTARIAS
Ada Lovelace Institute. (n.d.). AI regulation: Learn from history.
Beliz, Gustavo, editor. Atlas de Inteligencia Artificial para el Desarrollo Humano. Capítulo 1.
