Tecnología
Sistema de reconocimiento facial
Redacción/ Agencias
Barcelona
Las instituciones de la Unión Europea han pactado este viernes la ley de inteligencia artificial que permite o prohíbe el uso de la tecnología en función del riesgo que suponga para las personas y que busca impulsar a la industria europea frente a gigantes como China y Estados Unidos.
«La ley de inteligencia artificial de la UE es pionera en el mundo. Un marco legal único para el desarrollo de la inteligencia artificial en el que se puede confiar», dijo la presidenta de la Comisión Europea, Ursula von der Leyen, en un mensaje en la red social X (antes Twitter).
La UE acuerda la Ley de Inteligencia Artificial
El acuerdo llegó tras 36 horas de negociaciones y aún lo tendrán que ratificar el Parlamento Europeo y el Consejo de la UE, la institución que representa a los Gobiernos europeos.
Uno de los puntos más sensibles de las negociaciones ha sido el uso que las fuerzas del orden podrán hacer de las cámaras de identificación biométrica en espacios públicos para garantizar la seguridad nacional.
Así, el uso de esta tecnología estará prohibida de forma general, y solo se podrá utilizar en tres casos: Para la búsqueda de víctimas de secuestros o trata de seres humanos; para la prevención de ataques terroristas o cuando éste ya se esté produciendo y para la identificación de una persona sospechosa de haber cometido delitos de terrorismo, asesinatos, violaciones o tráfico sexual.
Las cámaras se podrán utilizar con previa autorización judicial para prevenir una amenaza terrorista «genuina y previsible» o «genuina y presente», es decir que se esté produciendo en ese momento.
Durante las negociaciones, los gobiernos han presionado para ampliar la lista de delitos, mientras que la Eurocámara ha intentado limitarla lo máximo posible y obtener fuertes salvaguardas para los derechos fundamentales.
La norma, además, prohíbe todos los sistemas de categorización biométrica por creencias políticas, religiosas, filosóficas o por su raza y orientación sexual. 
Tampoco se podrán utilizar los sistemas que puntúan a las personas en función de su comportamiento o características personales ni la inteligencia artificial capaz de manipular el comportamiento humano.
Estarán prohibidos además los sistemas para expandir o crear bases de datos faciales captando datos de manera indiscriminada a través de internet o de grabaciones audiovisuales
La última prohibición para su uso afecta a las escuelas. En los centros de trabajo o las escuelas tampoco podrán usarse los sistemas de inteligencia artificial capaces de reconocer emociones.
El otro gran asunto que ha centrado las negociaciones es la regulación de los sistemas de inteligencia artificial generativa, en los que se basan modelos como ChatGPT, de la empresa OpenAI o Bard, de Google.
Tendrán que cumplir criterios de transparencia, como especificar si un texto, una canción o una fotografía se han generado a través de la inteligencia artificial y garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.
Inicialmente, la ley no estaba pensada para regular este tipo de sistemas, porque aún no se habían popularizado cuando Bruselas propuso la ley en abril de 2021, pero las instituciones comunitarias han visto la necesidad de legislarlos desde el estallido de ChatGPT el año pasado.
El reglamento no prohíbe su uso pero sí ha establecido una serie de criterios para detectar los modelos que pueden generar un alto riesgo en función del contexto en el que se usen y obliga a sus desarrolladores a cumplir unas salvaguardas más estrictas antes de sacarlos al mercado.
Las negociaciones fueron «apasionadas», ya que el objetivo de la ley es regular el uso de una tecnología con grandes posibilidades para la sociedad, que al mismo tiempo genera dudas y algunas preguntas que los desarrolladores de la inteligencia artificial aún no saben responder, según fuentes conocedoras de los debates.
El reglamento permite o prohíbe el uso de la inteligencia artificial en función del riesgo que genera para las personas e identifica sistemas de alto riesgo que solo se podrán utilizar si se demuestra que respetan los derechos fundamentales.
Por ejemplo, los que se puedan utilizar para influir en el resultado de unas elecciones, los que empleen las entidades financieras para evaluar la solvencia y establecer la calificación crediticia.
La presidencia española del Consejo la UE ha logrado uno de sus principales objetivos en este semestre con el pacto de esta norma pionera en el mundo.
«Hemos logran un hito importante, que los ciudadanos podemos decidir qué se puede hacer y qué no con la inteligencia artificial», dijo la secretaria de Estado española de Telecomunicaciones e Infraestructura Digital, Carme Artigas.
Alfonso Valencia, profesor de la Institución Catalana de Investigación y Estudios Avanzados y director de Ciencias de la Vida en el Centro Nacional de Supercomputación (BSC-CNS), ha observado que la regulación afecta a dos tipos de aplicaciones: las de reconocimiento de personas (como el reconocimiento facial o la biometría), que se prohíben con excepciones; y las denominadas de ‘alto riesgo’, como son los modelos generales (como el popular ChatGPT).
En declaraciones al Science Media Center España (SMC), una oficina independiente que recopila recursos que contribuyen a entender el alcance de avances científicos o tecnológicos, Valencia ha señalado, en relación con las aplicaciones de técnicas de reconocimiento biométrico, que se hacen excepciones para temas policiales «que hacen difícil saber dónde acabará el uso de estas tecnologías en la práctica».
Respecto a las aplicaciones de «alto riesgo», ha subrayado que el documento propone medidas restrictivas que requieren valoración de riesgos, descripción detallada de su funcionamiento o describir todas las fuentes de datos usadas para su entrenamiento, unas medidas que a su juicio son relativamente fáciles de aplicar a sistemas tradicionales como los que operan en bancos o compañías de seguros, «pero muy difíciles o imposibles en los nuevos sistemas de IA».
La ampliación de estas medidas implicará, según Alfonso Valencia, que los sistemas actuales de las grandes compañías no podrán operar en Europa, salvo a través de «IPs» (protocolos de internet) de fuera de Europa.
«En este contexto será muy difícil para Europa, donde operan grupos de investigación, pymes y compañías mucho más pequeñas que las americanas, desarrollar sistemas competitivos», ha manifestado este experto, y ha concluido que «dado que no existe ni la iniciativa, ni el presupuesto, ni la unidad de acción, ni la tecnología para crear esos sistemas, parece que la aplicación de las medidas propuestas dejará definitivamente a Europa fuera del desarrollo de los grandes modelos de IA».
La norma prevé la creación de la Oficina Europea de Inteligencia Artificial, que coordinará el uso de la tecnología entre las autoridades nacionales y que estará asesorada por un panel de científicos y de organizaciones de la sociedad civil.
Los países y la Eurocámara la aprobarán en febrero de 2024 y su entrada en vigor llegará en 2026, aunque se aplicará por fases: la oficina europea se creará de forma inmediata, la prohibición de los sistemas prohibidos de inteligencia artificial llegará a los seis meses y los requisitos para los sistemas y modelos de IA generativa, a los 12 meses.
El reglamento prevé multas con un rango que va desde los 35 millones de euros o el 7 % del volumen global de negocio de las empresas, hasta los 7,5 millones de euros o el 1,5% del volumen global de negocio. 
© La Vanguardia Ediciones, SLU Todos los derechos reservados.

source

Dejar una respuesta

Please enter your comment!
Please enter your name here