Ley Europea de Inteligencia Artificial – Acuerdo en trílogos

El 8 de diciembre de 2023, tras 36 horas de negociación, se llegó a un acuerdo entre el Parlamento Europeo y el Consejo Europeo para finalizar un texto legislativo que regule la Ley Europea de Inteligencia Artificial -IA-.

La Presidencia Española ha jugado un papel instrumental para fraguar dicho acuerdo, incluyendo la contribución de la Delegación Socialista Española, que a través de Ibán García del Blanco, estuvo involucrada en el proceso negociador. El eurodiputado socialista Ibán García del Blanco, en calidad de negociador del Parlamento, representa la comisión de Asuntos Legales (JURI), ostentando competencias exclusivas para los artículos 13 (transparencia), 14 (supervisión humana), 52 (medidas adicionales de transparencia), 69 (códigos de conducta). Dichos apartados incluyen actividades regulatorias en los ámbitos de derechos de autor, copyright, secretos comerciales, alfabetización en IA y principios éticos.

La Ley Europea de Inteligencia Artificial utiliza la definición de IA establecida por el acuerdo de la OCDE, si bien incluye matices para adecuarla a cambios en el futuro próximo. En el reglamento del Parlamento no se contemplan los usos militares o de defensa, o cuestiones de seguridad nacional, ya que estas no son competencias de la UE.

La legislación parlamentaria se enfoca principalmente en la noción del riesgo. Se crean salvaguardas para asegurar que la comercialización, la puesta en servicio o el uso de la IA no constituyan riesgos para la seguridad, la salud o los derechos fundamentales de los ciudadanos de la Unión. Dichas salvaguardas se han extendido para incluir también protecciones contra los riesgos a la democracia, el estado de derecho o la protección medioambiental.

En el ámbito laboral, se exige que las empresas informen a los trabajadores si estos están siendo expuestos a programas de IA. Según el sector del mercado laboral, las regulaciones podrán ser más o menos restrictivas.

La nueva ley estipula casos en los que está estrictamente prohibido utilizar sistemas de IA, si bien también incluye excepciones en casos justificados, siempre cumpliendo condiciones estrictas de forma rigurosa. Entre las aplicaciones prohibidas figuran los sistemas de Reconocimiento Biométrico en Remoto (RBI) en ‘tiempo real’, salvo en casos de identificación de víctimas de secuestro, tráfico humano, explotación sexual, o de personas desaparecidas. También se permitirá el uso de RBI para prevenir actividades terroristas, y para localizar a presuntos delincuentes si la pena cometida pudiera saldarse con al menos 4 años de prisión. En cualquier caso, e independientemente de dichas excepciones, siempre se requerirá autorización judicial para ejecutar protocolos de RBI, además de exigirse una evaluación de impacto sobre derechos fundamentales.

Según la nueva ley, estará estrictamente prohibido usar IA con fines que vulneren los derechos fundamentales del ciudadano. Por consiguiente, no se podrá usar dicha tecnología para rastrear imágenes faciales en redes sociales o internet, ni podrán emplearse sistemas de reconocimiento de emociones en el ámbito laboral o educativo.

Se prohíbe también el uso de sistemas de policía predictiva, así como aquellos de categorización biométrica basados en ideología política, religiosa o filosófica, pertenencia a sindicatos, orientación sexual o raza. En los casos en que la ley permita el uso de la IA, deberán observarse medidas para respetar las leyes existentes sobre derechos de autor, ciñéndose a códigos de buenas prácticas. Se creará una oficina de la IA, incorporándose ésta a la Comisión Europea pero disponiendo de fondos y profesionales propios.

La ley identifica aplicaciones de la IA en mercado de bienes y servicios donde existen altos riesgos, incluyendo bienes de ocio (juguetes), dispositivos médicos y automóviles. También se señala la concesión de créditos o seguros como un servicio donde la IA puede tener efectos adversos. Otras aplicaciones de la IA, como la recomendación personalizada de contenidos en plataformas digitales de entretenimiento, no se incluyen dentro de esta categoría de altos riesgos, pues ya disponen de regulación propia mediante la DSA.

También se mencionan medidas específicas para gobernar el uso de las IA generativas, en aras de prevenir los efectos adversos de los “deepfakes” o de la manipulación o generación de imágenes, audio o vídeo en general. Los proveedores de medios audiovisuales deberán declarar la existencia de contenidos generados por IA, sin que esto tenga que interferir en el uso y disfrute de los mismos.

En el caso de que la actividad pueda ser considerada de alto riesgo, el proveedor de bienes o servicios tiene la obligación legal de declarar dicha condición al consumidor o usuario. Para contrarrestar dichos altos riesgos, se establecen una serie de protocolos a cumplir por las empresas, incluyendo una evaluación de riesgos, buena gobernanza de los datos utilizados en el programa para evitar discriminación, medidas de transparencia para facilitar toda la información relevante de manera clara y accesible, medidas de ciberseguridad, supervisión humana, y planes de prevención y reducción de riesgos.

En el caso de incumplimiento o violación de las normas estipuladas por la ley Europea de inteligencia artificial, las empresas se exponen a multas de hasta 35 millones de Euros, o el 6.5% de sus ganancias anuales.

De cara al futuro, y para optimizar la eficacia de las nuevas medidas, se aspirará a mejorar los conocimientos de IA entre la población y los profesionales en ámbitos laborales particularmente expuestos a estas nuevas tecnologías. Se ofrecerán planes de formación para mejorar las capacidades de evaluación de riesgos, y así garantizar una adecuada implementación de la nueva ley. Los consumidores, por otra parte, tendrán derecho a recibir una explicación sobre cómo les puede afectar la IA cuando consumen bienes y servicios.

Scroll al inicio