La nueva regulación sobre inteligencia artificial en la Unión Europea: ¿pionera o restrictiva?

Artículo de Opinión de Mario Villamor Nodal, técnico de Europe Direct Ciudad Real y Eurodesk Ciudad Real

El Reglamento de Inteligencia Artificial fue definitivamente aprobado el pasado mes de mayo en la Unión Europea. Esto implica que se convierte en normativa directamente aplicable en todos los Estados miembros de la Unión Europea. Su aplicación se irá graduando de forma progresiva hasta el año 2026, fecha en la que entrará en vigor en toda su extensión. 

Este Reglamento establece un marco normativo para el empleo de la Inteligencia Artificial (de ahora en adelante, IA) en toda la UE donde la seguridad, la transparencia y la responsabilidad son las claves. 

La IA para el Reglamento y sus categorías

El Reglamento define Sistema de Inteligencia Artificial como aquel que opera con elementos de autonomía y que, basándose en datos y entradas obtenidos de humanos o máquinas, infiere cómo alcanzar unos objetivos propuestos, usando para ello técnicas basadas en el aprendizaje-máquina o en lógica y conocimiento, y genera como salida contenidos, predicciones, recomendaciones o decisiones que influyen en el entorno con el que el sistema interactúa.

El Reglamento hace varias distinciones: 

● Las aplicaciones y sistemas de riesgo inaceptable, como los sistemas de puntuación social que gestiona el Gobierno (empleado en China, por ejemplo); 

● Las aplicaciones de alto riesgo, como el escaneo de CV o las relativas a la medicina

● Las que tienen obligaciones específicas sobre transparencia, por ejemplo los bots;

● Y aquellas de mínimo o escaso riesgo

Entre las principales claves de este Reglamento encontramos: la regulación sobre la comercialización y uso de sistemas de IA en la UE, la lucha por la mitigación de riesgos que emprende este cuerpo normativo, la protección hacia la ciudadanía europea que blinda este texto legal (en especial, respecto a acceso a servicios esenciales) o la transparencia sobre contenidos creados o manipulados con IA. 

Cronología e importancia del Reglamento

La Inteligencia Artificial nos afecta de manera directa en nuestro día a día, por ejemplo a la hora de personalizar la publicidad que recibimos, en el tratamiento de enfermedades o a la hora de captar o analizar nuestro rostro. Este Reglamento ha sido una normativa pionera, junto al proyecto de Ley aprobado en Brasil.

La difusión viral de los conocidos como deepfake, o vídeos manipulados que emulan la identidad de otra persona, o la manipulación de la Inteligencia Artificial para influir en los resultados de las Elecciones, son algunas de las principales preocupaciones de la UE. 

Este mes de noviembre, de hecho, se prohibirá el uso de sistemas de Inteligencia Artificial de categorización biométrica por creencias religiosas, políticas, filosóficas, de raza u orientación sexual, además de aquellos que puntúan a las personas según su comportamiento o características personales. Asimismo, se prohibirán los sistemas de expansión o creación de bases de datos faciales en base a datos extraídos de internet o grabaciones audiovisuales. 

Quedarán restringidos, igualmente, el reconocimiento de emociones en el trabajo y escuelas, además de la actuación policial predictiva. 

Para aclarar, los datos biométricos hacen referencia a nuestros datos personales tomados en base a características físicas, fisiológicas o asociados al comportamiento y los sistemas o procedimientos tecnológicos para identificarnos. Aquí englobaríamos, por ejemplo, la toma de huella dactilar para fichar en el trabajo, ya restringida por la Agencia Española de Protección de Datos. Así, de acuerdo al Reglamento General de Protección de Datos, quien emplee sistemas biométricos para registrar el horario se puede enfrentar a una sanción. 

Lo que la Unión Europea pretende con esta normativa es garantizar el respeto a los derechos y libertades fundamentales de la ciudadanía europea, además de ponderar de manera efectiva los beneficios y los riesgos que presentan para las personas, identificando aquellos sistemas que puedan ser calificados de alto riesgo. Las multas son elevadas y pueden ir del 1,5% del volumen global de negocio hasta el 7% (esto es, podrían ir de 7,5 millones de euros hasta los 35). 

En resumen, la ley presenta una serie de prohibiciones como la manipulación cognitiva, el seguimiento indiscriminado de imágenes faciales obtenidas de internet o de cámaras de circuito cerrado, el reconocimiento de emociones en entornos laborales y educativos, la calificación ciudadana, la categorización biométrica para deducir datos sensibles como la orientación sexual o creencias religiosas, y en algunos casos, la vigilancia policial predictiva de individuos.   

No obstante, sí existen otros supuestos, como el empleo de cámaras de identificación biométrica ante la prevención de amenazas terroristas donde se podrán emplear estos sistemas. Actualmente, España se encuentra en el nivel 4 de alerta antiterrorista (alto), y el penúltimo antes del nivel extremo. En este sentido, el uso en "tiempo real" de estos sistemas se limitará a períodos y lugares concretos bajo autorización judicial o administrativa previa. 

La transparencia será uno de los requisitos básicos que se impongan estos sistemas y, para aquellos modelos más potentes, se impondrán controles en cuanto a la evaluación de modelos, la mitigación de riesgos sistémicos y la información sobre incidentes. 

De esta forma, la Unión Europea garantiza la protección de nuestros derechos, al tiempo que cataliza la innovación y erigiendo a Europa en líder del sector.

Ámbito de aplicación del Reglamento 

En lo que respecta al ámbito de aplicación, en primer lugar, la ley no se aplicará fuera del ámbito de aplicación del derecho de la UE. Además, no tiene como objetivo afectar las competencias de los Estados miembros en materia de seguridad nacional ni a ninguna entidad a la que se hayan encomendado tareas en este ámbito. Finalmente, la ley no tendrá aplicación en ámbitos donde la IA se usa por motivos militares, de defensa, investigación, innovación y a las personas que utilizan la IA por motivos profesionales. 

La ley, además, establece criterios horizontales que tienen como objetivo dividir los sistemas de IA en dos tipos: aquellos que tienen un nivel de peligro bajo o mínimo para la sociedad y, en segundo lugar, aquellos que representan pueden llevar amenazas más importantes. 

Las primeras tendrían pocas obligaciones de transparencia, como la divulgación de que el contenido fue generado mediante IA, permitiendo a los usuarios tomar decisiones informadas sobre su uso futuro.

Por otro lado, los sistemas de IA con riesgo alto deberán cumplir una serie de requisitos y obligaciones para acceder al mercado de la UE. Estos requisitos deben ser técnicamente viables y las empresas deben acreditar sus propios sistemas de IA. Para estos sistemas, existe la obligación de evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos, así como garantizar la supervisión humana. Los ciudadanos tendrán derecho a presentar quejas sobre los sistemas de IA y recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten sus derechos.

Opiniones acerca del Reglamento

La presidenta de la Comisión Europea, Ursula Von Der Leyen, expresó gran satisfacción por el acuerdo, afirmando que la UE ha alcanzado un acuerdo histórico sobre la Ley de Inteligencia Artificial, el primer marco jurídico global en esta área. Según la alemana, esta ley refleja los valores europeos y se centra en regular los riesgos, promoviendo la innovación responsable. Además, garantiza la seguridad y los derechos fundamentales de personas y empresas, apoyando el desarrollo y aceptación de una IA fiable en la UE, contribuyendo significativamente a establecer normas y principios globales para una IA centrada en el ser humano.

Las opiniones a favor de este Reglamento celebran su claridad, el histórico paso que ha dado la Unión Europea al legislar en este sector y por la imposición de sanciones y restricciones frente a los riesgos que entraña inteligencia Artificial, fomentando un uso responsable y una regulación estricta frente a las formas más dañinas para las libertades fundamentales. 

Sin embargo, tal y como recogen diversos medios, existen también voces críticas con el acuerdo. La Asociación de la Industria de la Computación y las Comunicaciones (CCIA Europa) advierte que, sin mejoras técnicas significativas en las próximas semanas, Europa podría perder una oportunidad única respecto al uso de la IA. 

Además, para Max von Thun, director para Europa del Open Markets Institute, existen importantes lagunas jurídicas para las autoridades públicas y "una regulación relativamente débil de los modelos de base más grandes que plantean los mayores daños" (EURONEWS, 2024). Señala, asimismo, la amenaza de la IA respecto a su creciente papel y a la elevada influencia de las empresas tecnológicas dominantes, que afectan a nuestras vidas y a nuestras democracias. 

Comentarios