Juan Manuel Ruz Lobo Profesor del Máster en Marketing Digital de la Universidad Isabel I
Mié, 13/11/2024 - 12:39

Regulación de la IA

Fotografía infográfica sobre el uso de la Inteligencia Artificial.

Serie: 'Digital Engagement' (XLI)

El Reglamento de la Unión Europea sobre Inteligencia Artificial (IA), adoptado el 1 de agosto de 2024, constituye un marco normativo integral orientado a la regulación del desarrollo, uso y supervisión de sistemas de IA en Europa. Su finalidad es asegurar que las aplicaciones de IA cumplan con estándares éticos y de seguridad, respetando los derechos fundamentales y promoviendo una relación responsable con la tecnología.

Objetivos y ámbito de aplicación

El reglamento persigue la creación de un entorno de confianza en el uso de la IA dentro de la Unión Europea, estableciendo directrices que no solo abarcan los sistemas desarrollados en Europa, sino también aquellos importados y utilizados en su territorio. Se dirige a todos los actores involucrados en la cadena de valor de la IA, desde desarrolladores y distribuidores hasta usuarios, ya sean entidades públicas o privadas, garantizando que estos sistemas operen en armonía con los principios éticos y legales europeos.

Clasificación del riesgo

Para gestionar los distintos niveles de impacto de la IA, el reglamento introduce una clasificación en cuatro niveles de riesgo:

  1. Riesgo inaceptable: Agrupa aquellas tecnologías que suponen un riesgo directo para la seguridad o los derechos humanos, como los sistemas de vigilancia masiva o los que manipulan emociones de forma coercitiva. Su uso queda prohibido en la Unión Europea.
  2. Riesgo alto: Incluye aplicaciones en ámbitos sensibles, como la sanidad, la educación, el empleo y los servicios públicos. Estas tecnologías deben cumplir con requisitos rigurosos de transparencia, evaluación de impacto y control continuo.
  3. Riesgo limitado: Representa aplicaciones de IA que interactúan con los usuarios de forma segura, aunque sin exponerlos a un alto riesgo. Estos sistemas deben garantizar la transparencia, por ejemplo, mediante la notificación a los usuarios cuando están interactuando con un sistema de IA.
  4. Riesgo mínimo o nulo: Agrupa aquellos sistemas que presentan un riesgo muy bajo para los derechos y la seguridad de los ciudadanos, y no requieren medidas específicas de control.

Requisitos y obligaciones principales

Los sistemas de IA considerados de alto riesgo deben cumplir con una serie de requisitos específicos:

  • Transparencia: Los desarrolladores deben asegurar que los usuarios puedan comprender la lógica de funcionamiento del sistema.
  • Calidad de los datos: La IA debe estar fundamentada en datos precisos, completos y adecuados para minimizar sesgos y evitar la discriminación.
  • Supervisión humana: La regulación exige una supervisión humana adecuada en el uso de los sistemas de alto riesgo.
  • Documentación y evaluación de conformidad: Los desarrolladores deben documentar los procesos y verificar que el sistema cumpla con la normativa, sometiéndolo a auditorías periódicas para mantener su validez y seguridad.

Derechos de los usuarios y supervisión

El reglamento otorga a los ciudadanos el derecho a ser informados sobre el uso de IA en interacciones que los afectan y a exigir compensaciones en caso de daños derivados del uso de estas tecnologías. La supervisión del cumplimiento normativo está a cargo de autoridades nacionales, quienes están habilitadas para imponer sanciones en caso de incumplimientos.

Editor: Universidad Isabel I

ISSN 2697-2271.

Burgos, España

Añadir nuevo comentario

La Universidad Isabel I tratará la información que nos facilite con el fin de publicar su comentario como respuesta a esta entrada de su blog, así como para mantenerlo informado de nuestra actividad. Más información sobre este tratamiento y sus derechos en nuestra política de privacidad.