Un paso más hacia la primera normativa sobre Inteligencia Artificial

Para garantizar un desarrollo ético y centrado en el ser humano de la Inteligencia Artificial (IA) en Europa, los eurodiputados han aprobado nuevas normas de transparencia y gestión de riesgos para los sistemas de IA.


La Comisión de Mercado Interior y la Comisión de Libertades Civiles aprobaron el jueves, por 84 votos a favor, 7 en contra y 12 abstenciones, un proyecto de mandato de negociación sobre las primeras normas de la historia para la Inteligencia Artificial. En sus enmiendas a la propuesta de la Comisión, los eurodiputados pretenden garantizar que los sistemas de IA estén supervisados por personas, sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. También quieren contar con una definición uniforme de IA diseñada para ser tecnológicamente neutra, de modo que pueda aplicarse a los sistemas de IA de hoy y de mañana.

Enfoque de la IA basado en el riesgo – Prácticas de IA prohibidas

Las normas siguen un enfoque basado en el riesgo y establecen obligaciones para proveedores y usuarios en función del nivel de riesgo que pueda generar la IA. Los sistemas de IA con un nivel inaceptable de riesgo para la seguridad de las personas estarían estrictamente prohibidos, incluidos los sistemas que despliegan técnicas subliminales o de manipulación intencionada, explotan las vulnerabilidades de las personas o se utilizan para el scoring social (clasificación de personas en función de su comportamiento social, estatus socioeconómico o características personales).

IA de alto riesgo

Los eurodiputados ampliaron la clasificación de áreas de alto riesgo para incluir los daños a la salud, la seguridad, los derechos fundamentales o el medio ambiente de las personas. También añadieron a la lista de alto riesgo los sistemas de IA para influir en los votantes en las campañas políticas y en los sistemas de recomendación utilizados por las plataformas de medios sociales (con más de 45 millones de usuarios según la Ley de Servicios Digitales).

IA de uso general: medidas de transparencia

Los eurodiputados incluyeron obligaciones para los proveedores de modelos de cimentación -un desarrollo nuevo y en rápida evolución en el campo de la IA-, que tendrían que garantizar una sólida protección de los derechos fundamentales, la salud y la seguridad y el medio ambiente, la democracia y el Estado de Derecho. Tendrían que evaluar y mitigar los riesgos, cumplir los requisitos de diseño, información y medio ambiente y registrarse en la base de datos de la UE.

Los modelos de base generativa, como GPT, tendrían que cumplir requisitos adicionales de transparencia, como revelar que los contenidos han sido generados por IA, diseñar el modelo para evitar que genere contenidos ilegales y publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento.

Apoyar la innovación y proteger los derechos de los ciudadanos

Para impulsar la innovación en IA, los eurodiputados han añadido exenciones a estas normas para las actividades de investigación y los componentes de IA proporcionados bajo licencias de código abierto. La nueva ley promueve la creación de entornos controlados por parte de las autoridades públicas para probar la IA antes de su despliegue.

Los eurodiputados quieren impulsar el derecho de los ciudadanos a presentar quejas sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten significativamente a sus derechos. Los eurodiputados también han reformado el papel de la Oficina de Inteligencia Artificial de la UE, que se encargaría de supervisar cómo se aplica el reglamento sobre IA.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *