INTELIGENCIA ARTIFICIAL

Europa da luz verde definitiva a las primeras normas mundiales sobre IA

21/05/2024

CATEGORíA: General

El Consejo de la UE ha aprobado una ley innovadora destinada a armonizar las normas sobre inteligencia artificial


La legislación emblemática sigue un enfoque “basado en el riesgo”, lo que significa que cuanto mayor es el riesgo de causar daño a la sociedad, más estrictas son las normas. Es el primero de su tipo en el mundo y puede establecer un estándar global para la regulación de la IA. La nueva ley tiene como objetivo fomentar el desarrollo y la adopción de sistemas de IA seguros y confiables en todo el mercado único de la UE por parte de actores públicos y privados.

 

Foto de Conny Schneider en Unsplash

 

Al mismo tiempo, pretende garantizar el respeto de los derechos fundamentales de los ciudadanos de la UE y estimular la inversión y la innovación en inteligencia artificial en Europa. La ley de IA se aplica sólo a áreas dentro de la legislación de la UE y proporciona exenciones, como por ejemplo para sistemas utilizados exclusivamente con fines militares y de defensa, así como con fines de investigación.

 

Clasificación de los sistemas de IA como prácticas de IA prohibidas y de alto riesgo

La nueva ley clasifica diferentes tipos de inteligencia artificial según el riesgo. Los sistemas de IA que presenten solo un riesgo limitado estarían sujetos a obligaciones de transparencia muy leves, mientras que los sistemas de IA de alto riesgo estarían autorizados, pero sujetos a un conjunto de requisitos y obligaciones para obtener acceso al mercado de la UE.

 

Los sistemas de inteligencia artificial como, por ejemplo, la manipulación cognitivo-conductual y la puntuación social, serán prohibidos en la UE porque su riesgo se considera inaceptable. La ley también prohíbe el uso de IA para vigilancia policial predictiva basada en perfiles y sistemas que utilizan datos biométricos para clasificar a las personas según categorías específicas como raza, religión u orientación sexual.

 

Modelos de IA de propósito general

La ley de IA también aborda el uso de modelos de IA de propósito general (GPAI). Los modelos GPAI que no presenten riesgos sistémicos estarán sujetos a algunos requisitos limitados, por ejemplo con respecto a la transparencia, pero aquellos con riesgos sistémicos tendrán que cumplir con reglas más estrictas.

 

Una nueva arquitectura de gobernanza

Para garantizar una aplicación adecuada, se crean varios órganos de gobierno:

 

  • Una Oficina de IA dentro de la Comisión para hacer cumplir las normas comunes en toda la UE
  • Un panel científico de expertos independientes para apoyar las actividades de aplicación de la ley.
  • Una Junta de AI con representantes de los estados miembros para asesorar y ayudar a la Comisión y a los estados miembros en la aplicación consistente y efectiva de la Ley de AI.
  • Un foro consultivo para que las partes interesadas proporcionen experiencia técnica a la Junta de IA y a la Comisión.

 

Penalizaciones

Las multas por infracciones de la Ley de IA se fijan como un porcentaje del volumen de negocios anual global de la empresa infractora en el ejercicio financiero anterior o una cantidad predeterminada, lo que sea mayor. Las pymes y las empresas de nueva creación están sujetas a multas administrativas proporcionales.

 

Transparencia y protección de los derechos fundamentales

Antes de que algunas entidades que prestan servicios públicos implementen un sistema de IA de alto riesgo, será necesario evaluar el impacto sobre los derechos fundamentales. El reglamento también prevé una mayor transparencia con respecto al desarrollo y uso de sistemas de inteligencia artificial de alto riesgo. Los sistemas de IA de alto riesgo, así como ciertos usuarios de un sistema de IA de alto riesgo que sean entidades públicas, deberán estar registrados en la base de datos de la UE para sistemas de IA de alto riesgo, y los usuarios de un sistema de reconocimiento de emociones tendrán que informar a las personas naturales. personas cuando están expuestas a dicho sistema.

 

Medidas de apoyo a la innovación

La Ley de IA proporciona un marco legal favorable a la innovación y tiene como objetivo promover el aprendizaje regulatorio basado en evidencia. La nueva ley prevé que los entornos limitados de pruebas regulatorios de IA, que permiten un entorno controlado para el desarrollo, prueba y validación de sistemas de IA innovadores, también deberían permitir probar sistemas de IA innovadores en condiciones del mundo real.

 

Fuente: https://www.consilium.europa.eu

 

 

 




Volver al listado Volver al listado





vimeo twitter facebook linkedin


Financiado por la Unión Europea Next GenerationEU Plan de Recuperación, Transformación y Resilencia