Tras intensas negociaciones, la Unión Europea ha alcanzado un acuerdo pionero para regular el desarrollo de la inteligencia artificial (IA). Este pacto, producto de más de 30 horas de diálogo entre la Comisión Europea, el Parlamento Europeo y el Consejo de la UE, representa un hito global, siendo la primera normativa de este tipo en el mundo.
Esta ley, que ha evolucionado considerablemente desde sus primeros borradores de 2019, antes de que la IA se integrara socialmente a través de plataformas como ChatGPT, apunta a regular el uso de la inteligencia artificial basándose en el nivel de riesgo que representa para las personas. Empresas como OpenAI, Microsoft, Google, Amazon y Meta deberán acomodarse a los intereses de la UE
Prohibiciones
La nueva legislación clasifica las aplicaciones de IA en cuatro niveles de riesgo, riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo; y establece prohibiciones específicas. Entre estas, destaca la prohibición de sistemas de IA que manipulen el comportamiento humano, sistemas de puntuación social, y ciertas aplicaciones de vigilancia policial predictiva. Además, enfatiza la prohibición de sistemas biométricos que categoricen a las personas por creencias políticas, religiosas, orientación sexual o raza. En concreto:
Prohíbe el uso de IA para la identificación biométrica a distancia en espacios públicos, excepto en circunstancias limitadas y reguladas.
Prohibe los sistemas de IA que explotan estas vulnerabilidades, distorsionando su comportamiento de manera que pueda causar daño físico o psicológico.
Prohíbe los sistemas de IA que evalúan a las personas según su comportamiento social o personalidad.
Se prohíben los sistemas diseñados para manipular el comportamiento humano eludiendo el libre albedrío.
Prohíbe sistemas que utilizan características como creencias políticas, religiosas, orientación sexual o raza.
Prohíbe la creación de bases de datos de reconocimiento facial a partir de internet o CCTV, y el reconocimiento de emociones en el lugar de trabajo y en instituciones educativas.
Responsabilidades para el usuario
Este marco legal también incide en la responsabilidad de los usuarios y empresas al interactuar con sistemas de IA. Por ejemplo, se exige que los usuarios sean conscientes de que están interactuando con máquinas, y se impone la necesidad de etiquetar los deepfakes y otros contenidos generados por IA. Las empresas que no cumplan con estas normativas enfrentarán multas significativas, que pueden variar entre 7,5 millones de euros o el 1,5% del volumen de negocio, hasta 35 millones o el 7% del volumen de negocio, dependiendo de la infracción y el tamaño de la empresa.
Excepciones en videovigilancia
Futuros desafíos
La adopción de esta ley por la UE, una región reconocida por su compromiso con el humanismo y los derechos fundamentales, probablemente influirá en la regulación de la IA en otros continentes. Su implementación y los desafíos que presenta, como el equilibrio entre innovación y respeto a los derechos humanos, y la adaptación de las empresas tecnológicas a estas normas, serán claves para el futuro de la IA a nivel mundial.