eventosScrollLoad.push(function() { loadCSS("https://www.vandalimg.com/krogan/vandal_articulos.css"); });
  1. Vandal Random
  2. Noticias
  3. La Unión Europea aprueba la primera ley de inteligencia artificial del mundo y así es como te afecta

La Unión Europea aprueba la primera ley de inteligencia artificial del mundo y así es como te afecta

La futura normativa, que será efectiva a partir de 2026, será obligatoria para empresas como OpenAI, Microsoft, Google, Amazon y Meta.
La Unión Europea aprueba la primera ley de inteligencia artificial del mundo y así es como te afecta
·

Tras intensas negociaciones, la Unión Europea ha alcanzado un acuerdo pionero para regular el desarrollo de la inteligencia artificial (IA). Este pacto, producto de más de 30 horas de diálogo entre la Comisión Europea, el Parlamento Europeo y el Consejo de la UE, representa un hito global, siendo la primera normativa de este tipo en el mundo.

Esta ley, que ha evolucionado considerablemente desde sus primeros borradores de 2019, antes de que la IA se integrara socialmente a través de plataformas como ChatGPT, apunta a regular el uso de la inteligencia artificial basándose en el nivel de riesgo que representa para las personas. Empresas como OpenAI, Microsoft, Google, Amazon y Meta deberán acomodarse a los intereses de la UE

Prohibiciones

La nueva legislación clasifica las aplicaciones de IA en cuatro niveles de riesgo, riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo; y establece prohibiciones específicas. Entre estas, destaca la prohibición de sistemas de IA que manipulen el comportamiento humano, sistemas de puntuación social, y ciertas aplicaciones de vigilancia policial predictiva. Además, enfatiza la prohibición de sistemas biométricos que categoricen a las personas por creencias políticas, religiosas, orientación sexual o raza. En concreto:

  • Sistemas de Categorización Biométrica en Espacios Públicos
    Prohíbe el uso de IA para la identificación biométrica a distancia en espacios públicos, excepto en circunstancias limitadas y reguladas.
  • Sistemas que Explotan Vulnerabilidades de Menores o Personas con Discapacidad
    Prohibe los sistemas de IA que explotan estas vulnerabilidades, distorsionando su comportamiento de manera que pueda causar daño físico o psicológico.
  • Sistemas de Puntuación Social
    Prohíbe los sistemas de IA que evalúan a las personas según su comportamiento social o personalidad.
  • Manipulación del Comportamiento Humano
    Se prohíben los sistemas diseñados para manipular el comportamiento humano eludiendo el libre albedrío.
  • Categorización Biométrica Sensible
    Prohíbe sistemas que utilizan características como creencias políticas, religiosas, orientación sexual o raza.
  • Reconocimiento Facial y Emocional
    Prohíbe la creación de bases de datos de reconocimiento facial a partir de internet o CCTV, y el reconocimiento de emociones en el lugar de trabajo y en instituciones educativas.
  • Responsabilidades para el usuario

    Este marco legal también incide en la responsabilidad de los usuarios y empresas al interactuar con sistemas de IA. Por ejemplo, se exige que los usuarios sean conscientes de que están interactuando con máquinas, y se impone la necesidad de etiquetar los deepfakes y otros contenidos generados por IA. Las empresas que no cumplan con estas normativas enfrentarán multas significativas, que pueden variar entre 7,5 millones de euros o el 1,5% del volumen de negocio, hasta 35 millones o el 7% del volumen de negocio, dependiendo de la infracción y el tamaño de la empresa.

    Excepciones en videovigilancia

  • La ley también establece excepciones para el uso de sistemas de identificación biométrica por parte de las autoridades policiales. Estas excepciones están sujetas a autorización judicial previa y se aplican solo para delitos estrictamente definidos.
  • La identificación biométrica "post-remota" se utilizará estrictamente en la búsqueda de personas condenadas o sospechosas de haber cometido delitos graves.
  • El uso "en tiempo real" de la identificación biométrica está limitado en tiempo y ubicación, y se aplica para fines específicos como la búsqueda de víctimas de secuestro, trata o explotación sexual, prevención de amenazas terroristas específicas y presentes, o la identificación de personas sospechosas de delitos graves.
  • Futuros desafíos

    La adopción de esta ley por la UE, una región reconocida por su compromiso con el humanismo y los derechos fundamentales, probablemente influirá en la regulación de la IA en otros continentes. Su implementación y los desafíos que presenta, como el equilibrio entre innovación y respeto a los derechos humanos, y la adaptación de las empresas tecnológicas a estas normas, serán claves para el futuro de la IA a nivel mundial.

    Comentarios: 1

    En forosComentar en nuestros foros

    Más sobre Tecnología

    RANDOM
    Flecha subir