• Saltar a la navegación principal
  • Saltar al contenido principal
  • Saltar al pie de página
Gobierno de Aragón

Search

  • Transparencia
  • Anuncios Sociales
  • Responsabilidad Social Corporativa
  • Perfil del contratante
Español English

Centro de Empresas e Innovación de Aragón

  • Nosotros
    • Quienes somos
    • Nuestro equipo de expertos CEEI
  • Programas CEEI
    • neo
    • matriX
    • Programas específicos
      • CYBER UP
      • RESOURCE
  • Proyectos CEEI
    • Ecosistema
    • Top CEEI
  • Conversaciones XGen
  • Actualidad
    • Noticias
    • Eventos
  • Contáctanos
Usted está aquí: Inicio / Noticias / Luz verde en la UE a la primera ley de IA del mundo
Luz verde en la UE a la primera ley de IA del mundo

Luz verde en la UE a la primera ley de IA del mundo

19 agosto, 2024

Entra en vigor en la UE la primera ley de inteligencia artificial del mundo: multas, fases de aplicación y otras claves

  • La norma busca impulsar la excelencia y la innovación tecnológica asegurando la protección de los derechos humanos
  • Prohíbe la captura indiscriminada de imágenes faciales y el reconocimiento de emociones en las escuelas, entre otras cosas

Este jueves 1 de agosto ha entrado en vigor en la Unión Europea (UE) la primera ley de inteligencia artificial del mundo, una norma que busca impulsar la excelencia y la innovación tecnológica asegurando la protección de los derechos humanos. En RTVE.es te contamos sus fases de aplicación, las multas que impone, a quiénes se aplica y otras de sus principales claves.

Los objetivos de la ley

A grandes rasgos, el objetivo de la nueva regulación es limitar los riesgos de la inteligencia artificial, además de potenciar sus beneficios sociales y económicos, pero sin que esto suponga un obstáculo para la innovación.

Se busca así establecer un marco jurídico armonizado en la Unión Europea para el desarrollo, la comercialización, la puesta en marcha y el uso de los sistemas de Inteligencia Artificial, un área que puede generar muchos beneficios pero que conlleva riesgos.

Los diferentes niveles de riesgo implicarán una mayor o menor regulación.

La Comisión Europea crea una oficina para regular el uso de la inteligencia artificial

La Comisión Europea crea una oficina para regular el uso de la inteligencia artificial

A quién se aplica

Las normas se aplican a los proveedores de sistemas de IA que se pongan en servicio o comercialicen dentro de la UE o cuya salida se utilice en la UE, con independencia de su origen. También a usuarios de los mismos, considerando usuarios a quienes explotan esos sistemas.

No se aplica a las autoridades públicas de terceros países ni a organizaciones internacionales cuando utilicen sistemas IA en el ámbito de la cooperación policial o judicial con la UE. Tampoco a los sistemas de uso militar o utilizados en el contexto de la seguridad nacional, ni a los usados con el solo propósito de la investigación y el desarrollo científico.

Tipos de sistemas de IA

La normativa establece cuatro tipos de sistemas de inteligencia artificial: los prohibidos, los de alto riesgo, los sistemas con requisitos de transparencia y los sistemas IA de propósito general.

¿Qué prohíbe la norma?

Algunos sistemas de IA o usos de la IA están prohibidos porque contradicen los valores de la UE, incluido el derecho a la no discriminación, la protección de datos y la privacidad. Entre ellos se incluyen los que desplieguen técnicas subliminales para distorsionar el comportamiento de una persona de manera que pueda causarle daños físicos o psicológicos a él o a otros.

Las nuevas normas prohíben ciertas aplicaciones de inteligencia artificial que atentan contra los derechos de la ciudadanía, como los sistemas de categorización biométrica por creencias políticas, religiosas, filosóficas o por su raza y orientación sexual. Y la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial.

¿Llegará a dominar el mundo?: Inteligencia Artificial, el desafío de la humanidad

También se prohibirán el reconocimiento de emociones en el lugar de trabajo y en las escuelas, los sistemas de «puntuación» de las personas en función de su comportamiento o características, la actuación policial predictiva (cuando se base únicamente en el perfil de una persona o en la evaluación de sus características) y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas.

No obstante, la normativa permite excepciones. Los sistemas de identificación biométrica «en tiempo real» solo se podrán emplear si se cumplen una serie de salvaguardias. Entre estos casos pueden figurar la búsqueda selectiva de una persona desaparecida o la prevención de un atentado terrorista. Recurrir a estos sistemas a posteriori se considera un uso de alto riesgo, que requiere autorización judicial al estar vinculado a un delito penal.

La IA en los colegios y el trabajo

Los sistemas de IA de alto riesgo pueden presentar un riesgo potencialmente alto para los derechos y libertades de las personas físicas y, por lo tanto, están sujetos a obligaciones estrictas.

Algunos ejemplos de usos de alto riesgo de la IA son las infraestructuras críticas o la educación y la formación profesional, y el empleo. Estos sistemas deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y contar con supervisión humana.

En el área del empleo, se consideran de alto riesgo los sistemas destinados a ser utilizados para el reclutamiento o la selección de empleados o para supervisar y evaluar su rendimiento y comportamiento. También los que se utilicen para evaluar la solvencia de las personas físicas o establecer su puntuación crediticia.

En el ámbito de la educación, entran en esta categoría los sistemas que se usen para determinar el acceso a las instituciones educativas o para supervisar y detectar el comportamiento prohibido de los estudiantes durante los exámenes.

‘Chatbots’ y ‘deepfakes’

En cuanto a los sistemas con requisitos de transparencia, sus responsables deben cumplir requisitos e informar para no engañar a los consumidores haciéndoles creer que interactúan con personas reales o con contenidos creados por ellas. Por ejemplo, los propietarios de chatbots o creadores de deepfakes.

Por su parte, los sistemas IA de propósito general, no tienen un propósito previsto inicial, pero pueden ser entrenados o modificados para cumplir un propósito que podría convertirlos en sistemas de alto riesgo. Por tanto, deberán cumplir ciertos requisitos, que serán los que se aplican a los Sistemas de Inteligencia Artificial de Alto Riesgo, pero adaptados.

¿Sabías que puedes reconstruir tus recuerdos de la infancia con inteligencia artificial?

Multas de hasta 7,5 millones de euros

Las multas se modularán según las circunstancias y valorarán el tamaño del proveedor.

Para quienes incumplan la normativa se prevén multas con un rango que va desde los 35 millones de euros o el 7% del volumen global de negocio de las empresas hasta los 7,5 millones de euros o el 1,5% del volumen global de negocio.

Será de plena aplicación en 2027

Tras su entrada en vigor este 1 de agosto, será de plena aplicación veinticuatro meses después, con excepción de las prohibiciones de prácticas, que se aplicarán seis meses después de la fecha de entrada en vigor, es decir, en febrero de 2025.

En agosto de 2025 empezarán a aplicarse las normas para los modelos de uso generalista, como ChatGPT, y un año después, en agosto de 2026, se aplicará la ley de manera general, salvo algunas disposiciones.

Las obligaciones para los sistemas de alto riesgo comenzarán a aplicarse 36 meses después, en agosto de 2027.

RTVE

Footer

CEEI ZARAGOZA
María de Luna 11
Campus Río Ebro
50018 ZARAGOZA
Tel:(+34) 976 733 500
Lunes – Viernes: 8 a 20:30 h.
CEEI HUESCA
Carretera de Zaragoza, km. 67
22197 Cuarte HUESCA
Tel:(+34) 974 211 921
Lunes – Viernes: 8 a 20 h.
CEEI TERUEL
Avenida Sagunto 116
Polígono La Fuenfresca
44002 TERUEL
Tel:(+34) 978 610 812
Lunes – Viernes: 8 a 21:30 h.
  • Transparencia
  • Anuncios Sociales
  • Responsabilidad Social Corporativa
  • Perfil del contratante
  • Correo electrónico
  • Instagram
  • LinkedIn
  • Twitter
  • YouTube

Aviso legal | Política de privacidad | Política de cookies | Canal de denuncias

Manage Cookie Consent
Utilizamos cookies propias y de terceros para prestar nuestros servicios, recoger información estadística y mostrarle publicidad relacionada con sus preferencias mediante el análisis de sus hábitos de navegación. Puede obtener más información sobre las cookies, o bien conocer cómo cambiar la configuración en nuestra
Técnicas Siempre activo
The technical storage or access is strictly necessary for the legitimate purpose of enabling the use of a specific service explicitly requested by the subscriber or user, or for the sole purpose of carrying out the transmission of a communication over an electronic communications network.
Preferencias
El almacenamiento o acceso técnico es necesario para la finalidad legítima de almacenar preferencias no solicitadas por el abonado o usuario.
Analíticas
El almacenamiento o acceso técnico que se utiliza exclusivamente con fines estadísticos anónimos. Sin un requerimiento, el cumplimiento voluntario por parte de tu proveedor de servicios de Internet, o los registros adicionales de un tercero, la información almacenada o recuperada sólo para este propósito no se puede utilizar para identificarte. El almacenamiento o acceso técnico que se utiliza exclusivamente con fines estadísticos anónimos. Sin un requerimiento, el cumplimiento voluntario por parte de tu proveedor de servicios de Internet, o los registros adicionales de un tercero, la información almacenada o recuperada sólo para este propósito no se puede utilizar para identificarte.
Publicitarias
El almacenamiento o acceso técnico es necesario para crear perfiles de usuario para enviar publicidad, o para rastrear al usuario en una web o en varias web con fines de marketing similares.
Administrar opciones Gestionar los servicios Gestionar {vendor_count} proveedores Leer más sobre estos propósitos
Ver preferencias
{title} {title} {title}