Arranca la nueva normativa europea de inteligencia artificial, aunque la mayoría de las reglas entrarán en vigor en 2026

La Ley Europea de Inteligencia Artificial (Ley de IA), el primer reglamento global sobre esta tecnología en el mundo, ha entrado en vigor este jueves, 1 de agosto. Sin embargo, la mayoría de las normas contempladas comenzarán a aplicarse a partir del 2 de agosto de 2026, tal como advierte la Comisión Europea.

Esta normativa está diseñada para garantizar que la IA desarrollada y utilizada en la Unión Europea (UE) sea «fiable», por lo que contempla diversas salvaguardias para proteger los derechos fundamentales de las personas. El objetivo es establecer un mercado interior armonizado para la IA en la UE, fomentando la adopción de esta tecnología y creando un entorno propicio para la innovación y la inversión.

Categorización de Riesgos y Requisitos para Sistemas de IA

La ley establece diferentes niveles de riesgo sobre los sistemas de inteligencia artificial, que van desde el ‘mínimo’ hasta el ‘inaceptable’. La mayoría de los sistemas de IA, como los de recomendación y los filtros de correo no deseado, se encuentran en la categoría de riesgo mínimo y no enfrentan obligaciones en virtud de la Ley de IA.

Por otro lado, los sistemas con «riesgo específico de transparencia«, como los chatbots, deberán revelar «claramente» a los usuarios que están interactuando con una máquina. Además, determinados contenidos generados por IA, incluidas las ultrafalsificaciones, deberán etiquetarse como tales, y los usuarios deben ser informados cuando se utilicen sistemas de categorización biométrica o reconocimiento de emociones.

Los sistemas de inteligencia artificial considerados de «alto riesgo» estarán obligados a cumplir requisitos estrictos, como la «alta calidad» de sus conjuntos de datos, el registro de la actividad, la documentación detallada, una información clara para el usuario, la supervisión humana y un alto nivel de solidez, precisión y ciberseguridad. Esto incluye sistemas utilizados para la contratación de personal o para evaluar si alguien tiene derecho a obtener un préstamo.

Prohibiciones y Sanciones por Incumplimiento

Por último, la IA de «riesgo inaceptable» –que estará prohibida— es aquella que se considere una clara amenaza para los derechos fundamentales de las personas. Esto incluye los sistemas o aplicaciones de IA que manipulan el comportamiento humano para eludir la libre voluntad de los usuarios, como los juguetes que utilizan asistencia vocal que fomentan el comportamiento peligroso de los menores, los sistemas que permiten la ‘puntuación social’ y determinadas aplicaciones de la actuación policial predictiva.

Asimismo, estarán prohibidos algunos usos de sistemas biométricos, por ejemplo, los de reconocimiento de emociones utilizados en el lugar de trabajo y algunos sistemas para categorizar a las personas o la identificación biométrica remota en tiempo real con fines policiales en espacios de acceso público (con limitadas excepciones).

La Comisión Europea ha subrayado que se impondrán multas a las empresas que no cumplan las normas, unas sanciones que podrían ascender hasta el 7% de su volumen de negocios anual mundial por infracciones de aplicaciones prohibidas de IA, hasta el 3% en el caso de incumplir otras obligaciones y hasta el 1,5% por el suministro de información incorrecta.