El AI Act, aprobado por la Unión Europea, es la primera ley completa que regula la inteligencia artificial en el mundo. Su objetivo principal es proteger a las personas, aumentar la seguridad, evitar usos dañinos y garantizar que las empresas utilicen la IA de forma responsable y transparente.
Esta normativa afecta a todas las organizaciones que desarrollan, venden o utilizan IA dentro de la UE, desde grandes corporaciones hasta pymes. Por eso es importante entender sus fechas clave y obligaciones.
¿Qué regula exactamente el AI Act?
El reglamento clasifica los sistemas de IA según su nivel de riesgo. Cada nivel tiene obligaciones diferentes para las empresas.
1. Riesgo inaceptable (prohibidos)
La ley prohíbe sistemas que puedan causar daño grave a derechos fundamentales.
Ejemplos claros:
- Sistemas que manipulan comportamientos vulnerables (niños, enfermos).
- Sistemas de “puntuación social” que evalúan a personas para dar o negar servicios.
- Reconocimiento facial en tiempo real por fuerzas de seguridad (solo excepciones muy controladas).
Impacto en empresas: no pueden usar ni comercializar estas soluciones en Europa.
2. Alto riesgo
Incluye IA utilizada en:
- Procesos de contratación (selección de personal).
- Educación (evaluación automática de estudiantes).
- Sanidad (diagnóstico asistido por IA).
- Finanzas (evaluación crediticia).
- Infraestructuras críticas (energía, transporte).
- Sistemas judiciales y de seguridad.
Obligaciones para empresas:
- Evaluar y controlar riesgos continuamente.
- Usar datos de calidad, sin sesgos.
- Registrar el funcionamiento del sistema.
- Documentar cómo opera y para qué sirve.
- Garantizar supervisión humana.
- Reportar incidentes serios a las autoridades.
3. Riesgo limitado
Incluye sistemas que interactúan directamente con personas:
- Chatbots.
- Sistemas de recomendación.
- Deepfakes.
- IA generativa usada para crear textos, imágenes o vídeos.
Obligaciones:
- Etiquetar contenido artificial (por ejemplo, “imagen generada por IA”).
- Informar claramente cuando un usuario está interactuando con IA.
4. Riesgo mínimo
Son sistemas de IA usados en:
- Filtros de spam.
- Motores de búsqueda.
- Videojuegos.
- Traducción automática básica.
Sin obligaciones adicionales.
Fechas de entrada en vigor del AI Act: cronograma claro
Estas son las fases clave de aplicación:
| Fecha estimada | Contenido que entra en vigor |
|---|---|
| 2024 | Publicación oficial del AI Act y entrada en vigor legal. |
| 2025 (6 meses después) | Se activan las prohibiciones de IA de riesgo inaceptable. |
| 2025-2026 (12–24 meses) | Reglas de transparencia para IA de riesgo limitado (chatbots, IA generativa, deepfakes). |
| Finales de 2026 | Obligaciones completas para sistemas de alto riesgo. |
| 2027 | Requisitos avanzados para modelos fundacionales (grandes modelos de IA generativa). |
Esta entrada por fases da tiempo a las empresas para adaptarse.
Qué deben hacer las empresas para cumplir con el AI Act
Independientemente del tamaño de la empresa, los pasos recomendados son:
1. Identificar qué IA usan
Clasificar todos los sistemas según el nivel de riesgo: prohibido, alto, limitado o mínimo.
2. Analizar el impacto y los riesgos
Especialmente si la empresa usa IA en procesos críticos como selección de personal, evaluación de clientes o toma de decisiones automáticas.
3. Asegurar transparencia
- Etiquetar contenido generado por IA.
- Informar cuando el usuario habla con un sistema no humano.
4. Documentar y auditar
Las empresas deben guardar registros claros del funcionamiento de la IA que usan y asegurarse de que los proveedores cumplen el AI Act.
5. Supervisión humana
Debe haber personas responsables de revisar y validar decisiones de IA cuando estas afecten a derechos o seguridad.
6. Formación interna
Los equipos deben conocer los límites legales y buenas prácticas de uso de IA.
7. Elegir proveedores conformes
Comprar software o servicios que ya cumplan con el AI Act reducirá riesgos futuros.
Resumen rápido
- El AI Act regula la IA en Europa según niveles de riesgo.
- Algunos sistemas quedan prohibidos; otros deben ser transparentes o auditados.
- Las empresas deben revisar qué IA usan, documentar riesgos y garantizar supervisión humana.
- El reglamento se aplica progresivamente entre 2024 y 2027.
Preguntas frecuentes
1. ¿A quién afecta el AI Act?
A cualquier empresa que desarrolle, venda o utilice IA en la Unión Europea.
2. ¿Qué pasa si una empresa no cumple?
Habrá sanciones económicas importantes, con multas similares al sistema del RGPD.
3. ¿Qué deben hacer las pymes?
Clasificar su IA, aplicar medidas de transparencia y asegurarse de que sus proveedores cumplen la normativa.
4. ¿La IA generativa está regulada?
Sí. La ley exige transparencia, respeto a derechos de autor y prevención de contenidos ilegales.
Quizás te interese leer también: Regulación, Compliance, Privacidad e IA: el verdadero desafío jurídico del 2025 (y por qué no estamos preparados).

