
La entrada en vigor del Reglamento Europeo de Inteligencia Artificial (AI Act) ha establecido un marco legal estricto para el uso de sistemas de IA en procesos de selección, promoción y evaluación de personas. La norma clasifica estos sistemas como de alto riesgo, imponiendo obligaciones técnicas, de gobernanza y de supervisión que transformarán la manera en que las organizaciones utilizan la IA para tomar decisiones laborales.
Las prácticas que no cumplan con los requisitos del reglamento podrán enfrentarse a sanciones que alcanzan los 35 millones de euros o el 7% de la facturación global anual en el caso de prácticas prohibidas, y hasta 15 millones o el 3% para incumplimientos de obligaciones adicionales.
“El EU AI Act marca un punto de inflexión para todas las organizaciones que utilizan IA en gestión del talento. A día de hoy muchas compañías están haciendo un uso tipificado como alto riesgo de la IA, priorizándola por encima de la supervisión de personas, sin trazabilidad y desconociendo por completo los riesgos que ciertos sistemas representan”, señala Jordi Bastús, Senior Director Assessment & Development practice en España en BTS.
Ante este nuevo contexto, surge la necesidad urgente de identificar las áreas de mayor exposición regulatoria. En este sentido, BTS, consultora global especializada en estrategia, liderazgo y transformación de compañías, ha establecido cinco red flags esenciales que las organizaciones deben revisar en sus sistemas y proveedores de IA, basadas en los requisitos del EU AI Act y en los estándares profesionales recogidos en la documentación técnica del sector.
1.- Inferir emociones, estrés u honestidad mediante vídeo o voz
El AI Act prohíbe expresamente cualquier técnica que intente evaluar emociones, honestidad, estrés, estabilidad emocional o rasgos de personalidad a través de la voz, el rostro o la biometría. Esta prohibición responde a la evidencia científica de que estas inferencias son altamente inexactas y sesgadas, lo que puede derivar en decisiones injustas que afecten a la equidad y a la inclusión.
“Las empresas que utilicen estas prácticas se exponen a sanciones económicas elevadas, por no hablar de un gran riesgo reputacional y conflictos legales derivados de discriminación laboral. Además, estas técnicas pueden generar desconfianza en los empleados y candidatos, impactando en la marca empleadora y en la capacidad de atraer talento”, continúa Bastús.
2.- Automatizar decisiones sin supervisión humana efectiva
Los sistemas que filtran candidatos asignan puntuaciones o toman decisiones sin supervisión humana se sitúan en la zona roja. El AI Act exige que la supervisión sea real y activa, con autoridad para revisar, corregir y validar resultados. Esto significa que la tecnología no puede reemplazar el juicio humano, sino complementarlo.
La ausencia de revisión efectiva aumenta el riesgo de errores sistemáticos, sesgos inadvertidos y decisiones injustas que pueden afectar la diversidad y la igualdad de oportunidades dentro de la organización. Desde BTS señalan que la supervisión humana también es clave para cumplir con auditorías regulatorias y demostrar que la IA se utiliza de manera responsable y ética.
3.- Utilizar datos históricos que perpetúan sesgos o discriminación
Los datasets históricos, si no se revisan con rigor, pueden replicar desigualdades ya existentes, discriminando por género, edad, etnia o nivel educativo. El AI Act exige que las organizaciones analicen los datos y demuestren su representatividad para todas las poblaciones relevantes.
Esto incluye realizar análisis de impacto adverso y pruebas de sesgo antes de implementar cualquier sistema de IA. Ignorar este paso puede no solo invalidar los resultados de los sistemas, sino también generar conflictos legales y dañar la reputación de la empresa. La gestión cuidadosa de los datos es fundamental para garantizar que las decisiones derivadas de las evaluaciones sean justas y objetivas tanto en selección como en promoción, democión o movilidad interna.
4.- No disponer de trazabilidad, logs ni documentación técnica completa
Las organizaciones deben mantener registros completos de decisiones, métricas de precisión, robustez y documentación técnica que explique cómo cada modelo genera sus resultados. La falta de trazabilidad impide auditar procesos, detectar errores o sesgos y justificar decisiones ante reguladores o tribunales. Este incumplimiento puede derivar en sanciones económicas severas y en pérdida de confianza por parte de empleados y candidatos.
Contar con documentación detallada también facilita la mejora continua de los sistemas y permite a las empresas adaptarse de manera ágil a cambios regulatorios.
5.- Usar herramientas sin evidencia clara de validez ni relación con el puesto
El AI Act y los estándares profesionales como SIOP exigen que cada sistema de IA esté respaldado por evidencia técnica que demuestre que mide competencias relevantes para el puesto. Esto incluye estudios de validez, análisis de correlación con desempeño laboral y consistencia en resultados.
Utilizar herramientas sin esta evidencia no solo pone en riesgo el cumplimiento legal, sino que también afecta la calidad de la toma de decisiones, pudiendo generar errores en contratación o promoción. La validación científica asegura que la IA contribuye a decisiones justas, objetivas y alineadas con los objetivos estratégicos de la organización.
“La implementación responsable de IA en talento no es solo una cuestión de cumplimiento legal: es una oportunidad estratégica para mejorar la calidad de las decisiones, minimizar sesgos y reforzar la confianza interna y externa. Las organizaciones que identifiquen y mitiguen estas cinco red flags estarán mejor posicionadas para aprovechar la IA de manera ética, eficiente y alineada con sus objetivos de negocio, evitando riesgos regulatorios y fortaleciendo su marca empleadora”, concluye Bastús.