La inteligencia artificial está transformando a gran velocidad los procesos de selección, evaluación y gestión del talento. Herramientas basadas en algoritmos permiten filtrar grandes volúmenes de información, automatizar tareas repetitivas y apoyar decisiones que antes dependían exclusivamente de la intervención humana.
Sin embargo, esta oportunidad viene acompañada de un desafío mayúsculo: asegurar que las decisiones automatizadas sean trazables, explicables y libres de sesgos. En un contexto donde la IA puede influir en quién accede a un empleo, cómo se evalúa el desempeño o qué oportunidades se asignan dentro de una organización, la responsabilidad es enorme.
Por este motivo, las normativas de España, Europa y Estados Unidos están reforzando las obligaciones de supervisión, transparencia y auditoría de los sistemas algorítmicos utilizados en recursos humanos.
1. Transparencia obligatoria en España
Desde 2022, el Estatuto de los Trabajadores introdujo una obligación clave: informar sobre el uso de algoritmos que afecten a decisiones laborales. Esto incluye procesos de selección, planificación del trabajo o evaluación de desempeño.
Además, las organizaciones deben comunicar a los representantes de los trabajadores el uso de sistemas de IA en cualquier fase del ciclo laboral.
La supervisión de estas obligaciones recaerá en la AESIA, en coordinación con la AEPD, especialmente en lo relativo a decisiones automatizadas y protección de datos.
Esta línea regulatoria coloca la transparencia como elemento central de cualquier sistema de IA empleado en RRHH.
2. El AI Act europeo y los sistemas de alto impacto
El nuevo AI Act de la Unión Europea establece obligaciones estrictas para los sistemas de IA utilizados en empleo, considerados de “alto riesgo”. Estas obligaciones incluyen:
– Auditorías periódicas
– Explicabilidad y registro del proceso de decisión
– Supervisión humana estructurada
– Gestión y mitigación del riesgo de sesgos
Además, el reglamento introduce requisitos adicionales para modelos generativos fundacionales de gran escala (con entrenamientos ≥10²⁵ FLOPs) como GPT-4/5, Claude 3, Gemini Ultra o Llama 3, dado su potencial impacto en sistemas que influyen en oportunidades laborales.
3. Supervisión del sesgo algorítmico en Estados Unidos
En paralelo, Estados Unidos está siguiendo una línea muy activa en la supervisión de la IA aplicada al empleo.
La EEOC investiga herramientas que puedan generar discriminación hacia colectivos protegidos. Algunas jurisdicciones, como Nueva York, ya exigen auditorías independientes de sesgo antes de utilizar sistemas automatizados de selección.
Este enfoque mantiene un objetivo claro: evitar que los algoritmos reproduzcan desigualdades existentes en el mercado laboral.
Los modelos razonadores: una vía para auditorías más fiables
En este contexto surge una evolución tecnológica relevante: los modelos razonadores. A diferencia de los modelos tradicionales, son capaces de mostrar los pasos lógicos que siguen para llegar a una respuesta. Esto abre la puerta a:
– Reconstruir el proceso de decisión
– Detectar sesgos de manera más precisa
– Facilitar auditorías internas y externas
– Cumplir con los requisitos de explicabilidad exigidos por los reguladores
Su capacidad para documentar el razonamiento convierte a estos modelos en una herramienta prometedora para la auditoría algorítmica aplicada a RRHH.
Hacia un uso responsable y verificable de la IA
La auditoría ya no es solo una exigencia normativa. Es el camino para garantizar que los sistemas de IA utilizados en recursos humanos operen de manera consistente, verificable y transparente.
El objetivo final es construir confianza, proteger a los candidatos y empleados, y asegurar que la tecnología mejore la toma de decisiones sin comprometer los derechos fundamentales.
0 comentarios