La Comisión Europea ha dado un paso decisivo en la aplicación de su pionera Ley de Inteligencia Artificial (AI Act). Esta semana ha publicado la primera lista indicativa de sistemas de IA considerados de "alto riesgo", activando oficialmente una de las categorías más estrictas de la normativa. Entre los sistemas señalados destacan, con especial relevancia para el mundo empresarial, aquellos utilizados en la gestión de personas: desde el filtrado de CVs hasta la vigilancia en el puesto de trabajo.
Para las empresas españolas, esto significa que muchos de los sistemas de IA que utilizan a diario en Recursos Humanos y gestión de equipos han pasado a estar bajo el escrutinio de una regulación exigente, con obligaciones de transparencia, supervisión humana y evaluación de cumplimiento.
¿Qué sistemas de IA para RRHH son ahora de alto riesgo?
La lista publicada por la Comisión detalla los usos específicos que caen en esta categoría crítica. No se trata de prohibirlos, sino de someterlos a requisitos rigurosos para mitigar sus potenciales daños. Los principales afectados son:
1. Reclutamiento y Selección
Cualquier sistema que automatice total o parcialmente el proceso de búsqueda y filtrado de candidatos. Esto incluye:
- Herramientas de análisis y clasificación automática de CVs.
- Sistemas de evaluación de candidatos basados en tests online o análisis de videoentrevistas.
- Software que asigna puntuaciones o rankings a los aspirantes.
2. Gestión y Supervisión del Trabajo
Sistemas utilizados para tomar o informar decisiones significativas sobre las personas empleadas:
- Herramientas de asignación de tareas basadas en el rendimiento previo.
- Sistemas de monitoreo de la productividad y el comportamiento (por ejemplo, mediante análisis de actividad en el ordenador o métricas de atención al cliente).
- Software para la evaluación del desempeño y la concesión de bonificaciones.
3. Análisis de Emociones y Reconocimiento Biométrico
La lista también menciona explícitamente los sistemas destinados a inferir emociones o estados mentales en el ámbito laboral. El uso de IA para detectar "engagement", estrés o fatiga a través del análisis de la voz, la expresión facial o el ritmo de escritura ahora está bajo la lupa.
La designación de estos sistemas como de alto riesgo no es una sorpresa, pero su publicación oficial marca el inicio de la cuenta atrás para las empresas. Es una llamada a la acción para auditar sus herramientas tecnológicas en RRHH.
— Análisis basado en TechCrunch y Reuters
Obligaciones inmediatas para las empresas
El estatus de "alto riesgo" conlleva una serie de obligaciones no negociables para los proveedores y, en muchos casos, para los usuarios (las empresas que los implementan). Aunque hay un período de adaptación, la preparación debe comenzar ya:
- Evaluaciones de Conformidad: Los sistemas deben pasar por una evaluación exhaustiva antes de salir al mercado y a lo largo de su ciclo de vida.
- Transparencia e Información: Las empresas deben informar a los candidatos y empleados sobre el uso de la IA, su lógica y su papel en la decisión.
- Supervisión Humana Significativa: Las decisiones finales críticas (contratación, despido, promoción) no pueden ser automatizadas. Debe haber supervisión e intervención humana.
- Robustez, Seguridad y Exactitud: Los sistemas deben ser técnicamente sólidos, protegidos contra ataques y minimizar riesgos como los sesgos discriminatorios.
- Registro de Actividad: Se exige llevar registros detallados de la actividad del sistema para permitir la auditoría.
El panorama de supervisión en España
España se posiciona como un actor clave en la supervisión europea de la IA. La Agencia Española de Protección de Datos (AEPD) ya tiene competencias en la materia por el solapamiento con el RGPD. Además, el gobierno está avanzando en la creación de la Agencia Estatal de Supervisión de la Inteligencia Artificial (AESIA), que será la autoridad nacional de referencia para el AI Act.
Como señala Cinco Días, esta agencia será la encargada de vigilar el cumplimiento, imponer sanciones (que pueden llegar hasta el 6% de la facturación global de una empresa) y promover estándares. Para las pymes españolas, entender el rol de estas instituciones será crucial para navegar el nuevo marco legal.
Hoja de ruta urgente para las empresas españolas
El mensaje es claro: la era de la implementación casual de "cajas negras" de IA en RRHH ha terminado. Las empresas deben actuar con previsión:
- Auditoría Interna: Identificar y catalogar todos los sistemas de IA utilizados en la gestión de personas.
- Diálogo con Proveedores: Preguntar a los proveedores de software sobre el estado de cumplimiento de sus herramientas con el AI Act y solicitar documentación.
- Revisión de Procesos: Asegurar que existe supervisión humana significativa en todas las decisiones críticas y establecer protocolos de información a empleados y candidatos.
- Preparar la Documentación: Iniciar la recopilación de la información necesaria para las futuras evaluaciones de conformidad
¿Quieres aplicar esto en tu empresa?
En EnginAI Global Solutions ayudamos a empresas a integrar IA y automatización en sus procesos reales. Sin humo, con resultados medibles.
Automatización con IA Consultoría IA