Volver al Blog

La Comisión Europea ha dado un paso decisivo en la aplicación de su pionera Ley de Inteligencia Artificial (AI Act). Esta semana ha publicado la primera lista indicativa de sistemas de IA considerados de "alto riesgo", activando oficialmente una de las categorías más estrictas de la normativa. Entre los sistemas señalados destacan, con especial relevancia para el mundo empresarial, aquellos utilizados en la gestión de personas: desde el filtrado de CVs hasta la vigilancia en el puesto de trabajo.

Para las empresas españolas, esto significa que muchos de los sistemas de IA que utilizan a diario en Recursos Humanos y gestión de equipos han pasado a estar bajo el escrutinio de una regulación exigente, con obligaciones de transparencia, supervisión humana y evaluación de cumplimiento.

¿Qué sistemas de IA para RRHH son ahora de alto riesgo?

La lista publicada por la Comisión detalla los usos específicos que caen en esta categoría crítica. No se trata de prohibirlos, sino de someterlos a requisitos rigurosos para mitigar sus potenciales daños. Los principales afectados son:

1. Reclutamiento y Selección

Cualquier sistema que automatice total o parcialmente el proceso de búsqueda y filtrado de candidatos. Esto incluye:

2. Gestión y Supervisión del Trabajo

Sistemas utilizados para tomar o informar decisiones significativas sobre las personas empleadas:

3. Análisis de Emociones y Reconocimiento Biométrico

La lista también menciona explícitamente los sistemas destinados a inferir emociones o estados mentales en el ámbito laboral. El uso de IA para detectar "engagement", estrés o fatiga a través del análisis de la voz, la expresión facial o el ritmo de escritura ahora está bajo la lupa.

La designación de estos sistemas como de alto riesgo no es una sorpresa, pero su publicación oficial marca el inicio de la cuenta atrás para las empresas. Es una llamada a la acción para auditar sus herramientas tecnológicas en RRHH.

— Análisis basado en TechCrunch y Reuters

Obligaciones inmediatas para las empresas

El estatus de "alto riesgo" conlleva una serie de obligaciones no negociables para los proveedores y, en muchos casos, para los usuarios (las empresas que los implementan). Aunque hay un período de adaptación, la preparación debe comenzar ya:

El panorama de supervisión en España

España se posiciona como un actor clave en la supervisión europea de la IA. La Agencia Española de Protección de Datos (AEPD) ya tiene competencias en la materia por el solapamiento con el RGPD. Además, el gobierno está avanzando en la creación de la Agencia Estatal de Supervisión de la Inteligencia Artificial (AESIA), que será la autoridad nacional de referencia para el AI Act.

Como señala Cinco Días, esta agencia será la encargada de vigilar el cumplimiento, imponer sanciones (que pueden llegar hasta el 6% de la facturación global de una empresa) y promover estándares. Para las pymes españolas, entender el rol de estas instituciones será crucial para navegar el nuevo marco legal.

Hoja de ruta urgente para las empresas españolas

El mensaje es claro: la era de la implementación casual de "cajas negras" de IA en RRHH ha terminado. Las empresas deben actuar con previsión:

  1. Auditoría Interna: Identificar y catalogar todos los sistemas de IA utilizados en la gestión de personas.
  2. Diálogo con Proveedores: Preguntar a los proveedores de software sobre el estado de cumplimiento de sus herramientas con el AI Act y solicitar documentación.
  3. Revisión de Procesos: Asegurar que existe supervisión humana significativa en todas las decisiones críticas y establecer protocolos de información a empleados y candidatos.
  4. Preparar la Documentación: Iniciar la recopilación de la información necesaria para las futuras evaluaciones de conformidad

    ¿Quieres aplicar esto en tu empresa?

    En EnginAI Global Solutions ayudamos a empresas a integrar IA y automatización en sus procesos reales. Sin humo, con resultados medibles.

    Automatización con IA Consultoría IA