En las últimas dos décadas, con mayor intensidad en otros países que en el nuestro, los procesos de reclutamiento han pasado de ser clásicas gestiones administrativas a convertirse en verdaderos ecosistemas de datos, como se puede constatar a través de plataformas como LinkedIn y diversos sistemas de seguimiento de candidatos (ATS) que filtran perfiles que parecen sustentarse en predicciones de idoneidad del candidato y su consiguiente probabilidad de éxito. A estas alturas ya hay un consenso en estimar que el despliegue de la inteligencia artificial (IA) en la gestión de personal no es por sí mismo un fenómeno “neutro” y viene generando nuevos desafíos para la autonomía del trabajador.
En el contexto peruano, la reciente aprobación del D.S. Nº 115-2025-PCM, Reglamento de inteligencia Artificial (RIA) marca una pauta al calificar los sistemas de IA utilizados en la selección de personal como "usos de riesgo alto". Es decir, podemos reconocer que las decisiones en materia de contratación, más aun cuando son automatizadas, tienen el potencial de afectar significativamente el acceso al mercado de trabajo y, en su caso, la dignidad de las personas. En suma, concluimos en que hoy un empleador ya no podría considerar la implementación de estas tecnologías solo como una mera decisión técnica, sino como una actividad que puede ser pasible de supervisión y que puede generarle responsabilidad jurídica.
Riesgos críticos en la selección algorítmica: opacidad y discriminación
Esta implementación de sistemas de aprendizaje automático en el reclutamiento introduce importantes riesgos sistémicos, en particular la falta de transparencia y la persistencia de sesgos discriminatorios.
La opacidad algorítmica se advierte cuando la complejidad técnica de un sistema de IA dificulta o impide identificar qué variables específicas han sido ponderadas para descartar a un candidato. Situación que genera un estado de gran indefensión en el postulante, quien se enfrenta a una decisión que afecta su futuro profesional sin tener la posibilidad real de comprender los motivos del rechazo ni de cuestionar la legalidad de los criterios aplicados. Esta falta de transparencia, en los hechos, cierra al postulante su derecho a la comprensión de las decisiones empresariales, afectando la equidad de trato, configurando una discriminación.
Los sesgos algorítmicos: reproducción (automatizada) de la desigualdad
Como lo decíamos desde el inicio, se viene dando una suerte de desmitificación de una supuesta “objetividad tecnológica”; y es que los sistemas de IA no actúan con una neutralidad “natural”, pues ellas aprenden de datos históricos que a menudo contienen prejuicios afianzados de género, raza, edad o perfil social.
La jurisprudencia comparada ya registra casos emblemáticos, como el de Amazon en 2018, donde un sistema de reclutamiento tuvo que ser descartado tras comprobarse que penalizaba currículums que incluían la palabra "mujeres". Asimismo, se han denunciado prácticas de "discriminación por proxy", que son aquellos casos en que el algoritmo utiliza variables aparentemente neutras —como el código postal o el tipo de universidad de procedencia del aspirante— para, a partir de aquellas, inferir características protegidas como el origen racial o el nivel socioeconómico. Lo que en la doctrina se conoce como “discriminación indirecta”.
Impacto en la dignidad humana y los derechos inespecíficos
La combinación, entonces, de la opacidad (o falta de transparencia) y la reproducción de los sesgos en esta etapa conducente a la configuración de un vínculo laboral iría abiertamente contra el artículo 23 de la Constitución, que proscribe la afectación de la dignidad humana en las relaciones laborales. La teoría de los derechos inespecíficos laborales nos recuerda que el trabajador conserva su condición de ciudadano dentro de la empresa, lo que implica el respeto, entre otros, a su libertad ideológica, intimidad e igualdad. En tal orden de ideas, la selección algorítmica lesionaría la dignidad cuando convierte el concepto sobre una persona en un asunto meramente estadístico, por fuera de la posibilidad de una interacción humana significativa que valore realmente las competencias individuales más allá de parámetros preestablecidos.
No perdamos de vista que en la fase precontractual, el riesgo es especialmente severo, pues el postulante carece de las garantías propias que se derivan de una relación laboral ya constituida, como son la representación sindical o la tutela frente al despido arbitrario. Por ello, el legislador laboral ha extendido la protección antidiscriminatoria a esta etapa, tipificando como infracciones graves la difusión de ofertas o procesos de evaluación que vulneren la igualdad de oportunidades.
Gobernanza algorítmica: prevenciones y medidas para un uso debido
Frente a los riesgos descritos, surge la necesidad de implementar un marco de despliegue algorítmico en la empresa que nos asegure que el uso de la IA sea ético, transparente y legalmente sostenible. El reciente RIA y la doctrina comparada europea establecen salvaguardas mínimas que las empresas deben adoptar para mitigar su responsabilidad.
Transparencia y explicabilidad como pilares del sistema
El artículo 25 del RIA peruano impone obligaciones de información claras sobre la finalidad del sistema de IA utilizado por el empleador y los datos utilizados. La transparencia no debería entenderse cumplida con la sola entrega de documentación técnica que fuera ininteligible, sino como la capacidad de ofrecer una explicación sencilla sobre cómo el sistema influye en la decisión adoptada. Para las empresas, esto se traduciría en respetar tres derechos fundamentales del candidato:
• Notificación de uso: El postulante debería saber de antemano que su perfil será analizado por un sistema automatizado.
• Claridad en las variables: Se debería informar los principales parámetros o competencias que el sistema ponderará durante la evaluación.
• Derecho a la revisión humana: Frente a un descarte automatizado de la IA que causara perjuicio, el candidato debería tener la opción de solicitar que una persona revise los resultados del sistema y los explique.
Supervisión humana relevante: el concepto de "Human in command"
El sustancial principio de supervisión humana nos exige que los sistemas de IA “de alto riesgo” (lo es cuando se aplica a estos procesos de selección, según lo prevé el RIA) no operen de forma totalmente autónoma. En la selección de personal, ello implica que debe existir personal capacitado con autoridad para intervenir, corregir o invalidar las decisiones del algoritmo. Una supervisión realmente significativa requiere que el responsable de recursos humanos no se limite a validar mecánicamente el puntaje que asigna la máquina, sino que sea capaz de interpretar críticamente los resultados y detectar posibles anomalías o sesgos en tiempo real. En términos prácticos, las empresas deberían poder documentar quién ejerce la supervisión y bajo qué criterios podría apartarse de la recomendación algorítmica.
Evaluaciones de impacto laboral: el enfoque preventivo
Antes de que el empleador implemente cualquier herramienta de IA en el reclutamiento, ha de realizar una evaluación de impacto destinada a identificar y mitigar riesgos sobre afectación de los derechos fundamentales de los trabajadores. Según el RIA tal evaluación debe ser un proceso dinámico que contemple tanto los riesgos técnicos (errores en el modelo de la herramienta de IA) como los sociales (apreciación de los impactos diversos sobre colectivos protegidos, que los hay en el ámbito laboral). Por eso consideramos que una evaluación de impacto rigurosa debería incluir, como mínimo:
• Un análisis de la arquitectura del sistema de IA empleado y las variables de entrada que la alimentan.
• Pruebas estadísticas para detectar si el algoritmo genera resultados desproporcionados por razón de género, edad o procedencia social.
• Un plan de mitigación que incluya ajustes periódicos al modelo y entrenamiento específico para los usuarios del sistema.
Calidad de datos y privacidad: evitar las variables proxy
El uso responsable de la IA pasa, indudablemente, por una gestión ética de los datos, lo que supone que las empresas se adhieran a los principios de minimización y exactitud, recolectando únicamente la información estrictamente necesaria para valorar lesa idoneidad profesional que pretenden evaluar; por tanto, resulta crítico evitar el uso de variables proxy que puedan encubrir actos discriminatorios.
Hay quienes resaltan que, incluso cuando se eliminan datos sensibles de forma directa (como el sexo), el algoritmo puede “reconstruirlos” mediante correlaciones con el tipo de universidad o el historial de navegación, lo que nos lleva a que una buena gobernanza debiera exigir "limpiar" los conjuntos de datos de estos indicadores antes del entrenamiento del modelo que se pretende aplicar en la empresa.
La responsabilidad ineludible del empleador
Aunque la selección de personal pudiera ser ejecutada por un software suministrado por un tercero, la responsabilidad jurídica por cualquier acto discriminatorio recae exclusivamente en la empresa que la usa, que la aplica. El empleador no puede ampararse en la complejidad técnica del algoritmo para eludir su deber de diligencia. La jurisprudencia reciente, especialmente en Estados Unidos y Europa, señala que los errores sistemáticos de un algoritmo pueden generar no solo sanciones administrativas, sino también indemnizaciones por daños morales y vulneración de derechos fundamentales. Por ello, las cláusulas contractuales con proveedores de IA deben incluir garantías de cumplimiento y auditorías de sesgos.
Derechos de información de la representación de los trabajadores
La dimensión colectiva es fundamental para garantizar un control social efectivo sobre la tecnología. La experiencia española nos ilustra: el artículo 64.4.d del Estatuto de los Trabajadores obliga a las empresas a informar a los representantes sindicales sobre los parámetros, reglas e instrucciones en los que se basan los algoritmos que afectan las condiciones de trabajo o el acceso al empleo.
La transparencia, vista desde un nivel colectivo, permite que los sindicatos participen en la supervisión de las evaluaciones de impacto y en la definición de límites éticos para el uso de la IA. En el Perú, aunque el marco legal es más genérico, la buena fe laboral y el derecho a la negociación colectiva abren la puerta para que los convenios incorporen cláusulas de "transparencia algorítmica", asegurando que la innovación tecnológica no se traduzca en una pérdida de derechos para los trabajadores.