Hace apenas unos días se publicó el D. S. N° 115-2025-PCM, que aprueba el Reglamento de la Ley N° 31814, al que llamamos simplemente como el reglamento de la Inteligencia Artificial (IA). Este documento, elaborado por la Secretaría de Gobierno y Transformación Digital (SGTD) de la PCM, no representa solo un marco legal para el avance tecnológico; es también un hito regulatorio que impacta transversalmente en todos los sectores, incluido el laboral. Dada su generalidad, no se trata de una ley específica de empleo, pero sus disposiciones éticas y de “riesgo alto” redefinen cómo las empresas peruanas –públicas y privadas– han de integrar a la IA en procesos como en los de reclutamiento, evaluación de desempeño y despidos. En un mercado laboral donde la automatización amenaza con desplazar empleos y consolidar sesgos, este reglamento busca erigirse como un escudo protector, pero a la par como un desafío para modernizar nuestra legislación laboral, bastante acondicionada a otros contextos.
El Reglamento, con 36 artículos distribuidos en seis títulos, establece principios como el uso ético, transparente y responsable de la IA, priorizando siempre y haciendo foco en la persona y los derechos humanos. Clasifica los sistemas de IA por niveles de riesgo –bajo, moderado y alto–, y prohíbe prácticas abusivas bastante similares a las del Reglamento de IA de la Unión Europea. En clave laboral, su “epicentro” normativo radica en el artículo 24.1, literal e), que califica como de “riesgo alto” los sistemas que intervienen en la “selección, evaluación, contratación, cese o condiciones de trabajo”. Esto implica exigencias reforzadas: transparencia, supervisión humana y evaluaciones de impacto, así como una oportunidad para que Perú lidere en América Latina una regulación que humanice el uso de la tecnología en el ámbito laboral.
El riesgo alto en el núcleo del trabajo: De la selección al despido
El artículo 24.1 del Reglamento es un punto de mirada particular para las relaciones laborales, pues clasifica como “riesgo alto” a los algoritmos que filtran currículos, evalúan productividad o podrían sugerir eventuales despidos. Ante ello no basta con implementar IA; además se debe garantizar que no reproduzca desigualdades. A modo de ejemplo, imaginemos un software de reclutamiento de personal que, basado en datos históricos sesgados que alimenten al algoritmo, descarta automáticamente a candidatas mujeres por “falta de experiencia en roles de liderazgo”. El Reglamento lo prohíbe explícitamente, alineándose con la amplia normativa vigente contra la discriminación laboral.
Además, el reglamento contempla como de riesgo alto la “inferencia de emociones” en entornos laborales, salvo usos médicos o de seguridad (artículo 24.1.i). Esto podría invalidar, por ejemplo, herramientas de IA que intenten medir la “frustración” en videollamadas para predecir renuncias, evitando invasiones a la privacidad emocional del trabajador. En otros países se estima que a través de la IA se podría intentar “interpretar” las emociones, como el estrés, la frustración o la satisfacción, para evaluar la productividad o la moral del trabajador, y con esa data adoptar decisiones que los afecten. Por ejemplo, si un sistema detecta repetidamente “frustración” en la cara de un empleado, podría generar una alerta o incluso sugerir alguna amonestación, a pesar de que la frustración podría deberse a un problema personal no relacionado con el trabajo.
En otro caso, durante un proceso de selección de personal, la IA podría analizar las expresiones faciales, el tono de voz y el lenguaje corporal de los candidatos durante una entrevista que se diera en video. El sistema podría inferir que un candidato está “nervioso” o “falto de confianza” priorizando estas señales, lo que podría llevar a una decisión de rechazo, desdeñándose las calificaciones o la experiencia del candidato. De esa manera se podría discriminar injustamente a personas tímidas o que simplemente no se sienten cómodas en contextos de entrevista.
Las prohibiciones son aún más tajantes pues podrían afectar la propia autonomía y la capacidad de decisión de los trabajadores. Así, se veta el uso de IA para inferir datos sensibles (afiliación sindical, religión, orientación sexual) o clasificar personas de modo discriminatorio (artículo 23.1.f). Una plataforma de gestión de proyectos con IA podría rastrear las comunicaciones del equipo de trabajo para identificar vulnerabilidades emocionales, como el miedo a ser despedido o la inducción para hacerlo en adelante.
Desde mi perspectiva, estas medidas representan previsiones necesarias en un país donde un porcentaje muy significativo de los empleos informales ya enfrentan una precariedad tecnológica. Sin embargo, el reto es su exigencia de cumplimiento: ¿cómo fiscalizará la Superintendencia Nacional de Fiscalización Laboral (Sunafil) algoritmos opacos en las Mypes?
Principios éticos: Un escudo contra la “opacidad algorítmica”
El corazón del Reglamento late en sus principios rectores (artículo 7): no discriminación, privacidad de datos, protección de derechos fundamentales, seguridad, proporcionalidad, fiabilidad, supervisión humana y transparencia. Estos, si bien principios, no por ello resultan abstractos; impactan directamente en el día a día laboral. El principio de no discriminación (artículo 7.a) podría inspirar y sustentar legislación complementaria que sancione o anule sistemas de IA que perpetúen sesgos por género, edad o raza en herramientas de recursos humanos, que son comunes en las evaluaciones de desempeño.
El enfoque centrado en “el respeto de los derechos humanos” de la persona (artículo 2), en la “protección de derechos fundamentales” (Artículo 7) obliga a priorizar el bienestar del trabajador, evitando potenciales vulneraciones como una vigilancia invasiva o decisiones automatizadas sin explicación. En nuestra opinión, ello conecta con el artículo 23 constitucional que establece que “Ninguna relación laboral puede limitar el ejercicio de los derechos constitucionales, ni desconocer o rebajar la dignidad del trabajador”.
La transparencia y explicabilidad (artículo 25) resultan clave: los trabajadores deberían, en lo posible, entender por qué un algoritmo sustentó la negación de un ascenso o recomendó un despido. De acuerdo con el reglamento los desarrolladores e implementadores (concepto este último que comprende a los empleadores) deben informar “de forma previa, clara y sencilla” sobre el uso del sistema (artículo 25.1), “respetando el secreto industrial y comercial”. No hay duda de que explicar de manera “clara y sencilla” al grueso de la población trabajadora sobre el uso del algoritmo configura un desafío ético y pedagógico dada la complejidad de su estructura técnica. Y sobre la tendencia o reserva de parte del empleador, habría que buscar un punto en que la información suministrada a los trabajadores o al sindicato resulte “suficiente o pertinente”. Lo más probable es que pueda suscitarse un conflicto sobre el alcance de esos términos, tal como hasta hoy ocurre con la data que, por mandato legal, un empleador debe alcanzar a un sindicato en la etapa de elaboración de su pliego de reclamos.
De otro lado, si bien la “cogobernanza algorítmica” parece remitirnos a un pretendido nivel equitativo de decisión entre trabajadores y empleador, el término debemos entenderlo como un llamado a que el uso de los algoritmos suponga, al menos, el conocimiento previo de su finalidad intramuros de la empresa, reduciendo litigios por arbitrariedad.
Supervisión humana y evaluaciones de impacto: El contrapeso al algoritmo
Otro pilar importante es la supervisión humana efectiva (artículos 7. literal h y 28.11), que exige capacidad real para “detener, corregir o invalidar decisiones algorítmicas, sin que baste solo ‘rubricar’ lo que diga la máquina”. Los mismos supervisores deberán capacitarse para no terminar sesgados por la IA (artículo 31.4). En el ámbito laboral, una decisión como un despido sin esta supervisión es nula por violación al orden público.
Las evaluaciones de impacto (artículo 30) son obligatorias para el sector público y voluntarias –pero incentivadas– para el privado (artículo 32). Deben identificar riesgos a derechos y documentar las mitigaciones que hagan. Para el privado, es el único mecanismo de defensa legal proactiva, una suerte de certificado de “buena conducta algorítmica”. Es recomendable que el Ministerio de Trabajo y Promoción del Empleo (MTPE) incentive estas evaluaciones con incentivos fiscales para Mypes, donde la adopción de IA es incipiente pero creciente.
Protección de datos y estándares: Evitando sesgos en la era digital
Todo uso de la IA debe cumplir con la Ley N° 29733 de Protección de Datos Personales (artículo 26), fundamentalmente para el tratamiento de datos laborales sensibles. Se exige que se conforme equipos diversos para minimizar sesgos (artículo 27.1), aplicando estándares como la Norma Técnica Peruana-ISO/IEC: 42001:2025, la primera en su tipo enfocada en establecer un sistema de gestión específico para IA en RR.HH. de cualquier organización, sin importar su tamaño o sector económico. Igualmente, para el sector público, el Reglamento contempla auditorías periódicas (artículo 29.c) a fin de detectar vulnerabilidades antes de implementar sistemas de IA.
El “aterrizaje” a una legislación específica laboral
A fin de “aterrizar” las previsiones generales del Reglamento en el ámbito laboral específico, el MTPE, como ente rector del sector Trabajo debería asumir un rol protagónico en la emisión de normas complementarias de tinte laboral dentro de los días siguientes, según lo prevé su segunda disposición complementaria final.
Esto implica dictar lineamientos técnicos y guías operativas que adapten principios como la no discriminación, la transparencia y la supervisión humana a procesos laborales clave, tales como el reclutamiento algorítmico, la evaluación de desempeño o la gestión de las sanciones asistidas por IA. Por ejemplo, el MTPE podría elaborar un protocolo de evaluación de impacto laboral para sistemas de IA de “riesgo alto” (artículo 24.1, literal e), disponiendo que las empresas documenten sesgos en algoritmos de selección de personal y garanticen el derecho de los trabajadores a cuestionar decisiones automatizadas, alineando ello con el artículo 31 de la LPCL para fortalecer el debido proceso en despidos.
Por su parte, Sunafil tiene la responsabilidad inmediata de actualizar sus mecanismos de inspección y transformarse en la práctica en una suerte de agencia de auditoría algorítmica, capaz de verificar el cumplimiento de auditorías periódicas (artículo 29.c), la transparencia algorítmica (artículo 25.1) y la supervisión humana efectiva (artículo 31.4). Esto requeriría capacitar a los inspectores de trabajo en ética de IA, sesgos algorítmicos y gobernanza de datos, y desarrollar un protocolo de inspección laboral que incluya revisiones in sito de herramientas de RR.HH., con énfasis en la prevención de discriminación (artículo 7.a) y la protección de datos personales (artículo 26).
Con el fin de no incurrir en una ausencia de tipicidad o tipicidad deficiente, habría que revisar el catálogo de infracciones vigente, sin perjuicio de que se vayan generando las normas complementarias. De esta forma Sunafil, en una primera etapa desarrollando una función fiscalizadora al mismo tiempo que orientadora, podría actuar disuadiendo abusos y asegurando que la gradualidad del cronograma (2 años para usos laborales, con gracia para Mypes) no diluya la aplicación efectiva.
En cuanto a la legislación complementaria laboral, es imperativa una reforma al T.U.O. de la LPCL (DS N° 003-97-TR) para integrar explícitamente las obligaciones del Reglamento, como la obligatoriedad de evaluaciones de impacto en despidos o contrataciones asistidas por IA (artículos 30 y 32). En el campo de la autonomía colectiva, las partes deberían adoptar cláusulas estándar en convenios colectivos para la transparencia y auditorías conjuntas. Adicionalmente, si la implantación de esta tecnología tendiera a afianzarse, ya podría explorarse una ley específica de reconversión laboral por IA, en el marco de la nueva Estrategia Nacional de IA que se elaborará (ENIA, Disposición Cuarta), que incluya programas de capacitación masiva y subsidios para trabajadores afectados por la automatización, mitigando impactos en el empleo (artículo 35). Estas normas, coordinadas con el MTPE, no solo “aterrizarían” el marco general del Reglamento, sino que posicionarían al Perú como líder regional en un trabajo humano y ético frente a la revolución digital.