
Escribe: Iván Blume, socio de Cuatrecasas experto en derecho laboral y protección de datos personales.
La irrupción de la Inteligencia Artificial (IA) en el ámbito laboral no es un fenómeno del futuro, sino que está transformando la manera en que se abordan asuntos cotidianos de recursos humanos, tales como la selección de personal, la supervisión y gestión del trabajo, entre otros. Cada vez es más común que empresas utilicen plataformas y herramientas capaces de filtrar miles de currículums en segundos, sistemas que miden la productividad en tiempo real y algoritmos que anticipan comportamientos del personal.
LEA TAMBIÉN: La importancia de la inteligencia emocional en épocas de IA
En este contexto, surge la siguiente interrogante: ¿cuáles son las nuevas obligaciones y buenas prácticas que deben cumplir los empleadores al adoptar decisiones basadas en sistemas de Inteligencia Artificial?

Un marco legal que empieza a tomar forma
En el 2023 se publicó la Ley No. 31814, Ley que promueve el uso de la inteligencia artificial en favor del desarrollo económico y social del país. Sin embargo, esta ley solo establecía principios generales, lo que impedía identificar acciones específicas para la implementación de estos sistemas. Recientemente, el 9 de septiembre del 2025, se publicó el Decreto Supremo No. 115-2025-PCM, el Reglamento de dicha ley. Esta publicación representa un avance significativo porque establece obligaciones concretas tanto para el sector público como para el privado, define categorías de riesgo y fija expectativas de transparencia, control humano y gobernanza interna.
LEA TAMBIÉN: Operaciones no reales: el nuevo frente de Sunat que golpea a empresas formales
Tres niveles de riesgo y obligaciones específicas
El Reglamento introduce tres categorías de riesgos para los sistemas de IA: uso indebido, el cual está prohibido, riesgo alto y riesgo aceptable. En función de esta clasificación se establecen obligaciones específicas.
LEA TAMBIÉN: Políticas de IA en gestión humana: Una guía para los centros de trabajo
Para todos los sistemas de IA, se establece como obligación general para las empresas el contar con políticas, protocolos y procedimientos claros sobre el uso seguro, responsable y ético de la IA. Además, deberán fomentar la educación y concientización de sus colaboradores sobre los riesgos que se encuentran asociados al uso de la IA.
Protección de datos y derechos laborales
En el ámbito laboral, se considera de alto riesgo el uso de sistemas de IA para la selección, evaluación, contratación y cese de trabajadores. Por ello, las empresas deben implementar medidas adicionales de control, transparencia y supervisión humana en estos procesos, con el objetivo de proteger los derechos fundamentales de postulantes y trabajadores, y evitar impactos negativos en el entorno laboral.
LEA TAMBIÉN: ¿Es requisito el pago previo para la deducción de un intangible? El Tribunal Fiscal respondió
Siguiendo las tendencias internacionales, el Reglamento exige que las decisiones que puedan afectar el entorno laboral no sean adoptadas exclusivamente por algoritmos. El personal encargado debe estar capacitado para detener, corregir o invalidar decisiones tomadas por el sistema de IA, cuando, por ejemplo, esa decisión puede llevar a una organización a un acto discriminatorio.
Por otro lado, en virtud de la transparencia algorítmica, las empresas deberán informar a trabajadores y usuarios sobre la finalidad y funcionamiento de los sistemas de IA de manera clara y sencilla, de manera previa a su implementación.
LEA TAMBIÉN: Claves tributarias para empresas peruanas que contratan servicios de empresas extranjeras
Estas obligaciones se implementarán de manera gradual, dependiendo del sector en el que se desenvuelva la empresa, con el objetivo de facilitar que el sector privado se adapte progresivamente tanto a las nuevas herramientas y sistemas basados en IA como a su regulación. La planificación de un cronograma de cumplimiento por fases, con hitos verificables, facilitaría la adopción ordenada y reduciría los riesgos de incumplimiento.
Evaluaciones de impacto y buenas prácticas
En materia de protección de datos personales, el Reglamento señala expresamente que las empresas deben cumplir con la Ley No. 29733 y su Reglamento para el uso de sistemas de IA. Dichos sistemas pueden recopilar datos personales de los trabajadores y postulantes, tales como datos de contacto, datos de salud, desempeño laboral, entre otros. Para ello, la Autoridad Nacional de Protección de Datos Personales es la entidad encargada de fiscalizar que los sistemas de IA cumplan esta normativa.
LEA TAMBIÉN: Kakeibo: La técnica japonesa para manejar las finanzas personales
Por otro lado, existen medidas voluntarias cuya adopción, aunque no obligatoria, es recomendable para las empresas. Por ejemplo, la Unión Europea estableció, mediante su Reglamento de Inteligencia Artificial, la obligación para las empresas que emplean sistemas de IA de alto riesgo de realizar una evaluación de impacto antes de su implementación, con el fin de evitar la afectación de, entre otros bienes, derechos laborales.
En cambio, en el Perú, la evaluación del impacto para sistemas de IA de riesgo alto será solo voluntaria para el sector privado. Pese a su carácter voluntario, efectuar evaluaciones de impacto algorítmico es una buena práctica que ayuda a identificar sesgos, documentar salvaguardas y acreditar diligencia organizacional frente a auditorías o controversias.
La hoja de ruta para las empresas
En este sentido, cuando se implementa con rigor ético, transparencia y supervisión humana, la IA tiene un gran aporte: agiliza y hace más objetivos los procesos de selección, libera tiempo de tareas repetitivas para enfocarlo en innovación y análisis, y anticipa riesgos operativos en materia de seguridad y salud en el trabajo mediante analítica predictiva.
LEA TAMBIÉN: Confianza en el sol: dólar débil y fundamentos sólidos lo respaldan
Sin duda, el Nuevo Reglamento plantea a las empresas nuevas obligaciones para el uso de sistemas de IA en la gestión del personal, y nuevos retos para que puedan utilizar de manera segura y responsable esta tecnología. Frente a ello, se recomienda que las empresas (i) elaboren y difundan políticas internas para el uso responsable de la IA; (ii) capaciten a los trabajadores para el cumplimiento de las nuevas obligaciones e implementen una supervisión humana adecuada, cuando corresponda, e (iii) informen, de manera clara y previa, a los usuarios sobre la finalidad, funcionamiento y decisiones que adoptan los sistemas de IA.