fbpx
Inicio Actualidad El futuro del trabajo con la IA: Innovaciones y retos jurídicos

El futuro del trabajo con la IA: Innovaciones y retos jurídicos

0
39

Por Besly Arianné Muñoz Quintana,

estudiante de la facultad de Derecho de la universidad del Pacífico

“Todo trabajo que enaltece a la humanidad tiene dignidad e importancia y debe llevarse a cabo con esmerada excelencia» -Martin Luther King Jr.

¿Podría el mundo laboral llegar a parecerse al de Wall-E, donde los seres humanos habían delegado casi todas sus responsabilidades a máquinas inteligentes? En este clásico, la comodidad terminó alejando a las personas del esfuerzo, la creatividad y hasta de su propia autonomía. Más allá de la ficción, esta historia encierra una advertencia universal, cuando se rompe el equilibrio entre lo humano y lo artificial, la innovación corre el riesgo de vaciar de sentido aquello que busca mejorar.

Hoy, en pleno siglo XXI, la inteligencia artificial ya forma parte de nuestro día a día en el trabajo. Selecciona candidatos, analiza desempeños, organiza capacitaciones e incluso puede recomendar ascensos o despidos. Sin darnos cuenta, ya no resulta extraño para un especialista en derecho laboral discutir sobre algoritmos, software, modelos predictivos o sistemas de toma de decisiones automatizados. Según la Organización Internacional del Trabajo (OIT), “el verdadero impacto de la IA no radica en una pérdida apocalíptica de empleos, sino en la transformación de funciones y procesos laborales”. Estamos, por tanto, ante una revolución que reconfigurará la manera en que se organizan las relaciones de trabajo.

No obstante, la integración de estas tecnologías en el ámbito laboral plantea múltiples desafíos en materia de derechos y libertades, cuestiones para las que el Derecho, hasta hace poco, parecía no tener respuestas adecuadas. Derechos fundamentales como la privacidad, el libre desarrollo de la personalidad o la no discriminación han estado en riesgo sin que existiera un marco claro de protección. La digitalización, con su carácter desmaterializado y descentralizado, representa un reto significativo para un sistema jurídico diseñado para regular el mundo físico. En un contexto globalizado y altamente tecnologizado, el Derecho debe demostrar que puede adaptarse y ofrecer soluciones efectivas.

En el caso del Perú, la inteligencia artificial está transformando el mundo laboral a un ritmo acelerado: aproximadamente el 30% del empleo se encuentra expuesto a la IA, con sectores formales enfrentando niveles de automatización comparables a los de economías avanzadas. Frente a ello, nuestro marco normativo viene adecuándose a esta nueva realidad, aunque aún persisten zonas grises que generan riesgos, dilemas éticos y posibles vulneraciones de derechos fundamentales. Un paso decisivo fue la aprobación del Reglamento de la Ley N.º 31814, denominada “Ley que promueve el uso de la inteligencia artificial en favor del desarrollo económico y social del país”, que busca ordenar el uso de la IA en distintos sectores, incluyendo expresamente el ámbito laboral.

Esta norma establece que el uso de tecnologías de IA en procesos de selección, evaluación, contratación o cese de trabajadores será considerado de “alto riesgo”, entendiendo como tal toda aplicación que pueda afectar de manera significativa los derechos fundamentales. Ello exige obligaciones reforzadas de control, supervisión y transparencia en las empresas. Además, define como “uso indebido” aquel en el que un sistema basado en IA impacta de forma irreversible, significativa y negativa en los derechos fundamentales o el bienestar de las personas, supuesto expresamente prohibido. Estos avances obligan a las empresas a implementar salvaguardas que garanticen transparencia, confidencialidad y participación humana en las decisiones.

Por otro lado, la normativa peruana adopta un enfoque abierto y flexible al permitir que los Reglamentos Internos de Trabajo (RIT) o políticas internas complementen su aplicación. Este diseño puede ser positivo al permitir adaptaciones sectoriales, pero también abre la puerta a vacíos normativos, especialmente si las políticas se imponen sin participación real de los trabajadores. En esta línea, la abogada laboralista Susana Loayza advierte que: “La Ley N.º 31814 promueve el uso de la IA en favor del desarrollo económico y social del país […] empero no logra regular concretamente, puesto que su redacción se pierde en simples definiciones”, lo que evidencia la fragilidad del marco regulatorio y refuerza el riesgo de fragmentación.

  1. Entre la brecha digital, la protección de datos y los vacíos de implementación

Uno de los principales desafíos para la efectiva implementación del marco normativo sobre IA en el Perú es la formación y alfabetización digital del capital humano. El Reglamento de la Ley N.º 31814 incorpora, en su artículo 4 literal d), el principio de “sensibilización y educación en inteligencia artificial”, que obliga al Estado a promover la alfabetización digital y el desarrollo de habilidades en áreas como programación, ciencia de datos, ética, derechos humanos y estadística a lo largo de todas las etapas de la vida. Este avance normativo representa un paso relevante hacia la democratización del conocimiento tecnológico, al reconocer que el derecho a participar en la economía digital comienza con el derecho a comprender sus herramientas. Sin embargo, el desafío no se agota en la declaración de principios: se requiere detallar mecanismos concretos que garanticen una alfabetización universal, continua y equitativa, así como estrategias para reducir las brechas de acceso entre zonas urbanas y rurales o entre trabajadores altamente digitalizados y aquellos con menor contacto tecnológico. De no ser así, el riesgo es reproducir una nueva forma de exclusión estructural, donde el acceso desigual al conocimiento determine quién puede adaptarse a los cambios del mercado laboral y quién queda rezagado.

En materia de protección de datos personales, los desafíos son igualmente relevantes. Aunque la normativa peruana obliga al cumplimiento de la Ley N.º 29733, Ley de Protección de Datos Personales, no existen aún mecanismos de fiscalización específicos para sistemas de IA. Esto genera incertidumbre sobre la responsabilidad ante vulneraciones en entornos automatizados. José Álvaro Quiroga León advierte con acierto que: Sin una autoridad fortalecida y dotada de capacidades técnicas para auditar sistemas automatizados, la protección de datos personales corre el riesgo de volverse una garantía meramente formal” (Ciberseguridad y protección de datos personales en el Perú, Revista Advocatus, Universidad de Lima, 2022).

Este riesgo se amplía ante el uso creciente de tecnologías que recopilan y procesan información sensible en los espacios laborales: huella digital, historial médico, rutas de desplazamiento, niveles de productividad o rendimiento. Por ello, resulta indispensable establecer controles claros sobre el tratamiento de esta información, determinando quién tiene acceso, bajo qué criterios y con qué garantías de anonimización. Es urgente reforzar el rol de la Autoridad Nacional de Protección de Datos Personales, dotándola de facultades técnicas de auditoría algorítmica para evaluar el cumplimiento de los principios de legalidad, finalidad, proporcionalidad y consentimiento informado en el uso de IA.

Del mismo modo, debe existir una validación adicional en entornos de riesgo, especialmente cuando las decisiones automatizadas puedan afectar la seguridad o salud ocupacional de los trabajadores. Estas medidas deben articularse con políticas de transparencia algorítmica, garantizando que los empleados comprendan los criterios utilizados por los sistemas automatizados en evaluaciones o asignaciones de tareas.

2.     Cuando el algoritmo despide, la última palabra sigue siendo humana

“Los sistemas de inteligencia artificial deben ser herramientas de apoyo en la toma de decisiones, no sustitutos del juicio humano.” -Rahwan et al. (2019)

En cuanto a la validación humana, la Ley N.º 31814 representa un avance al exigirla en casos de despido. Sin embargo, plantea dudas operativas: ¿qué significa validación humana en un entorno donde la decisión ya fue sugerida por un sistema de IA? ¿Basta con la firma de un supervisor que ratifique lo indicado por el algoritmo? Este vacío conceptual puede dar lugar a una aplicación meramente formal, en la que la intervención humana sea un trámite sin verdadera deliberación.

En este contexto, el test de proporcionalidad se presenta como una herramienta idónea para determinar si la validación humana en decisiones asistidas por IA cumple los estándares constitucionales. Este test, consolidado por el Tribunal Constitucional peruano (Exp. 0010-2002-AI/TC), permite equilibrar la libertad de empresa con los derechos fundamentales de los trabajadores mediante una evaluación tripartita: idoneidad, necesidad y proporcionalidad en sentido estricto. De esta manera, la proporcionalidad se convierte en “la brújula”, que orienta a jueces, inspectores e incluso a las propias empresas a la hora de decidir hasta dónde debe llegar la automatización.

Un caso reciente en España ilustra los riesgos de delegar decisiones laborales a la IA sin supervisión humana. El Tribunal Superior de Justicia de Cataluña (Sentencia núm. 5515/2024) anuló un despido porque la carta presentada por la empresa, aparentemente generada con apoyo de IA, carecía de motivación suficiente. El trabajador, que padecía silicosis, fue acusado de bajo rendimiento sin pruebas concretas, y la carta de despido se interpretó como un acto mecánico, despersonalizado y contrario a la dignidad laboral.

Si un caso similar llega al Tribunal Constitucional Peruano, en el que el trabajador alega vulneración de sus derechos fundamentales a la dignidad, al trabajo y al debido proceso. El juez laboral, haciendo uso de “la brújula”, podría razonar de la siguiente manera:

a) Idoneidad: ¿La carta de despido genérica, redactada con IA, es adecuada para cumplir con la finalidad de comunicar una causa justa de despido?

No, una carta estandarizada o producida por IA, sin detallar hechos concretos, no cumple la finalidad constitucional de motivar el acto de despido, pues impide al trabajador ejercer adecuadamente el derecho a su defensa.

b) Necesidad: ¿Existía un medio menos lesivo para alcanzar el mismo fin de comunicar la causa del despido?

Sí, la empresa podía haber elaborado una carta personalizada, describiendo con claridad el bajo rendimiento, aportando evidencia objetiva (reportes, evaluaciones, métricas). Por tanto, usar un texto genérico o automatizado no era necesario.

c) Proporcionalidad en sentido estricto: ¿El beneficio que obtiene la empresa al ahorrar tiempo con una carta generada por IA compensa el costo que supone para el trabajador perder su empleo en condiciones despersonalizadas y sin debido proceso?

No, el perjuicio a la dignidad y a los derechos fundamentales del trabajador es desproporcionado en comparación con la mínima utilidad empresarial de recurrir a una carta prefabricada o generada por IA.

En consecuencia, el despido resultaría inconstitucional y correspondería la reposición del trabajador conforme al Decreto Legislativo N.º 728, Ley de Productividad y Competitividad Laboral. El artículo 29 dispone la nulidad del despido cuando vulnera derechos fundamentales, y el artículo 38 prevé la indemnización sustitutoria si el trabajador opta por no reincorporarse. La jurisprudencia constitucional refuerza esta protección frente a actos discriminatorios, incluso cuando la discriminación se manifiesta mediante sistemas de inteligencia artificial.

En suma, el test de proporcionalidad actúa como la brújula útil, pero esencialmente reactiva, pues solo interviene cuando el daño ya se ha producido. Para que funcione plenamente, requiere además de un “mapa”, es decir, un marco regulatorio integral que impida que los algoritmos decidan por sí solos sobre la dignidad de las personas. También demanda instituciones fortalecidas, como el Poder Judicial y la SUNAFIL en (Superintendencia Nacional de Fiscalización Laboral), con capacidad técnica para comprender, auditar y fiscalizar sistemas de IA.

  1. Wall-E nos invita a volver a lo esencial

“Todo lo que alguna vez hicimos fue dejar las decisiones a las máquinas.” — Capitán McCrea.
(Una crítica directa a la dependencia tecnológica y a la pérdida de autonomía humana.)

Finalmente, el futuro del trabajo dependerá de la capacidad del Derecho para acompañar el avance tecnológico sin renunciar a su vocación humanista. En el Perú, la aprobación de la Ley N.º 31814 representa un punto de partida para institucionalizar una inteligencia artificial que no solo sea eficiente, sino también legítima, transparente y respetuosa de la dignidad laboral. Sin embargo, los desafíos persisten: garantizar una validación humana sustantiva, cerrar las brechas digitales, fortalecer la protección de datos y dotar a las autoridades competentes de capacidades técnicas para auditar algoritmos.

No se trata de frenar el progreso, sino de dotarlo de sentido ético y jurídico. Como en Wall-E, donde la tecnología sobrevivió, pero la humanidad se extravió, el riesgo no radica en las máquinas, sino en la renuncia a la deliberación, la empatía y la responsabilidad que nos definen. El reto, entonces, es construir un ecosistema normativo donde el Derecho peruano, lejos de observar pasivamente la automatización, se consolide como garante de que innovación y justicia caminen de la mano. Solo así, el progreso tecnológico dejará de ser un destino incierto para convertirse en una promesa cumplida; aquella en la que el trabajo, la dignidad y la inteligencia humana y artificial coexistan en equilibrio.


Referencias Bibliográficas: 

  1. Decreto Legislativo N.º 728 – Ley de Productividad y Competitividad Laboral. Diario Oficial El Peruano
  2. Ley N.º 31814 – Ley que promueve el uso de la inteligencia artificial en favor del desarrollo económico y social del país. Diario Oficial El Peruano.
  3. De Trazegnies, F. (2016). Tratado de responsabilidad civil. Fondo Editorial de la Pontificia Universidad Católica del Perú.
  4. Loayza, S. (2024). Comentarios sobre la Ley N.º 31814 y los retos de la inteligencia artificial en el ámbito laboral peruano. Revista Jurídica de Derecho Laboral y Seguridad Social, 12(1), 45–58.
  5. Organización Internacional del Trabajo (OIT). (2023). El impacto de la inteligencia artificial en el trabajo: Transformación, no sustitución.
  6. Quiroga León, J. Á. (2022). Ciberseguridad y protección de datos personales en el Perú. Revista Advocatus, (39), 203–218. Universidad de Lima.
  7. Rahwan, I., Cebrian, M., Obradovich, N., Bongard, J., Bonnefon, J. F., Breazeal (2019)
  8. Tribunal Constitucional del Perú. (2002). Expediente N.º 0010-2002-AI/TC – Caso Test de Proporcionalidad.Tribunal Superior de Justicia de Cataluña. (2024). Sentencia N.º 5515/2024 – Despido automatizado y vulneración de la dignidad laboral.

SIN COMENTARIOS