Es fundamental implementar auditorías regulares y evaluaciones de impacto para asegurar que los sistemas de IA sean justos y transparentes

El impacto de la regulación de la IA en las relaciones laborales

Tribuna Madrid
regulación IA de las RRLL, imagen generada por Gemini

La creciente implementación de inteligencia artificial (IA) en el ámbito laboral ha suscitado un intenso debate sobre la necesidad de establecer regulaciones efectivas que salvaguarden los derechos de los trabajadores y garanticen un uso ético de estas tecnologías en los entornos de trabajo.

Este artículo se propone analizar y sintetizar las diversas propuestas de regulación existentes, centrándose en el reciente Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de Inteligencia Artificial (en adelante el “RIA”), así como determinados aspectos de la normativa nacional española en este ámbito.

A través de este análisis, se busca ofrecer un marco comprensivo sobre cómo las regulaciones pueden adaptarse y evolucionar frente al imparable avance tecnológico en el mundo del trabajo.

1. Marco normativo de la IA

1.1. El Reglamento Europeo IA

La IA ha revolucionado numerosos sectores, incluyendo el ámbito laboral, donde se ha integrado en procesos de selección, evaluación de desempeño y gestión de recursos humanos. Sin embargo, la implementación de estas tecnologías también plantea importantes desafíos, especialmente en lo que respecta a la protección de los derechos fundamentales de las personas trabajadoras.

Con la irrupción de la IA en prácticamente todos los ámbitos de nuestra vida diaria, surgió la necesidad de crear una regulación ad hoc que abordase de forma específica el uso de la IA también en el trabajo, haciéndose evidente al considerar situaciones en las que las personas trabajadoras utilizan herramientas de IA sin una información o formación suficiente y sin supervisión adecuada por parte de las empresas. Esto ha llevado a preocupaciones sobre la seguridad de datos y la posible discriminación en procesos automatizados de decisión, que son riesgos inherentes en un entorno cada vez más dominado por algoritmos, preocupaciones que ha sido abordadas por el nuevo RIA en el ámbito europeo, siendo de aplicación directa también en nuestro país.

El RIA contempla un marco legal orientado a garantizar una utilización responsable de la IA y a todos los niveles, desde el desarrollador hasta la empresa encargada de su implementación, estableciendo un catálogo de obligaciones concretas aplicables a los Sistemas de Inteligencia Artificial (SIA) considerados de alto riesgo. Estos SIA de alto riesgo son aquellos que pueden afectar derechos fundamentales, al empleo, seguridad y privacidad, sujetos a normas más estrictas en su desarrollo y supervisión.

Concretamente en materia de empleo, se establecen como prácticas de alto riesgo aquellas que consisten en aplicaciones para la contratación o la selección de personas físicas, en particular para publicar anuncios de empleo específicos, analizar y filtrar las solicitudes de empleo y evaluar a los candidatos, y los destinados a ser utilizados para tomar decisiones que afecten a las condiciones de las relaciones de índole laboral o a la promoción o rescisión de relaciones contractuales de índole laboral, para la asignación de tareas a partir de comportamientos individuales o rasgos o características personales o para supervisar y evaluar el rendimiento y el comportamiento de las personas en el marco de dichas relaciones.

Adicionalmente, se establece una seria de prácticas prohibidas, aplicables también al ámbito laboral, como la manipulación subliminal, la clasificación social que cause un trato perjudicial o desfavorable que sea injustificado o desproporcionado, la explotación de vulnerabilidades, la predicción de delitos o la vigilancia masiva biométrica indiscriminada, asegurando un nivel elevado de protección de los derechos fundamentales de las personas, prácticas que no se podrán llevar a cabo bajo ningún concepto salvo por la concurrencia de las excepciones reguladas en la propia norma europea.

El RIA se plantea desde una óptica de prevención del riesgo derivado del uso de los SIA, catalogando las distintas actividades o usos de los SIA como de alto y bajo riesgo, estableciendo distintas obligaciones en función de dicha catalogación. Particularmente en lo que respecta a las relaciones laborales, los principales riesgos contemplados en la norma europea son, entre otros, la generación de patrones históricos de discriminación durante el proceso de contratación y en la evaluación, promoción y retención de personas en las relaciones contractuales hasta la extinción de la relación laboral, así como una eventual vulneración de los derechos fundamentales a la intimidad, dignidad o datos personales de la persona trabajadora.

La norma comunitaria regula determinadas actuaciones que deberán de seguir las empresas encargadas de la implementación de estos sistemas, con la finalidad de reducir los riesgos comentados. Entre ellas, se destacan la aplicación de las instrucciones del proveedor para el uso del sistema de IA; garantía de la supervisión humana por personas que tengan la competencia, la formación y la autoridad necesarias; la validación de los datos de entrada para garantizar su idoneidad y suficiente representatividad para la finalidad prevista; la supervisión de la actividad del sistema de IA; información al proveedor o distribuidor del sistema de IA de cualquier fallo de funcionamiento, incidente o riesgo; guardar los registros; realización de una evaluación de impacto; así como facilitar la información necesaria a los representantes de los trabajadores y a las personas trabajadoras afectadas de que estarán expuestos a la utilización del sistema de IA de alto riesgo, conforme a normativa nacional.

En relación con esta última obligación de informar a las personas trabajadoras, y a sus representantes legales, nuestro ordenamiento jurídico laboral, siendo pionero en su regulación, ha introducido nuevas obligaciones en esta materia en los supuestos de deberes de información colectiva sobre la utilización de algoritmos informáticos, así como información individualizada a través de las políticas internas corporativas.

  • Marco normativo nacional.

Con ocasión de la Ley 12/2021, de 28 de septiembre (“Ley Rider”), se introdujo un nuevo artículo 64.4.d) del Estatuto de los Trabajadores (ET), por el cual se establece la nueva obligación de compliance sociolaboral para las empresas consistente en informar  a la representación legal de las personas trabajadoras (en adelante “RLPT”) sobre el funcionamiento del algoritmo informático utilizado, y concretamente sobre los “parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles”.

Esta obligación de información no conlleva negociación del algoritmo con la RLOT, pero si se deberá facilitar de forma previa a la utilización de los algoritmos y ante cualquier cambio en las variables, parámetros o cualquier otra característica del algoritmo.

En los supuestos en los que no exista RLPT, las empresas vendrán obligadas a informar a las personas trabajadoras de forma individualizada, por aplicación de la normativa en materia de protección de datos, concretamente por el artículo 22 Reglamento General de Protección de Datos (RGPD).

2. Políticas de Uso Responsable de la IA

A pesar de que estas políticas son generalmente de carácter voluntario, su establecimiento es altamente recomendable para gestionar adecuadamente los riesgos que surgen del uso inadecuado o irresponsable de la inteligencia artificial. No obstante, si la finalidad del uso de la IA fuera el control laboral de las personas trabajadoras, existiría la obligación normativa, regulada en el artículo 87 LOPDGDD, de elaborar unos criterios de utilización de la IA en el ámbito laboral, previo trámite de participación con la RLPT en caso de que existan en la organización.

En relación con esta obligación legal de conceder trámite de participación de la RLTP para la elaboración de esta política o reglas de uso de sistemas o algoritmos informáticos, se cita una importante sentencia del Tribunal Supremo de fecha 6 de febrero de 2024 (Recurso 263/2022) que ha señalado la necesidad legal de conceder un trámite de participación a la representación legal de los trabajadores, no solo de forma previa a la implementación de la política de uso de medios tecnológicos, sino también ante cualquier modificación, y en este punto radica la novedad, de dichos criterios de uso de los medios tecnológicos corporativos en la empresa, de conformidad con lo establecido en el artículo 87 LOPDGDD, en relación con el art. 20.3 ET.

Estas políticas deben incluir directrices sobre cómo los empleados pueden utilizar las herramientas de IA, así como los criterios que las empresas deben seguir al acceder y utilizar los datos generados. Esto no solo ayuda a proteger la información sensible de la empresa, sino que también asegura que los derechos de los trabajadores sean respetados, minimizando así el riesgo de conflictos o malentendidos.

Entre los aspectos fundamentales de estas políticas, se destaca la necesidad de realizar una evaluación continua del impacto que la IA tiene sobre los derechos laborales, mientras que al mismo tiempo se garantice la formación necesaria para que los empleados puedan adaptarse a las nuevas tecnologías. La capacitación debe ser un proceso continuo, permitiendo que los trabajadores no solo se familiaricen con las herramientas, sino que también comprendan sus derechos en el marco de estas innovaciones.

3. Retos y Dilemas Éticos

Pese al nuevo marco normativo en materia de IA mencionado en este artículo, y todas las garantías que conlleva, siguen existiendo numerosos retos en la implementación de la IA en el ámbito laboral.

Uno de los riesgos más importantes es la potencial discriminación que se puede producir por la utilización de algoritmos en sistemas de gestión de personal, desde la selección hasta el despido de la persona trabajadora. Aunque los algoritmos pueden ser diseñados para evaluar a los candidatos de manera imparcial, la realidad es que los sesgos humanos y las deficiencias en los datos de entrenamiento pueden llevar a resultados discriminatorios. Por lo tanto, es fundamental implementar auditorías regulares y evaluaciones de impacto para asegurar que los sistemas de IA sean justos y transparentes.

Además, la cuestión de la anonymity y la privacidad se vuelven también críticas cuando estamos hablando del impacto de la IA en las personas trabajadoras. Muchas de las herramientas de monitoreo utilizadas por las empresas implican la recopilación de datos sensibles que, si no son manejados correctamente, pueden llevar a violaciones de derechos fundamentales. Aquí es donde la regulación desempeña un papel crucial, no solo en la estructura obligacional de las leyes mencionadas, sino en su aplicación y en la creación de un marco donde la tecnología y los derechos humanos puedan coexistir de forma armónica.

4. Conclusiones y Recomendaciones

La regulación de la IA en el ámbito laboral representa un desafío multifacético que requiere una atención cuidadosa y proactiva. Las normativas emergentes comentadas anteriormente de obligado cumplimiento (hard law), y otras disposiciones de soft law, como la Carta de Derechos Digitales, señalan un avance significativo en la protección de los derechos humanos laborales de las personas trabajadoras ante el creciente uso de tecnologías avanzadas.

A medida que la tecnología continúa evolucionando, es esencial que tanto empresas como representantes legales de las personas trabajadoras colaboren para asegurar, no solo el cumplimiento normativo de estas nuevas obligaciones laborales, sino también para que la transformación digital sea útil y beneficiosa para todos los involucrados.

Esto incluye, a modo de buenas prácticas, el establecimiento de políticas claras y transparentes sobre la utilización de la IA en la empresa, la obligación de informar y consultar a la RLPT, así como el diseño y la implementación de mecanismos para evaluar y mitigar riesgos asociados a estos sistemas, entre ellos una evaluación de impacto y medidas de control y supervisión humana previa a la toma de decisiones con base en la IA.

Invocar no solo a una regulación más estricta, sino a un enfoque ético en el uso de la IA en el trabajo será primordial para construir un futuro laboral inclusivo, justo y seguro para todos. En última instancia, el objetivo debe ser crear un entorno donde la tecnología no reemplace la dignidad y los derechos humanos, sino que los potencie y los proteja en el mundo laboral del siglo XXI.


ElDerecho.com no comparte necesariamente ni se responsabiliza de las opiniones expresadas por los autores o colaboradores de esta publicación