La herramienta pionera permitirá conocer el impacto de los algoritmos en las condiciones de trabajo

Presentada la Guía práctica y herramienta sobre la obligación empresarial de información sobre el uso de algoritmos en el ámbito laboral.

Noticia

- Las personas trabajadoras tienen derecho a conocer y comprender los efectos del uso de algoritmos. - La guía práctica reúne en un único documento obligaciones y derechos en materia de información algorítmica en el ámbito laboral. - Los algoritmos también deben ser materia de negociación por parte de la representación legal de los trabajadores.

Yolanda Diaz prorroga ERTE

La vicepresidenta segunda del Gobierno y ministra de Trabajo y Economía Social, Yolanda Díaz, ha presentado, junto a las expertas y expertos que las han elaborado la Guía práctica y herramienta sobre la obligación empresarial de información sobre el uso de algoritmos en el ámbito laboral.

La Comisión de personas expertas sobre algoritmos en el ámbito laboral ha estado coordinada por Gemma Galdón y la integran Anna Ginès, Ana Belén Muñoz, Javier Sánchez y Adrián Todolí.

En el acto también han participado Virginia Eubanks, experta en el estudio de la relación entre tecnología y justicia social y Nick Srnicek, profesor de Economía digital en el King’s College de Londres.

Herramienta pionera
La herramienta que se pone a disposición de personas trabajadoras y empresas permite cumplir con la obligación de información algorítmica de todas las empresas. Concreta y sistematiza las obligaciones empresariales de información y permite garantizar el derecho fundamental a la no discriminación.

Se concreta en 4 epígrafes de cuestiones: información general, información sobre la lógica y funcionamiento, información sobre las consecuencias, otra información relevante. Cada epígrafe consta de una serie de preguntas como qué tipo de tecnología utiliza el algoritmo (Caja negra, aprendizaje continuo) quién lo ha desarrollado, con qué decisiones, si hay personas en este proceso de decisión y en qué medida participan, qué datos de entrenamiento se han utilizado, si se han verificado los extremos, qué consecuencias pueden derivarse para las personas la decisión adoptada, si se ha informado a la persona candidata del uso de algoritmos...por mencionar algunos ejemplos.

Para Virginia Banks la guía supone “un gran paso adelante para asegurar decisiones más justas y dignidad en el entorno laboral”. En un contexto en el que el uso de algoritmos es cada vez más habitual en el ámbito empresarial para tomar decisiones de forma automatizada y que este hecho puede poner en riesgo los derechos fundamentales de las personas trabajadoras, Yolanda Díaz ha asegurado que “hablar de regulación algorítmica es hablar de combatir la desigualdad y la precariedad”.

En este sentido, la responsable de Trabajo ha avanzado que la Inspección de Trabajo y Seguridad Social está perfilando el algoritmo Max para combatir el tanto el exceso de horas extras como las horas extra realizadas y no remuneradas.

Los algoritmos no son inocuos
El proceso de diseño y construcción de un sistema de decisión automatizada está sujeto a muchas decisiones de diseño y de cada una de ellas dependerá el sistema final resultante.
Se trata, por tanto, de combatir la denominada “discriminación algorítmica” que reproduce patrones clásicos de discriminación. Como explica el profesor Nick Srnicek, los algoritmos no solo se emplean en las plataformas digitales, sino que cada vez más se utilizan en entornos laborales tradicionales. En este sentido, ha reclamado “una nueva legislación que regule y restrinja el uso de algoritmos”.

Cualquier cambio en la selección de datos de entrenamiento, del método de ajuste o de su ponderación relativa en el algoritmo generará un modelo diferente y, por tanto, con posibilidad de estar sujeto a determinados sesgos.

El documento presentado incide en la importancia de la existencia de la intervención humana en cada una de las decisiones parceladas y no solamente en alguna parte del proceso. Por ejemplo, en un proceso de selección si las y los candidatos finalistas se seleccionan mediante un algoritmo, la decisión final dependería de una decisión humana. Tal y como recordó Yolanda Díaz “los modelos y prejuicios que se usan en el diseño de los algoritmos tienen consecuencias de carne y hueso. El algoritmo no es ciego”, como dictaminó la pionera Sentencia del Tribunal de Bolonia de 31 de diciembre de 2020 a propósito del algoritmo Frank”.

En este marco, “es nuestra responsabilidad poner los avances tecnológicos al servicio de las mayorías sociales y de la justicia social. Es la responsabilidad del Estado, por un lado, innovar, y por el otro, ofrecer protección y estabilidad” ha subrayado la titular de Trabajo.