Trabajo lanza una herramienta para conocer el impacto de los algoritmos en las condiciones de trabajo

El documento presentado incide en la importancia de la existencia de la intervención humana en cada una de las decisiones parceladas y no solamente en alguna parte del proceso.

0

Ahora León / Noticias de León / Trabajo

La vicepresidenta segunda del Gobierno, Yolanda Díaz, ha presentado la guía práctica y herramienta pionera sobre la obligación empresarial de informar sobre el uso de algoritmos en el ámbito laboral. Este instrumento pretende garantizar el derecho fundamental a la no discriminación.

La herramienta pionera del Ministerio de Trabajo se concreta en 4 epígrafes de cuestiones: información general, información sobre la lógica y funcionamiento, información sobre las consecuencias, otra información relevante. Cada epígrafe consta de una serie de preguntas como qué tipo de tecnología utiliza el algoritmo (Caja negra, aprendizaje continuo) quién lo ha desarrollado, con qué decisiones, si hay personas en este proceso de decisión y en qué medida participan, qué datos de entrenamiento se han utilizado, si se han verificado los extremos, qué consecuencias pueden derivarse para las personas la decisión adoptada, si se ha informado a la persona candidata del uso de algoritmos…por mencionar algunos ejemplos.

En un contexto en el que el uso de algoritmos es cada vez más habitual en el ámbito empresarial para tomar decisiones de forma automatizada y que este hecho puede poner en riesgo los derechos fundamentales de las personas trabajadoras, Yolanda Díaz ha asegurado que «hablar de regulación algorítmica es hablar de combatir la desigualdad y la precariedad».

La Inspección de Trabajo y Seguridad Social está perfilando el algoritmo Max para combatir el tanto el exceso de horas extras como las horas extra realizadas y no remuneradas.

Los algoritmos no son inocuos

El proceso de diseño y construcción de un sistema de decisión automatizada está sujeto a muchas decisiones de diseño y de cada una de ellas dependerá el sistema final resultante. Se trata, por tanto, de combatir la denominada «discriminación algorítmica» que reproduce patrones clásicos de discriminación.

Como explica el profesor Nick Srnicek, los algoritmos no solo se emplean en las plataformas digitales, sino que cada vez más se utilizan en entornos laborales tradicionales. En este sentido, ha reclamado «una nueva legislación que regule y restrinja el uso de algoritmos». Cualquier cambio en la selección de datos de entrenamiento, del método de ajuste o de su ponderación relativa en el algoritmo generará un modelo diferente y, por tanto, con posibilidad de estar sujeto a determinados sesgos.

El documento presentado incide en la importancia de la existencia de la intervención humana en cada una de las decisiones parceladas y no solamente en alguna parte del proceso. Por ejemplo, en un proceso de selección si las y los candidatos finalistas se seleccionan mediante un algoritmo, la decisión final dependería de una decisión humana.

Tal y como recordó Yolanda Díaz «los modelos y prejuicios que se usan en el diseño de los algoritmos tienen consecuencias de carne y hueso. El algoritmo no es ciego», como dictaminó la pionera Sentencia del Tribunal de Bolonia de 31 de diciembre de 2020 a propósito del algoritmo Frank».

En este marco, «es nuestra responsabilidad poner los avances tecnológicos al servicio de las mayorías sociales y de la justicia social. Es la responsabilidad del Estado, por un lado, innovar, y por el otro, ofrecer protección y estabilidad», ha subrayado la titular de Trabajo.

Ley rider, punto de inflexión

El Real Decreto-Ley 9/ 2021 , para garantizar los derechos laborales de las personas dedicadas al reparto en el ámbito de plataformas digitales consagra el derecho de las personas trabajadoras de cualquier empresa a «ser informado por la empresa de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles».

Esta norma pionera que inspira el proyecto de Directiva sobre condiciones de trabajo en plataformas digitales que está ahora siendo debatida en la UE. La Ley rider se refiere a concretos deberes de información de las plataformas digitales respecto de los sistemas automatizados de supervisión y de toma de decisiones empleado y garantiza el derecho a conocer y a comprender el algoritmo. El objetivo es, por tanto, caminar hacia una empresa «algorítmicamente responsable» con trabajo decente y socialmente responsableLos algoritmos también deben ser materia de negociación por parte de la representación legal de los trabajadores.