Reivindicar los derechos laborales en la era de la IA: de la protección de datos a la justicia colectiva
A medida que la IA y las tecnologías basadas en datos remodelan el lugar de trabajo, a menudo socavan los derechos, la privacidad y la autonomía de los trabajadores. Sin embargo, los marcos normativos, como el Reglamento General de Protección de Datos de la UE y la movilización de los trabajadores, pueden combatir la explotación algorítmica, defendiendo los derechos colectivos sobre los datos y las reformas sistémicas para garantizar prácticas laborales digitales más justas y transparentes.
La inteligencia artificial (IA) y las tecnologías basadas en datos están rediseñando el lugar de trabajo a un ritmo sin precedentes. Desde algoritmos de contratación hasta sistemas de supervisión de empleados, las herramientas de IA se utilizan cada vez más para tomar decisiones que afectan profundamente a la vida de los trabajadores. Aunque estos sistemas prometen eficiencia y operaciones optimizadas, afirmaciones que no siempre están fundamentadas, a menudo conllevan costes significativos para la privacidad, la equidad y la dignidad. Es urgente abordar cómo se utilizan estos sistemas para redefinir la dinámica de poder y socavar los derechos de los trabajadores.
Para muchos trabajadores, los sistemas de gestión algorítmica están lejos de ser herramientas neutrales. En cambio, funcionan como mecanismos que refuerzan las desigualdades existentes, despojando a los trabajadores de autonomía y capacidad de acción a través de métricas y procesos de toma de decisiones opacos. Estos sistemas no solo remodelan la naturaleza del trabajo, sino que también socavan la capacidad de los individuos y los sindicatos para hacer valer sus derechos de manera efectiva.
Hay mucho en juego, especialmente para los trabajadores de la economía gig, que a menudo están sujetos a un seguimiento y evaluación intensivos por parte de las plataformas basadas en IA. Estas plataformas operan con frecuencia bajo el disfraz de la neutralidad, una narrativa conveniente que los empleadores adoptan fácilmente. Sin embargo, la realidad es mucho más insidiosa: los trabajadores son monitoreados constantemente y reducidos a puntos de datos, despojados de autonomía y agencia por métricas que no pueden ver ni influenciar. Este desequilibrio estructural no solo pone en peligro la privacidad de los trabajadores, sino que también perpetúa la discriminación sistémica, ya que los algoritmos replican los sesgos incrustados en sus datos de entrenamiento. Peor aún, estos sistemas utilizan los datos como arma para aumentar la precariedad y penalizar cualquier desviación de las normas rígidas y a menudo injustas.
Sin responsabilidad, y sin la transparencia necesaria para lograrla, la economía gig corre el riesgo de afianzar la desigualdad y la explotación en el mercado laboral. Sin embargo, en medio de estos desafíos, hay esperanza: los marcos regulatorios, la movilización de los trabajadores y la defensa liderada por los sindicatos presentan oportunidades tangibles para contrarrestar estas dinámicas y recuperar la capacidad de acción en el lugar de trabajo digital.
La protección de datos como herramienta para la justicia laboral: lecciones del caso Glovo
Un reciente caso ilustra tanto los desafíos como las oportunidades para abordar estas cuestiones. Glovo, una aplicación de reparto con sede en España y actor destacado en la economía gig, se enfrentó a una multa de 5 millones de euros por parte del organismo de control de protección de datos italiano por el uso indebido de los datos personales de los trabajadores. Reversing.Works, una iniciativa que denuncia los abusos en las plataformas de la economía gig, había descubierto que las prácticas de gestión algorítmica de la plataforma incluían el seguimiento de los trabajadores fuera de sus turnos, el mantenimiento de puntuaciones de rendimiento ocultas y el intercambio de datos de seguimiento detallados con terceros. Estas prácticas violaban tanto la legislación laboral italiana como el Reglamento General de Protección de Datos (RGPD) de la UE, lo que ponía de manifiesto el doble riesgo de las violaciones de la protección de datos y las dinámicas de explotación en el lugar de trabajo.
La sentencia no solo multó a Glovo, sino que también ordenó medidas correctivas, lo que supuso una victoria significativa para los trabajadores y sus derechos en la economía de los pequeños encargos. Este resultado demostró el potencial de combinar las herramientas legales del RGPD con la defensa y los esfuerzos de investigación para responsabilizar a los empleadores y las empresas. También pone de relieve el papel indispensable de las organizaciones de base y los sindicatos en esta lucha. El caso también arrojó luz sobre una cuestión más amplia: la opacidad de los sistemas de IA. Los algoritmos patentados a menudo funcionan como cajas negras, lo que hace casi imposible que los trabajadores comprendan o impugnen las decisiones que afectan a su sustento.
Esfuerzos y deficiencias regulatorias
El marco de protección de datos es crucial para abordar estos desafíos. El reciente escrutinio de los sistemas de gestión algorítmica en virtud de las disposiciones del RGPD muestra que la regulación tiene fuerza, pero solo si se apoya en una aplicación proactiva y en la movilización de los trabajadores. Al establecer principios de transparencia, responsabilidad y limitación de la finalidad, el RGPD ofrece un marco para regular la forma en que los sistemas de IA manejan los datos personales. Sin embargo, la aplicación ha sido el eslabón débil durante años. Hubo muchas razones para ello, pero una de las más importantes es que los trabajadores no tenían acceso a información clara sobre cómo se procesan sus datos ni a mecanismos sólidos para impugnar el uso indebido.
Además, se necesitan cambios sistémicos adicionales para mitigar los riesgos asociados a la IA en el lugar de trabajo. Ciertas tecnologías, como la vigilancia biométrica y el reconocimiento de emociones, suponen amenazas inherentes a los derechos de los trabajadores y deberían prohibirse de plano. En este sentido, la Ley de IA de la UE recibió valoraciones mixtas en cuanto a los derechos de los trabajadores. Aunque introdujo salvaguardias en las aplicaciones de IA de alto riesgo, como la toma de decisiones y la contratación automatizadas (incluidas en el anexo 3.4, que se espera que se amplíe en el futuro), no fue lo suficientemente lejos para abordar las implicaciones más amplias de la IA en los derechos de los trabajadores. Por ejemplo, no aborda adecuadamente los desequilibrios de poder entre empleadores y trabajadores ni garantiza el derecho a impugnar las decisiones algorítmicas que afectan a las condiciones de empleo. La aparentemente positiva prohibición del reconocimiento de emociones en el lugar de trabajo también adoleció de una importante laguna en forma de una excepción de «salud y seguridad» que se utiliza a menudo de forma indebida.
La adopción de la Directiva sobre el trabajo de plataforma también representó un avance significativo y una capa adicional de protección. Permitirá a los trabajadores impugnar las prácticas opacas de las plataformas de la economía gig gracias a una normativa más clara sobre la gestión algorítmica, unos derechos de datos mejorados y unos derechos laborales colectivos más sólidos, junto con sólidos mecanismos de aplicación. Sin embargo, la amplia discreción otorgada a los legisladores nacionales significa que será crucial que los sindicatos, los empleadores y los defensores de los trabajadores se aseguren de que la directiva dé lugar a una normativa eficaz, evitando una aplicación fragmentada o ineficaz.
Hay motivos para ser optimistas y pensar que los futuros esfuerzos reguladores abordarán algunas de las lagunas señaladas anteriormente. Un avance clave es la iniciativa sobre gestión algorítmica descrita en la carta de misión a la vicepresidenta de la Comisión Europea, Roxana Mînzatu. Esta iniciativa está destinada a allanar el camino para una directiva sobre gestión algorítmica, que se espera que incluya disposiciones cruciales como la prohibición de las prácticas más perjudiciales, obligaciones de transparencia y derechos de los trabajadores a impugnar, supervisar y rectificar la toma de decisiones automatizada en el lugar de trabajo. Además, debe garantizar los derechos de información y consulta de los representantes de los trabajadores, proporcionando un marco que defienda los derechos de los trabajadores frente a las nuevas prácticas laborales digitales.
Dando forma al futuro del trabajo: derechos colectivos sobre los datos y la necesidad de un cambio sistémico
En última instancia, la promesa de la IA en el lugar de trabajo debe alinearse con los principios de equidad, transparencia y respeto de los derechos de los trabajadores. Casos como el de Glovo ponen de relieve que la rendición de cuentas es posible cuando los reguladores, los defensores y los trabajadores unen sus fuerzas. Aprovechando los marcos jurídicos existentes, como el RGPD y partes de la Ley de IA, y amplificando las voces de los más afectados, podemos desafiar el poder sin control de la gestión algorítmica.
Pero esto no es suficiente: es esencial ir más allá de la mera aplicación y adaptación de los marcos jurídicos actuales. Un enfoque más transformador debería implicar el establecimiento de una infraestructura digital pública que dé prioridad a la equidad, la transparencia y la rendición de cuentas. A diferencia de los modelos de negocio basados en la vigilancia de las grandes empresas tecnológicas que no rinden cuentas en la UE, estos sistemas públicos se diseñarán teniendo en cuenta el bienestar colectivo de los trabajadores y de todas las personas y colectivos. Esto incluye garantizar que los algoritmos se desarrollen para promover la igualdad de trato y proteger contra los prejuicios. Al fomentar un ecosistema que promueva la supervisión democrática y el control de los usuarios y se centre en los derechos fundamentales, podemos mitigar los riesgos de discriminación algorítmica y, al mismo tiempo, mejorar el poder de los trabajadores para desafiar y dar forma a los sistemas que rigen su trabajo.
Por último, pero no por ello menos importante, es crucial que la UE reconozca los derechos colectivos sobre los datos como un aspecto fundamental de la protección de las personas en la era digital. Aunque la Directiva sobre acciones de representación ha supuesto un primer paso positivo para capacitar a los ciudadanos y a las organizaciones para emprender acciones legales colectivas contra las infracciones de las leyes de protección de datos, no es suficiente por sí sola. El marco actual no aborda plenamente la naturaleza compleja y generalizada de los daños causados por los datos que afectan a comunidades enteras, especialmente cuando las personas pueden carecer de los recursos o los conocimientos necesarios para hacer valer sus derechos individualmente.
Para lograr una protección significativa, la UE también debe ir más allá de los esfuerzos fragmentarios en materia de derechos de datos y, en su lugar, establecer una estructura integral y legalmente reconocida para los derechos colectivos de datos. Esto permitiría a los grupos de personas afectadas reclamar colectivamente una reparación y hacer responsables a las empresas, garantizando la transparencia algorítmica, especialmente en lo que respecta a las negociaciones sobre los derechos de los trabajadores, y evitar violaciones sistémicas de las leyes de privacidad y protección de datos. Este enfoque garantizaría que el compromiso de la UE con los derechos fundamentales se extienda al ámbito digital de una manera que refleje la escala y el impacto de las prácticas modernas de datos y que ha demostrado ser increíblemente perjudicial para grupos vulnerables como los trabajadores.