De la Coca-Cola als algoritmes: què hi ha darrere la recepta del teu lloc de feina?


La fórmula de la Coca-Cola és un dels misteris millor guardats del món: ningú no sap exactament quines són les proporcions ni què la fan tan addictiva. 
Ara bé, tot i aquesta interessada opacitat, els consumidors podem estar relativament tranquils perquè la llei obliga a etiquetar clarament els ingredients, assegurant que qui tingui al·lèrgia o intolerància a algun d’ells pugui evitar consumir-lo. Però, què passa quan el nostre futur laboral depèn d’una “fórmula secreta” que no podem veure, comprendre, ni qüestionar? Aquí és on entren en joc els algoritmes empresarials, que afecten les nostres vides laborals sense cap etiqueta que ens permeti protegir-nos de possibles injustícies o discriminacions. 

En moltes empreses aquestes fórmules misterioses —els algoritmes que decideixen qui treballa, com treballa i fins i tot quan treballa— són un autèntic enigma per a les persones treballadores. Imaginem que una empresa utilitza un algoritme per repartir les tasques, contractar personal o mesurar la productivitat. Quina és la “fórmula secreta” que determina aquests processos? Segons les darreres xifres de l’Enquesta de clima empresarial de l’Idescat, el 16,6% de la indústria a Catalunya ja fa algun ús de tecnologies d’intel·ligència artificial, i el més inquietant és que en molts casos ni tan sols l’empresa sap exactament com funciona en la pràctica. Aquests algoritmes es basen en l‘autoaprenentatge, per tant, tampoc qui els programa no pot estar segur de quins són els riscos que poden haver-hi. Ara que encara estem a les beceroles de l’ús de la tecnologia és el moment de regular per a després no patir les conseqüències negatives. En definitiva, les decisions que afecten les condicions laborals no poden ser preses basant-se en una recepta desconeguda. 

Tampoc és demanar massa. Des de l’agost de 2021, per aplicació de la llei 12/2021 —la coneguda com a “llei rider”— al nostre ordenament jurídic, es va introduir un nou dret d’informació i consulta a l’article 64 de l’Estatut dels Treballadors. Aquesta normativa, pionera a nivell mundial, garanteix que els representants de les persones treballadores tenien dret a conèixer els “paràmetres, regles i instruccions” dels algoritmes que afecten les condicions laborals. Dit d’una altra forma: quan un comitè d’empresa demana aquesta informació no està intentant accedir a cap secret empresarial, sinó (bàsicament) saber què és el que ha demanat l’empresa al departament informàtic (o al proveïdor externalitzat) quan crea aquest algoritme, i verificar si estan tenint en compte els riscos. És una qüestió de transparència i de justícia.

La pregunta que cal a continuació és clara: com es fa? Doncs no cal inventar res. Tal com proposa l’Acord Marc Europeu de Digitalització d’agents socials, la millor forma de minimitzar els riscos de biaixos i discriminacions és garantir la presència dels representants dels treballadors i treballadores en tot el procés, començant abans de la seva implementació. Només així es poden detectar i corregir els errors potencials a temps, abans que les conseqüències siguin irreversibles.  

De la mateixa manera que pot haver-hi persones al·lèrgiques al sucre o la cafeïna, els treballadors i les treballadores som “al·lèrgics” a les discriminacions, a les decisions preses sense base, o a les errades tecnològiques que es camuflen sota l’aparença de neutralitat. Per ara, les empreses no estan posant de la seva banda i no estan compartint amb els comitès d’empresa aquesta informació, augmentant d’aquesta forma la desconfiança cap a les noves tecnologies per part dels treballadors i treballadores. Per això és imprescindible que els sindicats tinguin accés i capacitat d’influència en la implementació de les tecnologies que els afecten. 

I mentre ens preocupem per l’impacte directe d’aquests algoritmes a la feina, hi ha un altre efecte igualment alarmant, però més subtil: l’impacte ambiental. Cada vegada que fem servir tecnologia avançada, com la intel·ligència artificial (IA) que fa que funcionin aquests algoritmes, hi ha un cost ambiental enorme. Processar dades consumeix grans quantitats d’energia i d’aigua per refredar els centres de dades. Tot està connectat. No podem parlar de justícia social i laboral sense tenir en compte també la sostenibilitat. Si els algoritmes estan destinats a millorar la productivitat, cal que ho facin sense sacrificar el planeta pel camí. 

És important entendre que no és una posició en contra de la tecnologia. Al contrari, la tecnologia té un potencial increïble per millorar la productivitat, fer-nos la feina més fàcil i permetre’ns treballar menys hores. Ara bé, només es podrà aprofitar aquest potencial si la tecnologia es negocia i es dissenya tenint en compte tant els drets laborals com els impactes ecològics. La tecnologia ha de ser una eina al servei de les persones i del planeta, no un mecanisme de control disfressat.

La història de la Coca-Cola ens ensenya que una fórmula secreta pot ser funcionar molt bé a nivell de màrqueting, però quan parlem de drets laborals, sous, promocions i horaris, la falta de transparència és una via directa a la injustícia. Perquè, si no, en lloc de ser més eficients i gaudir de jornades laborals més curtes, potser acabarem treballant més hores, més estressats i contribuint al desgast del medi ambient sense ni tan sols saber-ho. 

Els treballadors i treballadores tenim tot el dret —i el deure— d’exigir saber què hi ha dins d’aquesta fórmula. El futur de la nostra feina, i del nostre planeta, depèn d’això. 


Publicat el 31 d'octubre de 2024 a Social.cat:
https://www.social.cat/opinio/21995/coca-cola-algoritmes-darrere-recepta-teu-lloc-feina

Comentaris

Entrades populars d'aquest blog

El sindicalismo es esencial para humanizar la inteligencia artificial

Glovo debe garantizar derechos y trabajo digno

Emma Igual, excelente compañera, ejemplar hasta el final