sabato, Novembre 16, 2024

I lavoratori chiedono alle aziende dell’economia del lavoro temporaneo di spiegare i loro algoritmi

Nel corso di due anni, Alexandru, un autista di Uber di 38 anni a Londra, ha raccolto quasi 7.000 corse e ha mantenuto un impeccabile punteggio di servizio clienti a cinque stelle.

Quando altri conducenti si sono lamentati del fatto che il sistema Uber li stava punendo senza motivo, lui non ci credeva. “La mia sensazione era che questa non fosse tutta la verità. Sicuramente devono essere colpevoli di qualcosa”, ha detto.

Ma nel luglio dello scorso anno, Alexandru ha ricevuto il suo stesso avvertimento dai computer di Uber, dicendogli che era stato segnalato per attività fraudolenta. Un altro avvertimento è arrivato due settimane dopo. Un terzo avvertimento porterà alla chiusura del suo account.

Ha smesso di usare l’app, temendo che sarebbe stata bandita in modo permanente, e ha iniziato a stancarsi il cervello di ciò che avrebbe potuto fare di sbagliato.

Come molte società di servizi di bilancio, Uber gestisce decine di migliaia di conducenti nel Regno Unito tramite software di intelligenza artificiale, che gestisce tutto, dall’utilizzo del riconoscimento facciale per verificare l’identità, all’abbinamento dei conducenti con i clienti e al rilevamento di frodi quando i conducenti imbrogliano o coinvolgono i passeggeri nei conti.

Le aziende affermano che l’utilizzo di esseri umani per gestire un’operazione così massiccia sarebbe impossibile. Ad esempio, la società di consegna di cibo Deliveroo afferma nella sua politica sulla privacy che i controlli manuali sul suo servizio “semplicemente non sarebbero possibili nei tempi e dato il volume delle consegne che gestiamo”.

Ma quelli della gig economy si lamentano che c’è poco compenso quando un computer prende una decisione sbagliata e che le aziende non dicono loro come gli algoritmi le valuteranno, scegliendo invece di mantenere il processo in gran parte segreto.

READ  Un analista italiano afferma che TAP è un progetto strategicamente importante per l'Europa

Alexandru ha affermato che mentre è stato avvertito per frode, come l’allungamento del tempo di volo o la distanza del volo, non gli è stata data alcuna spiegazione per ciò che era accaduto e non è stato in grado di scoprirlo.

“È come se trovassi un avvertimento che il tuo capo ha lasciato sulla tua scrivania, ma non può essere raggiunto, e se bussi alla loro porta, ti dicono: ‘Smettila di fare ciò che stai facendo di sbagliato, o verrai licenziato, ma non ti diranno di cosa si tratta. “Ti senti preso di mira, praticato contro di te”, ha detto.

Quando ha chiamato Uber per chiedere supporto, nessuno ha potuto aiutarlo. “Continuavano a dire: ‘Il sistema non può essere sbagliato, cosa ho fatto?'”

Infine, ha portato il suo caso a un sindacato, il Workers’ Information Exchange (WIE), che ha fatto pressioni su aziende come Uber per spiegare come funzionano i loro sistemi. A ottobre, Uber si è scusato per averlo segnalato in modo errato.

“[Uber] “Utilizzare il software AI come dipartimento delle risorse umane per i conducenti”, ha affermato Alexandru. “Il sistema potrebbe farti smettere di lavorare, potrebbe rescindere il tuo contratto con Uber e potrebbe costarti” [private hire] licenza”, ha detto.

Uber Egli ha detto Sebbene utilizzi processi di rilevamento delle frodi automatizzati, le decisioni di terminazione del conducente vengono prese solo dopo la revisione umana da parte dei dipendenti dell’azienda.

Negli ultimi otto mesi, più di 500 dipendenti di aziende come Amazon Flex, Bolt, Deliveroo e Uber hanno chiesto aiuto a WIE per comprendere le decisioni automatizzate.

Secondo le leggi europee sulla protezione dei dati, i conducenti hanno il diritto di sapere se e come hanno subito un processo decisionale automatizzato. Ma finora solo 40 lavoratori hanno ricevuto dati grezzi sui loro modelli di lavoro, come i tassi di accettazione del lavoro, i tassi di regressione e le valutazioni. WIE ha affermato che nessuna azienda ha spiegato chiaramente come i dati sono stati utilizzati dai propri computer per prendere decisioni.

READ  Report esclusivo da una grande galleria

Eva Blum-Dumontet, ricercatrice senior di Privacy International e co-autrice di Nuovo Report “Gestito da Bot”, scritto con WIE.

“Le persone sono sospese, incapaci di lavorare per motivi che non conoscono. Gli stessi dipendenti dell’azienda non lo sanno. La follia della situazione ha un effetto sulla loro salute mentale – sentirsi come se fossi trattato come se fossi colpevole, senza sapere perché Tutti gli autisti che ho intervistato ne hanno parlato, molto più del lato finanziario.

In Europa, le autorità di regolamentazione e i tribunali stanno iniziando a riconoscere i danni delle pratiche di gestione algoritmica. A gennaio, un tribunale italiano ha stabilito che Deliveroo ha discriminato i lavoratori perché i suoi computer non distinguevano tra lavoratori improduttivi e coloro che erano malati o esercitavano il diritto di sciopero.

L’Italia ha anche multato Deliveroo e Glovo, un’app per la consegna di generi alimentari, per non aver rivelato come ai computer vengono assegnate le funzionalità e la valutazione delle prestazioni.

A marzo, un tribunale olandese ha stabilito che Ola deve fornire i dati utilizzati per creare “punteggi di probabilità di frode” e “profili di guadagno” per i conducenti, che vengono utilizzati per decidere sull’assegnazione del lavoro.

Nonostante questi sporadici vantaggi legali, l’applicazione rimane debole. “Le leggi – leggi sull’occupazione e sulla privacy dei dati – falliscono questi driver”, ha affermato Kansu Savak, coautore del rapporto e ricercatore che lavora sul monitoraggio computazionale presso WIE. “Quando provi a esercitare questi diritti, ti ritrovi a parlare di nuovo con i bot”.

Ha detto di aver trovato l’industria “profondamente ostile e resistente all’esercizio dei diritti dei lavoratori” e quindi ha richiesto una maggiore applicazione delle leggi esistenti.

“La nostra tecnologia svolge un ruolo importante nel proteggere tutti coloro che utilizzano la nostra piattaforma, oltre ad aumentare le opportunità di guadagno per autisti ed e-mail”, ha affermato Uber.

READ  Perché Bruxelles vuole che Mario Draghi risolva i problemi di competitività dell’UE?

La società ha aggiunto che Uber si impegna all’apertura e alla trasparenza sui suoi sistemi, un’affermazione che è stata contestata da attivisti, lavoratori e membri sindacali, che hanno affermato che le società di servizi trattano il modo in cui i suoi algoritmi funzionano come un segreto commerciale.

Privacy International e WIE lanceranno una petizione pubblica lunedì chiedendo maggiori dettagli su come rivedere le decisioni automatizzate da sei piattaforme di concerti.

Il loro obiettivo è attirare l’attenzione sulla crescente automazione di tutti i luoghi di lavoro, non solo sulla gig economy.

“Tutti si sentono al sicuro, hanno un buon lavoro e questo non riguarderà loro, solo i poveri autisti Uber. Ma non si tratta solo di noi”, ha detto Alexandru.

“Le classi inferiori, i lavoratori interinali e i lavoratori autonomi, siamo i primi ad essere colpiti perché siamo i più vulnerabili. Ma cosa succederà? E se l’IA decidesse se inviare o meno un’ambulanza a casa tua, ti senti al sicuro senza parlare con un lavoratore umano? Questo influisce su tutta la nostra vita”.

Ultime notizie
Notizie correlate