Chi controlla davvero il lavoro dei rider: la piattaforma, il contratto o l’algoritmo? È da questa domanda che parte la nuova stretta del decreto Lavoro bis, pensata per riportare regole, tracciabilità e responsabilità dentro uno dei settori più opachi della gig economy. Account ceduti o affittati, identità non sempre verificabili, sistemi automatici che distribuiscono ordini e compensi senza spiegazioni: il food delivery è diventato il terreno più visibile di una trasformazione del lavoro che corre più veloce delle norme. Ora il governo prova a intervenire su due fronti: fermare il caporalato digitale e rendere meno invisibile il potere degli algoritmi.
Stop alla zona grigia
Il decreto vieta la cessione degli account usati per lavorare sulle piattaforme digitali e introduce sanzioni penali per chi aggira le regole. L’accesso dovrà avvenire tramite identità verificata, come Spid, Carta d’identità elettronica, Carta nazionale dei servizi o sistemi di autenticazione a più fattori. In concreto, ogni profilo sarà legato al codice fiscale del lavoratore e non potranno essere creati più account per la stessa persona. L’obiettivo è colpire un meccanismo molto diffuso: il titolare regolare dell’account che lo presta o lo affitta a un altro lavoratore.
Questo sistema ha alimentato quello che viene definito caporalato digitale. Formalmente la piattaforma vede un rider abilitato, ma nella realtà a consegnare è un’altra persona. Ne derivano problemi di sicurezza, responsabilità e sfruttamento: in caso di incidente o controllo diventa difficile stabilire chi stesse lavorando davvero, mentre il titolare dell’account può trattenere una quota dei guadagni. È una forma nuova di intermediazione irregolare, non più nei campi ma dentro le app.
Dati conservati per cinque anni e controlli più incisivi
Il provvedimento impone alle piattaforme di conservare per almeno cinque anni i dati relativi ad accessi, assegnazioni degli incarichi, rifiuti, tempi di lavoro e compensi erogati. Secondo quanto spiegato al Corriere dall’avvocato Luca Barbieri, dello studio ArlatiGhislandi e guida di AG Studi e Ricerche, un decreto ministeriale dovrà definire entro 60 giorni gli obblighi di comunicazione verso enti e autorità, sentiti Inps, Inail e Ispettorato nazionale del lavoro. Quei dati dovranno essere accessibili sia ai lavoratori sia agli organi ispettivi.
La misura punta a rendere verificabile ciò che oggi spesso resta invisibile. Sapere quando un rider si collega, quante consegne riceve, quante ne rifiuta, quanto lavora e quanto viene pagato significa costruire una base documentale utile per prevenire abusi. È un passaggio importante anche sul piano economico: la piattaforma non è più solo un intermediario tecnologico, ma un soggetto chiamato a rispondere dell’organizzazione concreta del lavoro. La conservazione dei dati diventa così uno strumento di controllo pubblico e di tutela individuale.
Algoritmi, punteggi e rischio subordinazione
Il cuore politico ed economico del decreto riguarda però gli algoritmi. Nel delivery, l’assegnazione degli ordini può dipendere da puntualità, tasso di accettazione, geolocalizzazione, recensioni, ore lavorate nelle fasce di punta e frequenza dei rifiuti. Il rider vede gli effetti: più ordini, meno ordini, priorità o penalizzazioni. Spesso però non conosce davvero le regole che producono quei risultati. È il nodo della scatola nera, cioè di sistemi automatici che incidono sul reddito senza offrire spiegazioni comprensibili.
Il decreto introduce la presunzione di subordinazione quando emergono elementi di controllo e organizzazione esercitati anche attraverso la gestione algoritmica. Se è l’algoritmo a determinare tempi, modalità operative, priorità e valutazioni, il rapporto potrebbe non essere più considerato autonomo. Le conseguenze sarebbero rilevanti: ferie, contributi, malattia, tutele e maggiori responsabilità per le piattaforme. Il punto, osserva Barbieri al Corriere, è che la norma apre una strada ma lascia ancora diversi aspetti da chiarire, a partire dalla definizione stessa di gestione algoritmica.
Il nodo dei segreti industriali
Le piattaforme dovranno spiegare ai lavoratori i criteri principali usati per assegnare compiti, calcolare compensi e valutare performance. Chi subisce una decisione automatizzata negativa, come una sospensione o una riduzione degli incarichi, potrà chiedere un riesame umano. È un principio rilevante, ma ancora incompleto: resta da stabilire chi dovrà effettuare il riesame, con quali tempi, in quale forma e con quali garanzie. Sullo sfondo c’è la Direttiva Ue 2024/2831 sul lavoro tramite piattaforme digitali, che dovrà essere recepita entro il 2 dicembre 2026.
La trasparenza algoritmica tocca anche il modello industriale delle app. Per le piattaforme, rendere conoscibili i criteri di funzionamento significa esporsi su una parte sensibile del proprio business. Ma per i lavoratori è una condizione essenziale per capire come incidono i comportamenti quotidiani su reddito e accesso agli incarichi. Dal 1° luglio 2026, inoltre, le piattaforme dovranno consegnare mensilmente un prospetto paga con attività svolta, collocazione temporale, numero di consegne e importi erogati. Una misura che prova a trasformare il lavoro via app da rapporto opaco a rapporto misurabile e contestabile.