
- Chi sono i lavoratori del data labeling?
- Quali tutele chiedono?
- Qual è il prezzo umano dell’IA?
Il costo umano dietro l’intelligenza artificiale: i lavoratori invisibili del data labeling, il cuore nascosto dell’IA
L’etichettatura dei dati è una fase cruciale nello sviluppo dei modelli di intelligenza artificiale (IA). Solo grazie a questa attività, i sistemi possono “comprendere” le informazioni e imparare da esse. È su questo processo che si basa il business di Scale AI, l’azienda fondata da Alexandr Wang, oggi valutata oltre 29 miliardi di dollari.
Tuttavia, dietro i numeri milionari del settore si nasconde una realtà molto diversa: gran parte del lavoro viene svolta da operatori sottopagati, spesso residenti in paesi in via di sviluppo, che affrontano turni estenuanti e contenuti estremamente sensibili.

Lavoratori nei Paesi poveri e condizioni precarie
L’espansione dell’intelligenza artificiale generativa ha creato una domanda crescente di etichettatori di dati. Secondo quanto riportato da AFP, la maggior parte di questi lavoratori vive in paesi come Kenya, Colombia o India, dove le retribuzioni sono minime e le condizioni lavorative spesso difficili.
Il loro compito consiste nel rivedere e classificare file digitali, perlopiù immagini, con l’obiettivo di “allenare” le IA a riconoscere e interpretare correttamente i contenuti. In molti casi, però, ciò significa dover visualizzare materiale violento o disturbante — ad esempio, fotografie di crimini reali necessarie per addestrare modelli destinati all’analisi forense o medica.
Un lavoro accessibile ma logorante
Questo tipo di occupazione non richiede titoli di studio avanzati, solo competenze informatiche di base e capacità analitiche. È proprio questa accessibilità che spinge molte persone in condizioni di vulnerabilità a scegliere questo impiego.
Il problema principale è la retribuzione insufficiente: per raggiungere uno stipendio dignitoso, molti lavoratori devono affrontare turni fino a 16 ore al giorno, senza tutele, né supporto psicologico per l’esposizione costante a contenuti traumatici.
Moderatori e data labelers: un problema condiviso
Le difficoltà di questi lavoratori ricordano da vicino quelle dei moderatori di contenuti digitali di diverse piattaforme online, che negli ultimi anni hanno denunciato stress e disagi psicologici dovuti all’esposizione prolungata a materiale sensibile o disturbante durante le loro attività di controllo e revisione.
Anche in questi casi, le condizioni di lavoro precarie e la mancanza di tutela legale sono state al centro di proteste e cause giudiziarie in diverse parti del mondo.

Il mercato miliardario dell’etichettatura dei dati
Il settore del data labeling ha generato 3,8 miliardi di dollari nel 2024, e secondo le previsioni potrebbe superare i 17 miliardi entro il 2029.
Eppure, chi rende possibile questa crescita rimane invisibile. Come racconta un lavoratore colombiano intervistato da AFP: “Siamo come fantasmi. Nessuno sa che esistiamo, anche se contribuiamo al progresso tecnologico della società”.
Le proteste e le richieste di tutele
In Kenya, i lavoratori del data labeling si sono organizzati per ottenere una regolamentazione del settore e migliori condizioni contrattuali.
Chiedono salari equi, il diritto al riposo, supporto psicologico e contratti formali che riconoscano la dignità del loro ruolo. Queste mobilitazioni rappresentano un primo passo verso il riconoscimento dei diritti fondamentali dei lavoratori dell’IA, oggi essenziali ma spesso dimenticati.
Le piattaforme coinvolte: Scale AI, Remotasks e altre
Tra le piattaforme più citate emerge Remotasks, una filiale di Scale AI, accusata in paesi come Kenya, Venezuela e Filippine di ritardi nei pagamenti e pratiche lavorative discutibili.
L’azienda sostiene di offrire una “retribuzione equa e competitiva”, ma nel 2024 ha interrotto le attività in Kenya dopo proteste pubbliche dei suoi collaboratori.
Situazioni simili sono state segnalate anche per aziende come la australiana Appen e Sama, subappaltatrice di Meta e OpenAI, entrambe finite al centro di cause legali per violazioni delle norme sul lavoro.
Il costo umano dell’intelligenza artificiale
Negli ultimi anni, il dibattito sull’impatto ambientale dell’IA — dovuto all’elevato consumo energetico necessario per addestrare i modelli — ha guadagnato grande attenzione. Tuttavia, si parla ancora poco del suo costo umano: migliaia di lavoratori invisibili che, con il loro lavoro silenzioso e sottopagato, permettono ai sistemi intelligenti di evolversi.
Il futuro dell’intelligenza artificiale, se vuole essere davvero sostenibile, dovrà affrontare non solo la sfida tecnologica, ma anche quella etica e sociale.