«Sono uno dei primi membri dell’African content moderators union e ho lavorato per Sama per 4 anni». A parlare è Kauna Malgwi, cittadina nigeriana che si è trasferita in Kenya piena di energie e felice di iniziare il Master in psicologia. Dopo pochi mesi che viveva lì le è stato offerto un lavoro in una società che si occupa di content moderation per Meta e altre società, tra cui anche OpenAI. «Me lo avevano descritto come il lavoro dei sogni, ben pagato e adatto agli studi che avevo fatto. Si è rivelato un incubo. Passavamo giorni in 200 impiegati chiusi in un’unica stanza troppo piccola e non arieggiata abbastanza».
ChatGPT è la forma di Intelligenza Artificiale che ha raggiunto il maggior successo dal suo rilascio nel novembre del 2022. Valutata per 29 miliardi di dollari, l’azienda, fondata a San Francisco nel 2015 con l’obiettivo di costruire macchine super intelligenti, è oggi utilizzata da milioni di utenti per svolgere le attività più disparate.
L’aggettivo “artificiale” che usiamo per parlare di questo tipo di intelligenza indica l’addestramento del large language model attraverso un’enorme quantità di dati che vanno raccolti, classificati e formattati. A svolgere questo lavoro ci sono migliaia di human contractors.
«Non ci sono robot dietro l’Intelligenza Artificiale: alla fine della catena, spesso troviamo lavoratori provenienti dai Paesi del Sud», spiegano Clément Le Ludec e Maxime Cornet dell’Institut Menes Télécom di Parigi. «Queste mansioni, che richiedono molto tempo e di scarso valore, sono generalmente esternalizzate dalle aziende tecnologiche a una schiera di lavoratori precari».
Sama, l’azienda per cui ha lavorato Kauna Malgwi, è una società di outsourcing di San Francisco con varie sedi in Kenya, India e Uganda. Il business si basa sulla etichettatura di dati per società terze come Meta, Google, Microsoft e, da novembre del 2021, anche per OpenAI.
I dipendenti di Sama svolgono un ruolo fondamentale per l’addestramento e dell’implementazione dei modelli di intelligenza artificiale. Dopo la raccolta e la selezione di informazioni da diverse fonti come internet, contenuti generati dagli utenti, dataset già esistenti, è necessario un lungo e continuo lavoro di annotazione ed etichettatura.
Questa pratica consiste nell’inserire le informazioni rilevanti in un contesto, assegnando a ognuna una precisa “etichetta” che consente ai large language models di fornire le risposte più appropriate alle domande degli utenti. A svolgere tale pratica sono gli human annotators.
Per capire quanto il loro lavoro sia indispensabile, basta pensare ai passi avanti fatti da ChatGPT rispetto al suo predecessore GPT-3.
Quest’ultimo aveva dimostrato l’incredibile abilità di creare frasi, ma, attingendo da dati estrapolati dal web senza alcuna classificazione, aveva più volte utilizzato termini ed espressioni violente o razziste. Dopo le denunce da parte degli utenti, OpenAI ha tentato di risolvere il problema implementando il large language model. La vera novità di ChatGPT, infatti, sta proprio nel meccanismo di sicurezza che è stato creato prendendo spunto da società che, come Meta, avevano già dimostrato che era possibile costruire un modello di intelligenza artificiale in grado di rilevare discorsi tossici filtrandoli prima che arrivassero all’utente.
Il lavoro di filtro è svolto da esseri umani che, in alcuni casi, secondo quanto rivelato da un’inchiesta del Time e da indagini di due ricercatori francesi, Clément Le Ludec e Maxime Cornet, si trovano in condizioni di sfruttamento.
«Stavamo tutto il tempo al computer e davanti ai nostri occhi passavano immagini di nudità, abuso, pornografia, suicidio, mutilazioni e violenza», racconta Kauna. «Era difficile dal punto di vista fisico, perché proprio non respirava, ma anche psicologico. Lo abbiamo detto più volte al management dell’azienda ma loro non hanno mai voluto fare nulla al riguardo».
Secondo le indagini del Time, l’azienda di outsourcing per cui la donna lavorava, nonostante si presenti al pubblico come una società attenta ai diritti dei dipendenti, sostenendo di aver aiutato più di 50mila persone a uscire dalla povertà, paga i lavoratori tra i 1.3$ e 2$ l’ora, a seconda dell’anzianità e delle prestazioni.
«Chiedevamo solamente un ambiente di lavoro migliore e un salario più alto, ma anche delle pause dal computer e da tutte quelle immagini difficili da guardare. Infatti, guadagnavamo solo tra i 750 e gli 800 dollari per 9 ore di lavoro al giorno. Ci hanno dato un assegno di supporto psicologico ma non è abbastanza».
«Nonostante il ruolo fondamentale svolto da questi professionisti dell’arricchimento dei dati, un numero crescente di ricerche rivela le condizioni di lavoro precarie che questi lavoratori devono affrontare», ha spiegato alla rivista statunitense Partnership on AI, una coalizione di organizzazioni che si occupano di intelligenza artificiale, di cui OpenAI fa parte. «Questo potrebbe essere il risultato degli sforzi per nascondere la dipendenza dell’AI da questa grande forza lavoro quando si celebrano i guadagni di efficienza della tecnologia». Eppure, senza questi lavoratori i sistemi di AI non sarebbero sicuri e a portata di tutti come sono oggi.
La realtà portata alla luce dai giornalisti del Time ha ricevuto riscontro dall’inchiesta condotta da Cornet e Le Ludec tra la Francia e la capitale del Madagascar, Antananarivo.
Questa rivela come i lavoratori maggiormente impiegati per questo tipo di attività siano uomini (68%), giovani minori di 34 anni (87%), provenienti dalla città e con un’educazione di scuola superiore o oltre (75%).
Gli impiegati si trovano alla fine di una lunga catena di esternalizzazione del processo di raccolta, filtraggio e classificazione dei dati, il che spiega, in parte, i bassi salari nonostante l’elevata qualificazione professionale.
«Il mondo deve sapere cosa accade in questi posti, dove vengono promessi dei grandi stipendi a dei giovani africani istruiti, che finiscono per essere sfruttati a vita», ha commentato la sindacalista Kauna.
«Sono sicura che con la grande crescita di servizi di intelligenza artificiale che stiamo osservando nell’ultimo periodo le cose per noi content moderators peggioreranno, le diseguaglianze tra il nostro mondo e quello occidentale, dove si vedono solo i frutti positivi dell’intelligenza artificiale, aumenteranno».
Leggi anche: Il governo dei codici