
Dietro l’algoritmo: chi lavora davvero al funzionamento dell’AI?
L’apparente autonomia dell’intelligenza artificiale, dunque, è strettamente legata a lavoratori in carne ed ossa. Queste figure rimangono spesso anonime o sottopagate ma risultano fondamentali: senza di loro, quasi sicuramente, l’intelligenza artificiale non esisterebbe nemmeno.
Nel ragionare su come funziona l’AI possiamo allora affermare che, ogni volta che interpelliamo una macchina, c’è una sorta di filo invisibile che ci collega a qualcuno che ha lavorato affinché la risposta fosse possibile. Dare visibilità e valore a questi professionisti è doveroso: non si tratta di un mero atto di giustizia, ma anche di un modo per nobilitare ulteriormente i modelli. L’AI, infatti, appare davvero “intelligente” nel senso stretto del termine, poiché fondata su un’etica del lavoro del tutto umana.
Come funziona l’AI generativa: da dove provengono i dati?
L’intelligenza artificiale che utilizziamo ormai quotidianamente si basa su modelli statistici avanzati, addestrati su ingenti quantità di dati. Ma da dove arrivano concretamente questi dati, e chi li dà in pasto alle macchine? Prima di venire somministrate ai sistemi le informazioni vanno selezionate, etichettate, “ripulite” per risultare più leggibili. Questo processo è noto come data annotation: alla base c’è il paziente e meticoloso lavoro dell’essere umano, chiamato a classificare milioni di immagini, frasi, suoni.
Molte attività, insomma, vengono svolte da annotatori umani che intervengono tramite piattaforme apposite. Gli annotatori, per esempio, “spiegano” all’AI se una foto ritrae un cane o un gatto, se un commento è offensivo o neutro, se una recensione è scritta in chiave positiva o negativa. Si tratta tendenzialmente di freelance o lavoratori retribuiti in base alla quantità di prestazioni offerte. In genere queste figure provengono da ogni angolo del mondo: dalle Filippine al Kenya, dall’India alla Colombia. Il compenso per ogni micro-task è molto basso – spesso si parla di pochi centesimi – e il lavoro è scandito da ritmi piuttosto serrati, imposti per rispettare volumi e scadenze.
Addestrare l’intelligenza artificiale: il ruolo umano nel funzionamento dell’AI
Ci sono poi i cosiddetti AI trainers, chiamati ad un compito più “raffinato”: leggere le risposte generate dal modello, valutarle, correggerle se necessario. I feedback vengono classificati in modo preciso in base a coerenza, accuratezza, tono. Durante l’addestramento di grandi modelli linguistici come ChatGPT, ad esempio, sono servite migliaia di ore di lavoro umano per migliorare le risposte, segnalare bias (ossia distorsioni valutative e linguistiche), correggere errori logici o ambiguità. Questo processo è noto in gergo come RLHF, acronimo di “reinforcement learning from human feedback”.
Nell’ambito del lavoro umano nell’intelligenza artificiale, tuttavia, c’è anche da sottolineare un aspetto più oscuro e pesante: la moderazione dei contenuti. Non è sufficiente addestrare le AI e poi lasciarle libere di generare contenuti: questi ultimi potrebbero risultare tossici, violenti, mendaci o disinformanti. È per questo che i modelli vanno tenuti sotto controllo: qualcuno deve vigilare. Tale onere ricade spesso su appositi moderatori, chiamati a visionare contenuti anche molto disturbanti – violenza, pornografia, odio – per segnalarli, bloccarli o usarli come case history per istruire meglio il sistema. Questo aspetto dà adito a delle riflessioni, come quella relativa a Meta: il colosso dei social network è stato al centro di diverse inchieste su come i moderatori fossero esposti a traumi psicologici per la quantità e la crudezza dei contenuti da visionare ogni giorno.
Il paradosso dell’invisibilità
Avviandoci alla conclusione di questo approfondimento emerge forte e chiaro un paradosso: una tecnologia descritta come futuristica e autonoma in realtà si regge silenziosamente (e interamente) sul lavoro umano. Questo aspetto ci porta ad una considerazione di natura etica. Alcuni membri all’apice della piramide, come ingegneri e grandi aziende, ottengono riconoscimenti grazie all’AI, mentre altri individui svolgono un lavoro fondamentale ma in condizioni difficili: gli “operai del terzo millennio” restano invisibili e guadagnano poco. È giusto che chi contribuisce di più alla “fatica” dell’AI ne tragga i benefici minori? Appare evidente, allora, che non si può più parlare di intelligenza artificiale senza parlare anche dei diritti, delle condizioni e della dignità di chi lavora per renderla quello che è.