Si parla molto di intelligenze artificiali: come cambieranno il lavoro dei giornalisti – e non solo -, quali opportunità lavorative portano con sé.
Ma, in effetti, si parla poco o pochissimo di chi ci sta dietro. Non gli ideatori, ma tutti quei lavoratori che si occupano della parte più “umile” (passateci il termine), e che spesso vengono pagati poco, sfruttati, e non ricevono supporto adeguato.
Time riporta come Sama abbia sfruttato i lavoratori kenioti impiegandoli nel data labelling* per OpenAI, e più precisamente per “addestrare” ChatGPT a fornire risultati quanto meno tossici possibile.
Gli impiegati sono stati pagati tra l’1.35 e i 2 dollari l’ora, venendo peraltro spesso in contatto con contenuti particolarmente cruenti o disturbanti, senza avere a disposizione alcun tipo di sostegno psicologico.
La natura di tale lavoro avrebbe portato Sama a interrompere il contratto con OpenAI otto mesi prima del previsto, nel febbraio 2022. La cancellazione dei contratti ha avuto un impatto significativo sui lavoratori, molti dei quali sono stati trasferiti a mansioni meno remunerative o hanno perso il lavoro.
Nonostante Sama si promuova come un’azienda di “AI etica”, la paga dei lavoratori era molto inferiore ai $12.50 l’ora pagati “normalmente” da OpenAI per progetti analoghi.
Sama, da parte sua, ha dichiarato che parte del lavoro commissionato da OpenAI includeva in larga parte contenuti potenzialmente illegali, un fatto che ha contribuito alla fine della collaborazione.
Non è la prima volta che accade qualcosa di simile: lo sfruttamento in alcuni settori tech è infatti all’ordine del giorno, soprattutto per tutti quei lavori più “meccanici” che non richiedono competenze specifiche.
È quello che viene definito segreto di Pulcinella: i sistemi di IA odierni dipendono da milioni di lavoratori sottopagati, e largamente impegnati in mansioni ripetitive. Tali lavoratori vengono spesso reclutati in comunità povere o emarginate, e operano in condizioni di lavoro stressanti, senza adeguate tutele e spesso tenuti sotto stretto controllo.
*Data labelling: processo di identificazione dei dati grezzi in modo da attribuire un significato a diversi tipi di dati al fine di addestrare un modello di apprendimento automatico.
24 gennaio 2023