Il lavoro dell’Intelligenza e l’artificialità dello sfruttamento

Il G7 in corso, presieduto dall’Italia, pone particolare attenzione al mondo della tecnologia, del digitale e dell’intelligenza artificiale. L’Unione europea nel marzo di quest’anno ha emanato il proprio Artifical Intelligence Act che diventerà però pienamente operativo tra due anni, anche se alcune sue parti saranno già applicabili nei prossimi mesi. Il tentativo di regolare l’IA non è una novità, e i suoi precedenti più immediati sono l’AI Pact italiano, in cantiere dal 2021, e il processo di Hiroshima iniziato nel 2023 sotto la guida giapponese del G7. Quest’ultimo include un codice di condotta e delle linee guida a cui Stati, organizzazioni internazionali e aziende dovrebbero uniformarsi per proteggere privacy e proprietà intellettuale e per fare in modo che l’intelligenza artificiale sia “un mezzo sicuro e affidabile per massimizzare i benefici della tecnologia per il benessere mondiale, soprattutto dei paesi in via di sviluppo e delle economie emergenti”.

Si è discusso di come proseguire la discussione aperta con Hiroshima questo marzo, al meeting ministeriale del G7 a conclusione del quale si è raggiunto un landmark consensus per promuovere l’IA per lo sviluppo “sostenibile”. In questi giorni invece si tiene il summit G7 in Puglia, e alla sessione dedicata all’IA parteciperà persino il Papa, invitato da Giorgia Meloni. Una presenza che a primo impatto pare surreale, ma che non è poi così stravagante: è stata infatti l’Accademia Pontificia per la Vita a organizzare nel 2020 il congresso “RenAIssance” e a redigere il documento “Rome Call for AI Ethics” firmato anche da IBM e Microsoft. E del resto il presidente della commissione per l’IA del governo italiano è un prete: Paolo Benanti.

A luglio si tornerà a parlare di intelligenza artificiale al meeting ministeriale del G7 di Bologna e Forlì. Dice Meloni, e con lei gli altri leader G7, che è necessario sviluppare meccanismi di governance per garantire che l’IA rimanga incentrata sull’uomo e controllata dall’uomo, dando applicazioni concrete al concetto di algoretica. Si riattiva così un umanesimo cattolico che, mentre parla di privacy e sviluppo sostenibile, porge l’altra guancia ai grandi processi di accumulazione: i dati sono diventati una delle merci di maggior valore, estratti sistematicamente e trasferiti dalle istituzioni pubbliche in mano alle grandi piattaforme private.

Non ci si può accontentare dell’etica. Tra privacy, protezione dei dati, rischio di diffusione di fake news, copyright, sviluppo, sostenibilità e accessibilità del digitale c’è qualcosa che resta sempre sotto al tappeto, un elemento di fondo comodamente taciuto. Quell’elemento che rimane incastrato tra le voglie accumulatrici del capitale, la digitalizzazione delle metropoli e i sogni accelerazionisti è il lavoro vivo. Si tratta del grande segreto di pulcinella dei nostri giorni, che abbiamo letteralmente sotto gli occhi ma che non vogliamo vedere. Bezos stesso chiama l’intelligenza artificiale ‘artificiale’, perché, come evoca la stessa figura del turco meccanico, l’artificio dell’automazione altro non è che una finzione. Sono passati quasi 20 anni da quando Amazon Mechanical Turk ha iniziato a ingaggiare lavoratori per completare le sue task, e non solo i crowd-workers (coloro che – uniti in una “folla”- lavorano all’interno delle piattaforme della gig-economy) continuano a essere invisibili, ma la loro situazione è peggiorata e si è ancora più diffusa.

OpenAi, azienda madre di chatGPT, può essere presa come esempio per capire il funzionamento dell’IA e delle migliaia di startup di diverse dimensioni che hanno iniziato a trarne profitto. A febbraio 2024 ha raggiunto un valore di 86 miliardi di dollari, diventando una delle startup di maggior rilievo a livello mondiale. Come ci è arrivata? Un’inchiesta pubblicata su Time l’anno scorso mostra come OpenAI ha per anni sfruttato lavoratori keniani con lo scopo di costruire un sistema di sicurezza che permetta di filtrare ed eliminare tutti i contenuti violenti, pornografici, in generale non adeguati, prendendo spunto dai meccanismi IA utilizzati da aziende come Meta. Perché il meccanismo funzioni è necessario fornire a un’intelligenza artificiale esempi catalogati, etichettati, di tali contenuti. Per ottenere queste “etichette”, OpenAI ha inviato a partire dal 2021 decine di migliaia di frammenti di testo e immagini alla sede keniana di SAMA, società di outsourcing statunitense con sede a San Francisco. È la stessa azienda che impiega lavoratori in Uganda, Kenya e India per Meta, Google e Microsoft, e che paga tra i 1,32$ e i 2$ all’ora. A gennaio 2023, poco dopo la pubblicazione dell’inchiesta del Time, SAMA ha comunicato che avrebbe interrotto tutti i contratti che avessero a che fare con la moderazione dei contenuti, focalizzandosi su “computer vision data annotation solutions”, ovvero lavoro di labelling.

Sfortunatamente non finisce qui, perché OpenAI non si limita solamente a filtrare i contenuti violenti. L’IA necessita che tutto lo scibile umano venga catalogato. Per farlo OpenAi ha preso in appalto lavoratori anche tramite Remotask, la branca di data labeling di Scale AI, anche questa una compagnia californiana che opera in Kenya, Nigeria, Pakistan, Vietnam, Thailandia, Polonia, Filippine e Venezuela e che vende dati all’esercito e al ministero della difesa statunitensi. Il fondatore, Alexandr Wang, è stato definito da Forbes “il più giovane miliardario che si è fatto da sé”, e oggi Scale è valutata 13 miliardi di dollari.

Nel mentre i lavoratori-folla devono cercare di accaparrarsi quante più “task” possibile e di completarle nel minor tempo, non solo per provare a guadagnare di più, ma anche per ottenere “task” più facilmente scalando una specie di graduatoria. Un meccanismo simile a quello che tiene sotto ricatto i riders di Glovo e Deliveroo. Non sempre però è facile portare a termine questi compiti e c’è comunque il rischio che l’algoritmo segnali come scorretta la catalogazione fatta dall’essere umano. Gli stessi lavoratori e lavoratrici riferiscono che in questo modo sono spinti a pensare come delle macchine: non sono più solamente al servizio della macchina, ma diventano una sua appendice anticipandone i giudizi. I soldi inoltre non vengono ricevuti immediatamente, ma sono accumulati sull’account di ciascun lavoratore, che solo arrivato a una certa somma può riscuoterli. Se viene commesso un errore è probabile che venga cancellata tutta la somma raccolta fino a quel momento. Ore che non sono pagate, ma che significano comunque per l’azienda una quantità enorme di dati forniti.

Il lavoro di etichettamento non ha fine, e, per trarne profitto, va eseguito nel modo più economico possibile in un processo in cui rimane fondamentale la componente umana. Quando vari lavoratori di Mechanical Turk hanno iniziato a usare ChatGPT per completare le task, sono immediatamente nati sistemi IA per controllare che non venisse usata l’IA per completare task per allenare i sistemi di IA e che a loro volta, si può supporre, sono stati allenati da crowd worker in una sorta di loop infinito.

Difficile quindi che l’IA diventi il modo rivoluzionario per liberarsi dei lavori noiosi. Potrebbe invece somigliare, dice Josh Dzieza nell’articolo “AI Is a Lot of Work“, alle tecnologie di risparmio di manodopera, come il telefono o la macchina da scrivere, che hanno eliminato – in parte – la fatica di consegnare i messaggi e di scrivere a mano, ma che hanno generato una quantità di corrispondenza, di commercio e di documenti cartacei tale per la cui gestione sono stati necessari nuovi uffici con nuovi tipi di lavoratrici e lavoratori (impiegati, contabili, dattilografi). Allo stesso tempo l’IA incide non solo sul funzionamento dei macchinari che si possono trovare all’interno delle fabbriche, ma anche su tutti quei lavori che hanno a che fare con la creatività e l’inventiva umana. Ne consegue, dice sempre Dzieza, che forse non perderemo il nostro lavoro, ma questo potrebbe diventare più estraneo, più isolante, più noioso.

Estraneo, perché spesso gli stessi “taskers” non hanno la minima idea di quale sia lo scopo di quello che stanno facendo, né – a causa del gioco di appalti – sanno per chi effettivamente stanno lavorando: per l’esercito USA? Per Google? Per Israele? Isolante perché lavoratrici e lavoratori spesso non si conoscono fra loro, a meno che non vadano in un internet café insieme, mentre completano le task da remoto in città e continenti diversi.

Essendo alienati e isolati diventa certamente molto più complesso organizzarsi. Questo le aziende lo sanno bene. Tramite l’IA si fa più forte la capacità tecnologica di semplificare e frammentare il lavoro per poi poterlo riorganizzare in modo da trarne profitti maggiori. Migliaia di persone possono perdere il lavoro dal giorno alla notte e le aziende di IA sono libere di andare a cercarne altre migliaia da un’altra parte. È esattamente quello che è successo a marzo mentre si teneva il meeting G7 di Verona: Remostask ha abbandonato “senza spiegazione” Kenya, Nigeria, Vietnam, Polonia, Thailandia e Pakistan.

Colpisce la presenza della Polonia, tra i vari paesi in cui Remostask ha operato, ma cercando lavoretti da remoto su Linkedin o altre piattaforme non è difficile incappare in proposte di lavoro del genere. È chiaro che così come ha già fatto Mechanical Turk anche OpenAI, ScaleAI e altre si diffondono capillarmente sfruttando i salari miseri e il bisogno di trovare ulteriori fonti di guadagno da incastrare nelle poche ore di tempo libero che rimangono. Un processo, questo, che è stato accelerato dalla pandemia e dalla crisi dovuta alla guerra.

La questione è: come affrontare l’intelligenza artificiale senza pensare che questa comporterà la fine dell’umanità, ma anche senza cedere alla falsa promessa del capitale di radicale libertà? Senza credere cioè che ci libererà dal lavoro? Come fare questo senza fermarci alla minaccia di fake news e attacchi al copyright e alla privacy? Ad oggi più tecnologia ha spesso il significato di più lavoro dequalificato, e questo lavoro dequalificato lo svolgono tendenzialmente donne e uomini migranti, rifugiati, poveri. Il fatto che il lavoro possa scomparire dall’oggi al domani, che i taskers siano costantemente sotto ricatto e possano rimetterci il salario guadagnato, la difficoltà di organizzarsi, tutto ciò mostra che il lavoro diventa migrante senza bisogno di muoversi: è il capitale a muoversi rapidamente dove può estrarre più profitti.

Occorre dunque non perdere di vista le differenti condizioni materiali di chi sta dietro alla suddetta tecnologia. Non possiamo permetterci di farci imboccare con soluzioni da chi gestisce l’IA e da chi ne trae profitto, pensando la tecnologia svincolata dalle sue condizioni materiali e politiche di produzione.

Nemmeno la Banca Mondiale fa segreto del fatto che l’automazione, nei fatti, è resa possibile da migliaia di lavoratori e lavoratrici, e già nel 2012 affermava che con milioni di task si può dare lavoro a migliaia di persone. Il defunto amministratore delegato di Samasource, vantandosi di salvare dalla povertà migliaia di persone, diceva candidamente che l’obiettivo primario per sostenere i paesi in via di sviluppo era quello di “dare lavoro”, non aiuti economici. Anche l’Organizzazione Internazionale del Lavoro (OIL) ha fatto discorsi simili affermando in uno studio del 2018 che nonostante le condizioni dei micro-lavori online siano tutt’altro che perfette, essi possono creare “nuove opportunità di guadagno per i lavoratori”.

Lavoratori da un lato isolati, ma che sono materialmente connessi dallo sfruttamento in cui si trovano e che sono consapevoli che il crowdworking non è l’opportunità rosea di guadagno che viene descritta. A maggio quasi un centinaio di lavoratori keniani, tramite il sindacato dei lavoratori digitali del Kenya, ha scritto una lettera al presidente Biden per denunciare pubblicamente il licenziamento di massa e il fatto di essere stati privati di quel salario seppur misero su cui facevano affidamento. Dicono chiaramente che sebbene abbiano bisogno di quel lavoro, non accetteranno più di farlo alle condizioni di sfruttamento cui erano costretti. Rifiutano quindi di fare da pilastro a quello sviluppo “sostenibile” del digitale fatto della costante riproduzione di povertà nei paesi ex coloniali dove sono concentrati i crowd-workers. Questa per ora è una goccia nell’oceano, ma significa che i taskers possono e riescono a mobilitarsi. Non di sola automazione vive il capitale.

Laura Montanari

https://www.connessioniprecarie.org/

0 commenti

Lascia un Commento

Vuoi partecipare alla discussione?
Sentitevi liberi di contribuire!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *