L’intelligenza artificiale: l’innovazione del dispositivo di dominio capitalista. Un pericolo incombente sulla nostra società

di Turi Palidda

La storia dei dispositivi che memorizzano i saperi umani al fine di sviluppare le conoscenze e le applicazioni o anche storia dell’informatica è particolarmente affascinante innanzitutto perché risale alla più lontana antichità (si veda la pagina di Wikipedia in questo caso abbastanza utile.

Nell’accezione banale è la storia del progresso che però va solo parzialmente a beneficio della maggioranza dell’umanità. Come infatti suggerisce in particolare Michel Foucault, la questione cruciale riguarda sempre il rapporto fra potere e sapere: il dominio si accaparra dei saperi per perpetuarsi, per accrescere le sue risorse di ogni sorta e ovviamente l’accumulazione della sua ricchezza.

Senza risalire ai tempi remoti, l’ultima grande rivoluzione in tutti i campi si innesca all’inizio degli anni ’70. Lo sviluppo delle cosiddette nuove tecnologie e in particolare dell’informatica e dei programmi via via più sofisticati permette quella che è stata chiamata la finanziarizzazione del capitalismo e da allora quella che Harvey chiama la controrivoluzione liberista.

Da allora si è avuta la sconvolgente automatizzazione informatizzata, il boom del ricorso agli algoritmi, la possibilità di produzioni senza manodopera umana, il boom delle comunicazioni, dei trasporti, la pervasività della profilazione (o schedatura) per interessi di marketing, di controlli dell’elettorato oltre che dei soliti controlli delle polizie. Grazie alla videosorveglianza intelligente s’è approdati alla mostruosa Società di sorveglianza: sette miliardi di sospetti (vedi documentario Arte qui).

Va da sé che il business connesso alle nuove tecnologie è diventato immenso perché appunto è pervasivo e quindi penetra tutto e tutti.

Tutti siamo infatti target dei social media, del marketing, dei controlli di polizia e dalla invisibile o subliminale veicolazione dei discorsi mainstream grazie ora alla diffusione di massa della IA (e questo produce la quasi generalizzazione del rimbambimento di massa che conduce una parte della popolazione a diventare babbei facilmente manipolabili appunto perché privi di ogni capacità critica. Con l’IA di fatto si pretende legittimare l’impostura.

E’ in particolare emblematico che non serve ad assicurare la protezione dei lavoratori super-sfruttati se non schiavizzati, spesso vittime di incidenti sul lavoro, né la protezione degli abitanti vittime di crimini ecologici e malattie dovute alle contaminazioni tossiche dell’aria, delle acque, degli alimenti, di tutti gli ambienti per mancanza di controlli e prevenzione (vedi indebolimento se non lo smantellamento degli ispettorati del lavoro, delle ASL ecc.). Si tratta infatti di quelle insicurezze ignorate dalle polizie e dalle autorità che invece sbraitano di false insicurezze e perseguitano chi si ribella al supersfruttamento o protestano contro i danno provocati dal dominio liberista (vedi Polizie, sicurezza e insicurezze e Resistenze ai disastri economici e ai crimini ecologici …).

Per fortuna ci sono ancora persone dotate di vera intelligenza quindi capacità critica e a Milano si può essere fieri di avere un gruppo all’avanguardia in questo campo: N.i.n.a. acronimo di “Né intelligente né artificiale” (https://www.nina.watch/). Riprendiamo qui di seguito il manifestoI 20 passi di N.i.n.a in cui questo gruppo spiega bene la critica di questa ossessiva AI (doc presentato e ripreso anche qui https://effimera.org/i-20-passi-di-nina-di-nina/).

I 20 passi di NINA

N.i.n.a. acronimo di “Né intelligente né artificiale”, dal titolo del libro di Kate Crawford, è un gruppo nato a Milano a gennaio 2024 con lo scopo di indagare quale sarà l’impatto dell’intelligenza artificiale su alcune aree tematiche come i mondi del lavoro, la sostenibilità ambientale, discriminazioni e disuguaglianze vecchie e nuove, la circolazione delle informazioni. E, naturalmente, quali nuove istanze politiche si possono agire in questo contesto.

Il gruppo ha una composizione variegata: ci sono studiose e studiosi delle culture digitali e dei media, ci sono persone che provengono dall’ambito accademico, ci sono lavoratrici e lavoratori di settori del lavoro immateriale, figure che in prima persona sono toccate da questa accelerazione dell’automazione.

I 20 passi di N.I.N.A. sono da intendersi come una sintesi di un percorso di avvicinamento e comprensione all’AI, percorso che vuole essere critico e non catastrofista, informato, attento e non ingenuamente ottimista, aperto al sapere che si produce nella relazione tra persone e posizionamenti diversi. Comprendere le trasformazioni in atto per alimentare il dibattito pubblico su questi temi (l’ultimo appuntamento del primo ciclo di N.I.N.A è stato il 18 giugno; sul sito sopra indicato si trovano le registrazioni, gli eventi programmati e ogni sorta di informazioni sulle attività del gruppo che si svolgono a Milano).

I 20 passi di NINA

Parte 1 – perimetro della discussione

  1. L’intelligenza artificiale non è un’innovazione emersa dal nulla, semmai un’accelerazione di un processo già in corso, l’ultimo capitolo di una storia, quella dell’automazione che comincia con il telaio Jacquard e la macchina analitica di Babbage (1837). Lo stesso termine AI è del 1956, e sono di poco successive le espressioni machine learning, deep learning e reti neurali. Non sono “strumenti”, utensili, non sono semplici protesi ma mondi, abiti che mediano relazioni. Sono epistemologie che diventano infrastruttura.
  2. L’intelligenza artificiale non è intelligente. Quello a cui assistiamo è un gioco di prestigio: un complicato modello statistico in cui un software sembra darci una risposta a una domanda, ma in realtà questa cosa non è vera: da Alan Turing in poi è stato chiarito come la macchina non può “capire” nel senso che intendiamo noi la comprensione. Non c’è capacità di discernimento, non c’è capacità di giudizio, solo complicati calcoli statistici, probabilistici e algoritmi.
  3. Tra le prime dieci imprese per capitalizzazione a livello globale, sette sono del settore digitale e un’ottava è Tesla (che produce auto & computer). Il digitale è, oggi, il principale motore di profitti e di accumulazione del capitale, come nel secolo scorso il principale motore erano le società del settore manifatturiero / automobilistico / fossile, soppiantate a inizio secolo dalle aziende della distribuzione (logistica).
  4. Quello che sta succedendo è che una manciata di aziende (sei americane e tre cinesi) hanno un oligopolio sostanziale di queste tecnologie, quello che alcuni chiamano tecno-feudalesimo. Queste aziende possono decidere e fare il bello e il cattivo tempo rispetto a questi processi accumulativi mentre ci raccontano dell’inevitabilità dello sviluppo tecnologico come lo vogliono loro. La cosa drammatica è che tutto questo si cala in un contesto dove attori sociali che avrebbero dovuto avere funzioni importanti come i giornalisti o i decisori politici sono estremamente impreparati rispetto a questo tipo di considerazioni.
  5. L’intelligenza artificiale generativa ha un elemento di differenza sostanziale rispetto alle altre innovazioni. La ruota, la macchina a vapore, la robotica hanno reso la nostra vita più semplice delegando alla tecnologia (e alla macchina poi) i compiti che ritenevamo più faticosi, per poterci dedicare ai compiti di tipo intellettuale qualitativamente più “alti”. Storicamente nella scala sociale erano i lavori più “bassi” a venire rimossi. L’intelligenza artificiale generativa invece pesca in mezzo, va a tagliare i lavori immateriali, cognitari che hanno un discreto livello di specializzazione e questa cosa non ha precedenti nella storia.
  6. Con l’avvento del capitalismo delle piattaforme, quello che negli anni 90 era il lavoro “creativo” ora viene messo a valore senza passare da un’organizzazione lavorativa: l’organizzazione del lavoro è stata sostituita dall’organizzazione delle piattaforme. La conseguenza di questo passaggio smentisce le teorie di Keynes in Prospettive economiche per i nostri nipoti, quando sosteneva che avremmo lavorato meno grazie al progresso: oggi si discute di fine del lavoro salariato e siamo nell’epoca del lavoro senza fine, qualsiasi atto della nostra vita mediato dalla tecnologia è un atto produttivo di valore e quasi sempre non remunerato. L’intelligenza artificiale contribuisce a un processo di omologazione in un contesto in cui qualunque attività cerebrale è soggetta a estrazione di valore.

Parte 2 – considerazioni politiche

  1. La tecnologia non è neutrale. Serve, dai tempi di Ned Ludd, per aumentare la produttività e abbassare i salari. La tecnologia ovviamente sortisce effetti positivi, infatti la critica non è sullo strumento in sé ma sulle finalità. Come diceva Keynes ci sarebbe la possibilità di lavorare quindici ore alla settimana, ma negli ultimi trent’anni le caratteristiche fondamentali del fordismo e del taylorismo, e cioè agganciare incrementi di produttività a incrementi di salari per garantire i consumi, non sta più funzionando. Sicuramente intelligenza artificiale e occupazione hanno delle correlazioni di breve periodo, ma la grande questione è collegare le innovazioni tecnologiche a un aumento dei redditi.
  2. Le nuove tecnologie, gli algoritmi di seconda generazione, l’AI generativa creano un’ibridazione tra l’elemento macchinico e quello umano, abbiamo un divenire umano della macchina e un divenire macchinico dell’uomo, una sorta di neo-taylorizzazione. Nella discussione sugli effetti occupazionali di queste tecnologie ci dimentichiamo spesso che queste tecnologie devono essere allenate, ovvero nutrite di dati per svolgere ogni compito. Possiamo dire provocatoriamente che la disoccupazione non esiste, la dicotomia vera è tra chi è occupato e percepisce un reddito e chi no.
  3. Come dice Kate Crawford nel suo saggio Né intelligenti, né artificiali, oggi il digitale e, nello specifico, l’intelligenza artificiale è uno strumento al servizio del potere economico: per i profitti prodotti, i dispositivi di sorveglianza sui lavoratori, la finanziarizzazione; e politico: per sorvegliare il dissenso, reprimere, chiudere le frontiere, fare la guerra.
  4. L’intelligenza artificiale non esiste separata dal mondo, bensì dipende interamente da un insieme molto ampio di strutture politiche e sociali. Non c’è nessuna intelligenza artificiale senza Big Tech. L’intelligenza artificiale non è una tecnica computazionale oggettiva, universale o neutrale. A causa del capitale necessario per istruire l’AI su larga scala e dei modi per ottimizzarla, i sistemi di AI sono in definitiva progettati per servire gli interessi dominanti.
  5. I sistemi di AI sono costruiti con le logiche del capitale, della polizia e della militarizzazione, e questa combinazione acuisce ulteriormente le asimmetrie di potere esistenti. Se applicati ai contesti sociali possono riprodurre e amplificare le disuguaglianze strutturalmente esistenti perché sono progettati per discriminare, amplificare le gerarchie e codificare classificazioni rigorose. L’intelligenza artificiale, quindi, è un’idea, un’infrastruttura, un’industria, è capitale altamente organizzato, una forma di esercizio di potere e un modo di vedere le cose. Per questo dobbiamo confrontarci con l’AI come forza politica, economica, culturale e scientifica.
  6. La AI ha bisogno di moltissima energia, moltissimi data center e moltissima acqua, portando all’estremo le conseguenze materiali del sistema digitale che già ci sono note. È impossibile separare la pressione sociale e ambientale che questo “estrattivismo” esercita sui lavoratori e sulle comunità da quella sugli ecosistemi. L’intelligenza artificiale va vista come un’industria estrattiva. Non si può parlare di AI senza parlare di big data, giganteschi set di dati pieni di conversazioni, selfie, bambini, testi, immagini, tutto per migliorare funzioni come il riconoscimento facciale, la predizione linguistica e il rilevamento di oggetti. In questo senso, l’intelligenza artificiale è un registro del potere.
  7. Spesso, si parla di transizioni gemelle per la transizione ecologica e digitale che si rafforzano a vicenda. Per molti aspetti è vero: la transizione ecologica, probabilmente, non potrà avvenire senza una contemporanea transizione digitale. Passare da un sistema energetico basato sulle fonti fossili a uno basato sulle fonti rinnovabili significa cambiare radicalmente approccio; significa passare da un sistema centralizzato che distribuisce energia prodotta da grandi centrali da mettere/tenere in funzione a seconda dell’andamento della domanda a un nuovo sistema basato su una distribuzione a livello locale della produzione di energia (intermittente); significa passare da un sistema dove produttore e consumatore sono soggetti diversi e separati a uno ibrido in cui anche i consumatori possono produrre parte dell’energia che consumano (dotandosi di pannelli e pale eoliche) contribuendo alla rete. Gestire tutto ciò, garantendo anche l’equilibrio della rete, non sarà possibile senza lo sviluppo del settore digitale e sistemi di machine learning applicati alla gestione dell’infrastruttura.

Parte 3 – rivendicazioni

  1. I pozzi sono avvelenati. L’intelligenza artificiale è addestrata su dati che sono tutt’altro che oggettivi e imparziali, perciò contiene dei bias o “pregiudizi” e, funzionando su vasta scala, sistematizza questi bias amplificando così gli errori umani su una portata globale. L’algoritmo dell’AI non è in sé prevenuto, ma eredita delle discriminazioni che già avvenivano negli algoritmi dei social network e non solo (basti pensare all’algoritmo Hummingbird e alla google bubble) che, volutamente, non sono stati corretti. L’intelligenza artificiale è avvelenata dalle discriminazioni presenti nei dati che la alimentano. Il data poisoning, che è un termine che appartiene alla sicurezza informatica, ben descrive la realtà attuale fatta di output discriminatori che sono figli diretti delle discriminazioni originarie con cui l’AI è stata alimentata. La politica classificatoria è una prassi fondamentale nell’intelligenza artificiale. Le pratiche di classificazione danno forma al modo in cui l’intelligenza artificiale viene riconosciuta e prodotta, dai laboratori universitari all’industria tecnologica.
  2. Abbiamo bisogno di provare a scardinare questo sistema di potere centralizzato senza buttare via i benefici che potremmo ottenere dall’accelerazione della tecnologia. Dobbiamo chiedere e pretendere l’open access e la trasparenza. Chiedere che queste macchine siano progettate per essere ispezionabili: dobbiamo sapere con quale codice sono scritte e come sono state programmate. Chiedere che sia disponibile e ispezionabile il dataset: queste macchine sono addestrate con la conoscenza umana e alla conoscenza umana devono appartenere. Chiedere che siano decodificati gli algoritmi e tutti i percorsi che la macchina sceglie per prendere decisioni. Abbiamo bisogno di sapere che cosa c’è dentro per evitare i pregiudizi che possono generare. Aprire la black box e con essa i segreti industriali che contiene e che gli enormi valori industriali vengano redistribuiti, abbiamo diritto alla nostra cedola come azionisti della cittadinanza egualitaria nel mondo.
  3. Dobbiamo chiedere che le macchine siano messe al servizio della collettività. Necessitiamo un approccio molto più radicale della battaglia molto umana, molto capitalistica, molto estrattiva, ma molto di retroguardia che è il tema del “proteggere le mie idee”. Le cause che sono state intentate, per esempio, dal New York Times e da altri soggetti che afferiscono al mondo intellettuale e culturale contro queste macchine sono rivolte prevalentemente ad ottenere una remunerazione per i loro materiali usati per addestrarle. È un modo per replicare i meccanismi del capitalismo estrattivo e non c’è alcuna pratica reale di attacco alle distorsioni di fondo del sistema. Dobbiamo rivendicare la trasparenza su quando vengono utilizzati i sistemi di intelligenza artificiale e che in una serie di ambiti le decisioni non siano automatiche ma mediate dall’essere umano.
  4. L’intelligenza artificiale nasce con una funzione che è principalmente coloniale ed estrattiva. Senza correttivi in termini di tutela dei diritti, di ribaltamento dei bias nei sistemi predittivi, avremo un meccanismo di de-responsabilizzazione che aumenterà le forme discriminatorie. L’industria dell’AI ha tradizionalmente inteso il problema del pregiudizio (bias) alla stregua di un bug da correggere anziché come una caratteristica insita nella classificazione stessa. L’attenzione per una maggiore «equità» dei set di addestramento attraverso l’eliminazione dei termini escludenti e discriminatori, e quindi razzisti, sessisti, abilisti ecc., elude le dinamiche di potere della classificazione e preclude una valutazione più approfondita delle logiche sottostanti.
  5. L’AI act annunciato trionfalmente dall’Unione Europea come grande novità rischia di avere a sua volta dei problemi: si sta cercando di normare qualcosa che è in grande evoluzione e che è molto mutevole. Ci preoccupiamo perché in Cina usano già il social scoring, ma le premesse per arrivare a qualcosa di simile si sta costruendo anche in Europa. L’Unione Europea sta tentando di regolamentare non la tecnologia (che va troppo veloce) ma gli usi definendo quelli proibiti, ad alto rischio e a basso rischio. È una visione accorta del problema tecnologico, ma ha degli enormi limiti: riguarda solamente l’Unione Europea; mentre queste macchine sono progettate e utilizzabili in tutto il mondo e, secondo molti, servirebbe una governance globale per decidere quali regole adottare. Il secondo limite dei regolamenti dell’Unione Europea è che, applicandosi ai nostri confini, stanno già generando cittadini di serie A e cittadini di serie B.
  6. Un approccio femminista ai dati è necessario per mettere in evidenza le diseguaglianze e le asimmetrie di potere nelle rappresentazioni, anche negli output, perché è anche da questi dati che poi conseguono tutta una serie di discriminazioni. Discutiamo di equità perché sentiamo che ci sia un gap da colmare. Viviamo in un mondo fortemente diseguale, iniquo, ingiusto e non possiamo aspettarci che il dato che alimenta l’intelligenza artificiale sia il massimo della virtù morale. Come dice Audre Lorde “gli strumenti del padrone non smantelleranno mai la casa del padrone”. L’importanza del dato va messa in relazione e compensata con saperi altri che non sono quantificabili come le capacità emotive e relazionali. Uno schema valoriale profondamente umano e non computazionabile.
  7. Esistono politiche collettive sostenibili distinte dall’estrazione di valore; ci sono beni comuni che vale la pena mantenere, mondi al di là del mercato e modi per vivere al di là della discriminazione e delle pratiche di ottimizzazione brutali. Se AI e algoritmi sono parte della vita allora è essenziale un’etica che si applichi all’Ai e agli algoritmi e che possa pensare in modo diverso il valore del vivente e del non vivente.

https://unige-it.academia.edu/SalvatorePalidda/CurriculumVitae
N.i.n.a. Maggio 2024 Milano, Italia, Europa, Pianeta Terra

2/7/2024 https://www.arcipelagomilano.org/archives/63642

0 commenti

Lascia un Commento

Vuoi partecipare alla discussione?
Sentitevi liberi di contribuire!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *