L’intelligenza artificiale, successi folgoranti e limiti vertiginosi
Tra potenziali applicazioni e zone d’ombra, l’AI è già considerata un vicolo cieco da uno dei suoi creatori [Dan Israel e Martine Orange]
Il 30 novembre 2022 è stata una di quelle date che hanno stravolto il rapporto del grande pubblico con la rivoluzione digitale. Quel giorno, OpenAI ha reso disponibile a tutti il suo chatbot ChatGPT. Nel giro di pochi mesi, questo chatbot è diventato il simbolo del successo dell’IA generativa, che sta diventando una parte sempre più importante della nostra vita. Insieme ai suoi rivali Llama, Gemini, Claude e al nuovo arrivato cinese DeepSeek, ChatGPT sta segnando il passo per una trasformazione esplosiva del nostro rapporto con le macchine.
Come funziona questa tecnologia, le cui basi teoriche sono state gettate alla fine degli anni Cinquanta? Perché produce errori incomprimibili, tanto da indurre l’inventore della sua forma moderna a considerarla già un vicolo cieco? Quali sono le sue promesse e i suoi pericoli? Un tentativo di esplorare le viscere della macchina.
Strumenti diventati onnipresenti
In pochi anni, i programmi di intelligenza artificiale generativa, capaci di simulare linguaggio, suoni e immagini, sono diventati parte integrante della nostra vita digitale. Hanno invaso telefoni e computer per un’ampia gamma di usi: ricerca e organizzazione di informazioni, scrittura o riassunto, aiuto nei compiti, assistenza amministrativa in senso lato, ma anche la trascrizione di documenti audio, la traduzione al volo, la generazione automatica di sottotitoli, la creazione di musica di alta qualità, la clonazione della voce, ecc.
Morgan Blangeois, dottorando presso l’Università di Clermont-Auvergne, che sta preparando una tesi sugli sconvolgimenti causati dall’IA generativa nel settore dei servizi digitali, commenta: “In cinque o sei anni, abbiamo fatto progressi davvero impressionanti. In termini di traduzione, la macchina è ora in grado di risolvere facilmente il classico esempio della parola ‘bank’, che in inglese può significare, a seconda del contesto, ‘banca’ o ‘riva’ di un fiume” – così come non è più confusa sui vari significati della parola ‘avvocato’.
Un caso d’uso è ormai consolidato: si tratta dell’assistenza alla codifica, con lo strumento GitHub Copilot”, spiega il giovane ricercatore. Integra le azioni dello sviluppatore, eseguendo il debug e consentendogli di produrre codice molto più rapidamente. È già arrivato al punto che uno sviluppatore mi ha confidato che stava cercando di sbarazzarsi dello strumento.
Se sappiamo padroneggiare gli strumenti dell’IA, in alcuni settori sono già più potenti degli esseri umani”, sottolinea Laurence Devillers, professore alla Sorbonne-Université/CNRS, ricercatore in intelligenza artificiale e specialista in questioni etiche in questo campo. Se sottoponiamo milioni di immagini radiologiche a un’intelligenza artificiale predittiva, la macchina sarà in grado di interpretarle e di cercare segnali deboli per individuare patologie che potrebbero sfuggire a un radiologo”.
In ogni campo scientifico, le applicazioni potenziali sono immense. Non per niente il Premio Nobel 2024 per la Chimica è stato appena assegnato a due ricercatori di Google DeepMind, John Jumper e Demis Hassabis, per lo sviluppo del loro strumento AlphaFold, che dal 2020 è in grado di prevedere la struttura delle proteine. Pochi mesi fa, uno strumento di intelligenza artificiale è stato utilizzato anche per decifrare parte di un papiro completamente carbonizzato durante l’eruzione del Vesuvio del 79 d.C., a Ercolano, vicino a Pompei.
Le applicazioni sono ormai innumerevoli in ogni campo. E i lavoratori sono molto preoccupati di essere sostituiti. Il collettivo di traduttori En chair et en os, ad esempio, descrive un mondo professionale in cui l’arrivo in massa di questi nuovi strumenti sta già causando gravi danni.
Basi scientifiche gettate oltre sessantacinque anni fa
Tenere in tasca un robot conversatore che parla perfettamente il francese (ma anche l’inglese, il tedesco, il giapponese…) è ormai cosa comune, ma è il frutto di una marcia molto lunga. ChatGPT e i suoi rivali dell’IA generativa sono il culmine del sistema LLM (large language models), che genera una frase in base alla massima probabilità statistica che una data parola segua un’altra (il blu seguirà probabilmente “il cielo è…”).
Alimentati da quantità colossali di dati (recuperati senza preoccuparsi troppo dei diritti degli autori originali), i chabtbot ottengono ottimi risultati nell’imitazione del linguaggio quotidiano e nella simulazione di ragionamenti o sintesi. Ma tutto questo non funzionerebbe senza le reti neurali artificiali che sono alla base di questo modello.
La prima rete neurale è stata inventata nel… 1958. I concetti di base erano già presenti molto presto”, sorride Jean-Gabriel Ganascia, professore presso la Facoltà di Scienze della Sorbona-Università, informatico e specialista di intelligenza artificiale. L’apprendimento per rinforzo, alla base dei metodi utilizzati ancora oggi, è stato sviluppato già nel 1959, mentre l’apprendimento delle reti neurali risale al 1986 e ha fatto guadagnare a Geoffrey Hinton il Premio Nobel 2024. Ma era tutto un po’ lento: i computer poco potenti non producevano risultati convincenti e la ricerca in questo campo si è fermata”.
La rinascita di questi metodi, che non sarebbe avvenuta senza l’esplosione della potenza dei computer e il crollo del loro costo, si deve a un ricercatore francese, Yann Le Cun, oggi vicepresidente di Meta, che ne guida la strategia di IA e continua a fare ricerca.
A partire dal 2010, insieme ai colleghi Geoffrey Hinton e Yoshua Bengio, ha riportato in auge il “deep learning”, un metodo di cui era stato pioniere negli anni ’70, dimostrando che ora produce risultati eccellenti. L’intero settore dell’IA lo ha seguito dal 2012-2013. Nel 2014 è diventata possibile la generazione di immagini. Nel 2016, il software Alphago (sviluppato dalla stessa azienda di AlphaFold) ha battuto il sudcoreano Lee Sedol, un leggendario giocatore di Go.
Nel 2017 Google ha inventato il modello “Transformer” (la “T” di ChatGPT), che semplifica radicalmente le tecniche computazionali necessarie per imitare il linguaggio umano. L’anno successivo, Google ha proposto Bert, il primo LLM efficiente, e Le Cun, Hinton e Bengio hanno ricevuto il Premio Turing, il più alto riconoscimento in ambito informatico.
Una macchina senza opinione né coscienza
Nel 2023, il premio Nobel Geoffrey Hinton si è dimesso dalla sua posizione in Google per poter trasmettere più liberamente i suoi timori sull’IA, di cui ha contribuito a creare la sua forma attuale. In un’intervista al New York Times, ha espresso la sua preoccupazione per la valanga di pubblicità e di immagini falsificate che, secondo le sue previsioni, travolgerà il mondo.
In un’altra intervista, in occasione della cerimonia di premiazione, ha descritto un mondo in cui la distruzione di posti di lavoro sarebbe inevitabile di fronte a macchine capaci di tradurre, creare e parlare come gli esseri umani. Soprattutto, ha espresso la sua angoscia per “queste cose” che potrebbero “andare fuori controllo e prendere il sopravvento” sulla civiltà, esortandoci a “scoprire se c’è un modo per affrontare questa minaccia”.
Questa minaccia, regolarmente descritta dalle stesse persone che contribuiscono allo sviluppo dell’IA, è onnipresente anche nella retorica dei grandi capi della Silicon Valley, che coltivano il sogno transumanista di un essere umano “aumentato” da una macchina.
Sono tutti in attesa dell’emergere dell’“IA forte”, cioè dell’avvento di una macchina dotata di coscienza, preludio che porterebbe inevitabilmente al “general AI” e alla “singolarità tecnologica”: il momento in cui l’intelligenza delle macchine supererà quella degli esseri umani, precipitando la caduta della civiltà umana.
Tutti i principali attori del settore tecnologico brandiscono questo scenario ambivalente, a metà tra il fervore millenaristico e la paura dell’apocalisse digitale. E alcuni credono di poterlo prevedere: nel 2022, Blake Lemoine, un ingegnere di Google, è diventato famoso per aver creduto che, conversando con un robot fatto in casa, stesse parlando con un’entità intelligente, cosciente e sensibile.
Tuttavia, oggi non c’è nulla a sostegno di questa opzione. “Per avere una macchina cosciente, deve essere in grado di esprimere emozioni e desideri. Siamo molto lontani da questo. La tecnologia e la scienza attuali non lo consentono affatto”, afferma Jean-Gabriel Ganascia, che ama paragonare i principali modelli linguistici a ‘robot parlanti’. Macchine statistiche splendidamente camuffate.
“Per quanto riguarda la questione del superamento dell’intelligenza umana, ciò richiederebbe che la macchina accumuli facoltà mentali che sappiamo solo simulare e che non abbiamo idea di come accumulare. Questa idea è infondata”, ci assicura.
Laurence Devillers concorda: “Stiamo proiettando su questa macchina capacità e conoscenze che non possiede. Non fa altro che mettere in fila una serie di parole seguendo i nostri suggerimenti e le nostre intenzioni, senza alcuna intenzione o opinione propria.
Errori inevitabili, pregiudizi pericolosi
È il “padre” dell’IA moderna ad avere le cose peggiori da dire su di essa. Già nel 2023, Yann Le Cun si esprimeva così sull’intelligenza artificiale generativa: “Nessuno può garantire che ciò che esce dalla macchina sia reale, non tossico e comprensibile”.
Il ricercatore e vicepresidente di Meta ritiene che il modello tecnologico LLM sia un vicolo cieco ed esorta i colleghi a cercare altre strade. Lui stesso ha lavorato a un altro modello negli ultimi due anni e prevede che ci vorranno ancora alcuni lunghissimi anni per realizzarlo.
Perché tutti lo sanno, anche se quasi nessuno lo dice chiaramente: l’intelligenza artificiale generativa, che mette in fila le parole statisticamente più probabili, commette errori, a volte molti errori. Chiedere ai robot disponibili all’inizio di febbraio 2025 chi è il primo ministro francese, ad esempio, significa sentirsi dire che è Élisabeth Borne (ChatGPT e DeepSeek) o Gabriel Attal (Claude). E a volte, quando non lo sa, si inventa qualcosa. Sono le famose “allucinazioni”, un termine promosso dai giganti della tecnologia per umanizzare le loro creazioni e rendere accettabili i loro deragliamenti.
Secondo la società di sicurezza NewsGuard, che sottopone questi strumenti a test rigorosi, a dicembre il tasso medio di fallimento dei primi dieci chatbot è stato del 62% (errori o mancate risposte). Il tasso di DeepSeek, un mese dopo, era dell’83% e in tre casi su dieci il nuovo bot “trasmetteva la posizione del governo cinese senza che gli fosse chiesto nulla sulla Cina”.
Gli errori delle macchine spesso vanno alla deriva verso pregiudizi razzisti o sessisti. Come ha riassunto il giornalista tecnocritico Thibault Prévost per Mediapart, “più ci si allontana dalla mediana, più sarà difficile per il modello prevedere e modellare il mondo”. Il problema è che “la mediana politica del mondo corrisponde alla borghesia, alla bianchezza e al genere maschile”.
In un articolo pubblicato su Le Monde, un gruppo di ONG, tra cui Amnesty International e la Ligue des droits de l’homme, ha denunciato l’IA che “perpetua gli stereotipi, rafforza le disuguaglianze sociali e limita l’accesso alle risorse e alle opportunità” per “le popolazioni più vulnerabili e discriminate”. Ci sono già molti esempi in tal senso.
L’estate scorsa, il relatore speciale dell’Alto commissario delle Nazioni Unite per i diritti umani sulle forme contemporanee di razzismo ci ha ricordato che l’IA generativa non è né neutrale né oggettiva, citando come esempio i pericoli della “polizia predittiva”, che “è una buona illustrazione di come il pregiudizio razziale sia riprodotto dai progressi tecnologici”.
Uno studio americano ha mostrato come gli attuali modelli di intelligenza artificiale valutino negativamente l’intelligenza e l’occupabilità dei neri americani in base al loro modo di parlare. Un altro, condotto presso la Stanford School of Medicine in California, ha rivelato che i pregiudizi razzisti che essi veicolano potrebbero portare a una minore assistenza medica per le persone che soffrono di questi stereotipi. L’Unesco ha anche messo in guardia dagli stereotipi sessisti e omofobi della maggior parte dei LLM.
La non trasparenza come modello
Il principale utilizzo dell’IA generativa da parte dei consumatori, ChatGPT, non corrisponde al nome della società statunitense che lo ha creato, OpenAI: è tutt’altro che aperto. “Il sistema ChatGPT è addestrato su miliardi di dati che non conosciamo, ed è impostato in un modo che nessuno capisce con certezza”, afferma la ricercatrice Laurence Devillers.
L’autrice sottolinea la scarsa comprensione da parte del pubblico dei concetti e dei parametri che fanno funzionare i chatbot. Chi è a conoscenza della variabile “temperatura”, utilizzata per simulare la conversazione umana aggiungendo un elemento di creatività e casualità alle risposte? “Se si pone la stessa domanda più volte, non si otterrà la stessa risposta, e quindi non sempre la risposta più accurata se la “temperatura” è attivata”, spiega.
Laurence Devillers sottolinea anche la questione delle fonti: “Quando creo un modello a partire da miliardi di dati, sto creando un puzzle di cui non si trovano più le parti costitutive, a meno che non lo interroghi su un argomento di nicchia: in questo caso, si può trovare un testo e si può parlare di plagio”.
Al contrario, saluta “DeepSeek-R1, il sistema cinese che ha superato ChatGPT 4o1 [l’ultimo modello del robot americano – n.d.t.], e che dimostra che la strada più promettente è quella dell’open source e della collaborazione nella ricerca per padroneggiare meglio i sistemi”. I modelli di Meta sono anche accessibili.
Per il dottorando Morgan Blangeois, è urgente aprire la scatola nera: “OpenAI ha una grande responsabilità educativa nei confronti dei suoi utenti, che spera siano un miliardo quest’anno! Per lui, “c’è un’enorme sfida educativa nel formare e informare il pubblico, in modo che sappia come usare lo strumento, ma anche comprenderlo”.
Domanda insaziabile di energia
Questa è la domanda che il settore si pone, ma che rimane accuratamente nascosta: sarà in grado di trovare risorse energetiche sufficienti per soddisfare le sue esigenze? Secondo l’ultimo rapporto dell’Agenzia Internazionale dell’Energia, il consumo totale di elettricità legato allo sviluppo dell’intelligenza artificiale, a partire dall’energia necessaria per i data center, è destinato ad aumentare da 160 TWh nel 2022 a 560 TWh nel 2026 (un terawattora equivale a un miliardo di kilowattora). Solo negli Stati Uniti, il consumo dei data center è destinato a raddoppiare nei prossimi cinque anni.
In pochi anni, le aziende del settore hanno investito più nell’intelligenza artificiale che nel petrolio e nel gas, e promettono di spendere ancora di più. Secondo il Financial Times, la cifra è di 300 miliardi di dollari solo per il 2025.
In Texas e in California, questo tipo di impianti rappresenta già più del 10% del consumo totale. In Irlanda, dove i giganti del digitale hanno creato degli hub di data center per l’Europa, la percentuale è del 20%.
E più aumenta il consumo, più si evidenziano le vulnerabilità del sistema elettrico. Le risorse di produzione non sono già più sufficienti a soddisfare la domanda, e le popolazioni che vivono in prossimità dei centri di sviluppo dell’intelligenza artificiale subiscono interferenze e cali di tensione.
I giganti digitali sono “in corsa per il dominio del mondo”, spiega il presidente di Lancium, azienda specializzata nell’installazione di data center in Texas. La società di consulenza Gartner stima che il 40% dei data center esistenti potrebbe subire limitazioni operative a causa del limitato accesso all’energia.
Alcuni si sono quindi rivolti ai produttori di energia elettrica per acquisire partecipazioni in nuove capacità produttive. Google, ad esempio, ha recentemente firmato un accordo da 20 miliardi di dollari con TPG Rise climate per sviluppare siti di produzione di energia vicino ai suoi centri. Altri stanno cercando di creare centri di stoccaggio dell’energia.
Alcuni giganti del digitale stanno addirittura pensando di costruire mini-reattori nucleari – che ancora non esistono – accanto ai loro principali centri di ricerca e sviluppo.
In fretta e furia, alcuni fornitori hanno deciso di riaprire le centrali a carbone per produrre l’elettricità di cui hanno bisogno. A settembre, Microsoft ha firmato un accordo ventennale con il gruppo Constellation Energy per riavviare la centrale nucleare di Three Mile Island. Mentre uno dei reattori è stato spento nel 1979 dopo il primo grave incidente nucleare civile al mondo, il secondo è stato chiuso nel 2019.
Sulla scia di ciò, Constellation Energy, convinta che lo sviluppo dell’IA consentirà di rilanciare l’energia nucleare, ha rilevato la rivale Calpine per poco più di 26 miliardi di dollari. Alcuni giganti digitali stanno addirittura progettando di costruire mini-reattori nucleari – che ancora non esistono – accanto ai loro principali centri di ricerca e sviluppo.
Se fino a poco tempo fa si presentavano come paladini della lotta al cambiamento climatico e della transizione ecologica, ora hanno seppellito i loro buoni propositi: le loro installazioni di energia rinnovabile – spesso parchi solari – non saranno, per loro stessa ammissione, sufficienti a soddisfare le loro esigenze. Allo stesso modo, non si sottolineano più i guadagni in termini di efficienza e prestazioni apportati dall’IA nella gestione delle reti elettriche: è improbabile che i progressi compiuti siano all’altezza dell’aumento della domanda.
L’umano nascosto nella macchina
Non visibili e invisibili. Dietro ai LLM e ai successi dell’IA generativa, ci sono tante “manine”, essenziali per il trionfo dei robot. È quanto va ripetendo da quasi dieci anni Antonio Casilli, professore di sociologia presso Télécom Paris, che nel 2019 scriverà il libro fondamentale En attendant les robots. Enquête sur le travail du clic (Le Seuil). In esso, ha stabilito che quando si parla di IA, ci sono molti difetti nel processo di innovazione, che devono essere costantemente compensati da un ricorso intensivo al lavoro umano, che viene reso precario e delocalizzato dove la manodopera è a buon mercato.
Il primo passo è l’addestramento – la “P” di ChatGPT sta per “pre-addestrato” – e la fornitura alle macchine di dati utilizzabili. La materia prima dei robot è un “mix di apprendisti francesi e lavoratori precari malgasci”, cita Antonio Casilli nel suo libro, e continua a dimostrarlo nel suo lavoro.
Mediapart ha documentato come molte aziende francofone subappaltino al Madagascar i compiti ripetitivi necessari a rendere “intelligenti” i loro robot, per migliorare la traduzione, la sottotitolazione automatica o automatizzare la percezione di una informazione da parte di un computer.
È stato inoltre scoperto che, prima che ChatGPT venisse utilizzato con tanto clamore, ai kenioti, pagati tra 1,3 e 2 dollari al giorno, veniva affidato il compito, in condizioni di lavoro apocalittiche, di individuare i contenuti “tossici” sul Web, obbligati a sorbirsi i testi e le immagini peggiori della Rete per risparmiarli al client OpenAI.
Uomini e donne devono anche assistere, correggere e persino sostituire il robot. Quando Amazon ha abbandonato il concetto di negozio senza casse, in cui solo le telecamere avrebbero dovuto vedere ciò che i consumatori portavano con sé, l’inganno è stato svelato: per meno di 200 negozi sono stati necessari mille lavoratori indiani per garantire l’affidabilità del sistema.
Il New York Times ha ben documentato il modo in cui le auto autonome richiedono la supervisione umana a distanza, stimando che si tratti di 1,5 persone per veicolo autonomo. E questa situazione è destinata a continuare, afferma Jean-Gabriel Ganascia: “Non credo che saremo in grado di realizzare un’auto veramente autonoma al di fuori di un’autostrada o di una città americana con un layout molto semplice e senza pedoni. Per una città europea piena di pedoni, non credo proprio. Ci sono troppi imprevisti”.
9/2/2025 https://www.popoffquotidiano.it/
Lascia un Commento
Vuoi partecipare alla discussione?Sentitevi liberi di contribuire!