La legge europea sull’Intelligenza Artificiale: cosa va alle imprese e cosa ai lavoratori
Il 13 marzo 2024 è stato approvato l’Artificial Intelligence Act, la prima norma al mondo che fornisce una base giuridica complessiva sulle attività di produzione, sfruttamento e utilizzo dell’Intelligenza Artificiale.
Il voto definitivo, espresso dal Parlamento Europeo, ha visto 523 sì, 46 no e 49 astenuti, chiarendo così che il consenso è stato trasversale agli schieramenti politici (la proposta di Regolamento è stata addirittura presentata da Brando Benifei del PD, assieme a un altro politico di centro della Romania). Voti contrari sono stati espressi su diversi emendamenti, soprattutto da parte della sinistra, e in generale dal Partito Pirata. Per preparare la norma ci sono voluti alcuni anni (consentendo nel frattempo l’utilizzo incontrollato dual use1 della Intelligenza Artificiale), durante i quali sono stati chiesti pareri consultivi a centinaia di aziende, intellettuali, diversi sindacati e associazioni non governative e via dicendo, ma in vista della consultazione finale i relatori hanno scelto di interpellare esclusivamente le seguenti imprese: BEUC; ETF; Google; Amazon; Airbus; Hitachi; DG MOVE; DG Connect; EASA; AMCHAM; ACEA; CLEPA; Ericsson. Ciò è probabilmente indicativo della reale preoccupazione dei governanti europei, del resto espressa in maniera esplicita fin dalla promulgazione del testo base dell’AI Act, redatto nel 2021, in cui viene esplicitato «l’obiettivo generale della presente proposta, ossia quello [– lo citiamo testualmente –] di assicurare il buon funzionamento del mercato unico [grassetto originale] creando le condizioni per lo sviluppo e l’utilizzo di un’IA affidabile nell’Unione»2.
Perché l’Europa è la prima a regolamentare l’Intelligenza Artificiale?
La preoccupazione del legislatore europeo nasce dal fatto che l’enorme sviluppo dell’IA – in grado oramai di sviluppare dispositivi per il riconoscimento delle emozioni personali, per la previsione dei comportamenti (anche dei reati), per la creazione di immagini, audio e video falsi di qualunque persona, per la manipolazione dell’intelligenza umana tramite ChatBot –, in un mercato totalmente liberalizzato come quello comunitario, potrebbe condurre a problematiche sociali, politiche e culturali difficilmente gestibili, minando fra l’altro la credibilità delle nuove tecnologie e sabotandone il mercato interno. Oltre all’orientamento iper-liberista degli organismi economici europei citiamo un’altra fra le principali ragioni per le quali l’IA sia stata normata in anticipo sugli altri grandi attori globali, come USA o Cina: la frammentazione politica ed economica che esiste fra i vari Stati che compongono l’UE. Dal punto di vista politico vi è la necessità di coordinare le legislazioni nazionali ed evitare i conflitti, mentre da quello economico l’obiettivo è arrivare a tutti i costi a un mercato unico e armonizzato.
Certamente, però, i ritardi di sviluppo nelle filiere del digitale e dei semiconduttori costituiscono la motivazione fondamentale: gli IPCEI (Importanti Progetti Comuni di Interesse Europeo) sulla microelettronica e sul cloud, assieme ai vari PNRR nazionali, servono a colmare il gap con le altre potenze mondiali, nel tentativo (probabilmente vano) di stimolare a sufficienza le suddette filiere. Tuttavia queste politiche comunitarie sortiranno degli effetti e, dal momento che incidono su due delle filiere fondamentali per lo sviluppo dell’IA, ne provocheranno una crescita molto rapida, per non dire impetuosa. Proprio per questo si vuole impedire che tale crescita3 avvenga in maniera disordinata e deregolamentata.
L’AI Act, dunque, non è altro che il tentativo di porre dei “paletti” a una strategia di sviluppo basata sul sostegno pubblico agli investimenti privati, anziché su piani di sviluppo industriale (Cina) o su una stretta interdipendenza tra investimenti privati e controllo pubblico, tra apparato statale e top management (USA). La strategia di sviluppo europea, ferreamente iperliberista, ha bisogno di stabilire preventivamente dei parametri, delle cornici per la libera evoluzione del settore economico dell’IA: per questo motivo “siamo i primi”.
Quanto abbiamo detto si sostanzia in due dei quattro obiettivi specifici promulgati dall’Atto: «assicurare la certezza del diritto per facilitare gli investimenti e l’innovazione nell’intelligenza artificiale; (…) facilitare lo sviluppo di un mercato unico per applicazioni di IA lecite, sicure e affidabili nonché prevenire la frammentazione del mercato»4, 5 . In riferimento al secondo punto è importante sottolineare come, nella visione del legislatore europeo, eventuali approcci nazionali diversificati (legislazioni nazionali divergenti fra loro) «creerebbero soltanto incertezza e ostacoli ulteriori e rallenterebbero l’adozione dell’IA da parte del mercato»6. In sostanza ai singoli paesi rimane la possibilità di legiferare su «l’organizzazione interna del sistema di vigilanza del mercato e l’adozione di misure destinate a promuovere l’innovazione»7, oltreché il dovere di «designare autorità di controllo incaricate di attuare i requisiti legislativi»8.
Cosa viene concesso alle imprese?
In questi giorni, immediatamente successivi alla promulgazione dell’Atto, si è fatto un gran parlare di tutto ciò che viene garantito alla popolazione: sono vietati la manipolazione cognitiva e il riconoscimento delle emozioni sul luogo di lavoro, in una certa misura viene rispettata la privacy, si assicurano la tracciabilità dei dati, la presunzione di innocenza e il diritto alla difesa in caso di controversie legali, e via dicendo. Tutte cose che avrebbero dovuto essere già scontate. Si è parlato meno, invece, di ciò che viene concesso alle imprese: è proprio questo il senso del nostro intervento.
La prima cosa da sapere è che le applicazioni dei sistemi di IA vengono classificate in base a una stima del rischio che comportano «per la salute e la sicurezza o per i diritti fondamentali delle persone»9. L’identificazione e la categorizzazione biometrica delle persone fisiche, ad esempio, rientrano fra le applicazioni ad alto rischio (eppure non manca chi ne invoca l’utilizzo per la sicurezza nazionale).
Cosa implica una “definizione di alto rischio”? La Commissione Europea aveva posto sul tavolo quattro opzioni che, dalla prima alla quarta, prevedevano una regolamentazione crescente per le imprese del settore. Alla fine l’opzione scelta è stata la terza, quella che stabilisce «un quadro normativo soltanto per i sistemi di IA ad alto rischio, con la possibilità per tutti i fornitori di sistemi di IA non ad alto rischio di seguire un codice di condotta (…) su base volontaria [grassetto nostro]»10. Tale normativa obbliga le imprese interessate a rispettare parametri su «[la produzione dei] dati, la documentazione e la tracciabilità, la fornitura di informazioni e la trasparenza, la sorveglianza umana nonché la robustezza e la precisione»11. La conformità delle aziende a questi parametri andrà certificata e comporterà dei costi (cd. “costi di conformità”), per la verità piuttosto ingenti12, ragion per cui la Commissione predisporrà aiuti ad hoc per le PMI e una politica di calmieramento delle tariffe.
Per lo stesso motivo verranno previsti spazi di «sperimentazione normativa». Questa sperimentazione potrà prevedere – e se così fosse sarebbe grave – la «combinazione di un’autovalutazione ex-ante del rischio e un’applicazione ex post per i sistemi di IA ad alto rischio»13. Cosa significa? Ricordiamo anzitutto che non sono le tecnologie in sé a essere classificate in base al rischio, ma la loro applicazione14, e che il grosso della produzione hi-tech artificialmente intelligente consiste in componenti di prodotti più complessi che arrivano sul mercato già “montati”. È chiaro allora che l’idea di combinare l’auto-valutazione preventiva condotta dalla stessa impresa produttrice con una semplice verifica a posteriori delle modalità di utilizzo del prodotto consenta alle aziende di cercare scappatoie legali e sfruttare eventuali spazi di deregolamentazione normativa per non incorrere nei costi di conformità, nonché agli utilizzatori finali (non solo privati cittadini ma, a loro volta, altre aziende, enti, organizzazioni) di sfruttare più liberamente la tecnologia acquistata.
Come scritto all’interno del documento, nella sezione sul dibattito consultivo che ha preparato la stesura del testo-base del 2021, una preoccupazione particolarmente sentita è stata quella di garantire che i parametri e i limiti legali dell’AI Act non comportassero l’abbandono di un approccio “tecnologicamente neutro”15 all’Intelligenza Artificiale, ossia che non determinassero uno svantaggio competitivo per alcune tecnologie (quelle considerate ad alto rischio) rispetto ad altre. Questa è l’ennesima ragione della vacuità e della generalità del provvedimento.
Un’altra problematica riguarda poi l’utilizzo dell’IA nel settore creditizio (banche, ecc.). Le autorità competenti per la verifica della fascia di rischio dei sistemi IA utilizzati o anche solo forniti (!) dagli enti creditizi sono state individuate, sostanzialmente, nell’Autorità Bancaria Europea (in base alla Dir. 2013/36/UE) e nella BCE16. Si fa tutto in famiglia.
Cosa viene tolto ai lavoratori?
A parere del legislatore europeo l’AI Act inciderà «positivamente, secondo quanto applicabile in determinati settori, sui diritti di una serie di gruppi speciali, quali i diritti dei lavoratori a condizioni di lavoro giuste ed eque»17. Ciononostante, all’interno del documento il tema del lavoro viene trattato parzialmente e solo al fine di limitare i rischi dovuti all’applicazione dell’IA. Questo in virtù sia della natura regolativa e limitativa della norma che, però, del fatto che non vi sia alcuna intenzione di orientare il comportamento delle aziende a un utilizzo benefico e vantaggioso delle nuove tecnologie per il grosso dei lavoratori dipendenti.
Fra le tecnologie di IA considerate ad alto rischio incontriamo quelle deputate a selezionare le candidature per le posizioni lavorative aperte, a monitorare e valutare i dipendenti in servizio (dal punto di vista delle prestazioni e della condotta in azienda), a stabilire l’assegnazione di compiti, ruoli e mansioni e, infine, a determinare la possibilità del licenziamento18. Questo atteggiamento non è mutuato dalla necessità di tutelare il lavoratore sul posto di lavoro, quanto piuttosto dall’«impatto significativo [che l’applicazione delle nuove tecnologie potrebbe avere] sul futuro di tali persone in termini di future prospettive di carriera e sostentamento»19.
L’apposizione dell’etichetta di “rischio alto” all’utilizzo dell’IA per i fini appena descritti rappresenta un costo per le aziende, soprattutto per quelle di minori dimensioni. Vedremo nel corso dei prossimi anni quali saranno le relative norme applicative.
Dal punto di vista del lavoro dipendente, però, l’adeguamento delle imprese ai requisiti di conformità (sopra citati) non rappresenta una tutela efficace. L’utilizzo della tecnologia avanzata per la profilazione, il monitoraggio e la valutazione del lavoratore da parte di un’impresa a capitale privato che opera su mercato libero (ma sarebbe meglio dire soltanto: “in un contesto capitalistico”) comporta un’implementazione dell’organizzazione aziendale in grado di produrre:
- un’ulteriore diminuzione del supporto umano fra colleghi,
- l’aumento dell’alienazione e dell’individualizzazione del lavoro,
- la creazione di ambienti malsani e competitivi,
- un nuovo indebolimento dei confini tra vita privata e lavorativa,
- la compromissione delle logiche di rappresentanza sindacale (nei termini del rafforzamento di un clima di sfiducia e di mancata partecipazione),
- la perdita di un certo quantitativo di posti di lavoro (specie di quelli che richiedono minori specializzazione ed istruzione).
La diffusione dell’IA in azienda condurrà, inoltre, alla diffusione trasversale di nuove problematiche lavorative, di nuove contraddizioni tra lavoratore e azienda. Questo processo sarà (ed è già oggi) particolarmente evidente all’interno delle fasce lavorative di livello medio o basso, determinando con ciò la potenzialità di un processo ricompositivo della classe lavoratrice, che se avverrà sarebbe comunque probabilmente preceduto da una “fase di smarrimento”, in un certo senso analoga a quella avvenuta subito dopo la Rivoluzione Industriale.
Fra le categorie interessate citiamo quelle più numerose: gli operai di fabbrica, gli operai magazzinieri (facchini), drivers e riders (corrieri), gli operai dei servizi (ad esempio l’operatore del fast food), gli impiegati d’ufficio (dall’operatore del call center al dipendente aziendale medio). Per tutti costoro l’IA rappresenta un generale aumento dei ritmi di lavoro, l’aumento del controllo e un sensibile deterioramento del rapporto salute-lavoro, ossia della tutela della salute personale in azienda.
Al centro di tutto vi è la determinazione del tempo-ciclo dell’operazione, ossia del quantitativo esatto di tempo che il lavoratore deve impiegare per compiere l’operazione lavorativa. A nostro parere questo può essere calcolato in vari modi diversi, a volte combinati fra loro.
Citiamo i principali:
– raccolta dati. In uso principalmente nelle fabbriche, si basa sull’osservazione del tempo necessario per svolgere ogni singola azione del lavoro20, in condizioni ideali e senza tener conto della fatica e dell’usura fisica. L’obiettivo è quello di eliminare le azioni inutili (come ad esempio gli spostamenti del dipendente all’interno dell’azienda) e velocizzare il lavoro. Ciò ha conseguenze sia sui lavoratori che sull’organizzazione aziendale.
I lavoratori vanno incontro a:
- aumento del ritmo di lavoro;
- isolamento dai colleghi e controllo;
- sovra-utilizzo degli arti superiori e disturbi muscolo-scheletrici;
- aumento statistico di stress, depressioni, ansia e altre problematiche psicologiche.
Le conseguenze sull’organizzazione aziendale, invece, possono essere riassunte come segue:
- riorganizzazione dell’impianto e della postazione lavorativa;
- riduzione del numero di lavoratori necessari.
Oggi l’IA sta rendendo possibile utilizzare simulazioni digitali dei processi lavorativi di fabbrica e sta consentendo lo sviluppo di macchinari sempre più adatti, nello specifico, al particolare processo produttivo dell’azienda. Ciò consente nuove limature sui tempi (e quindi l’ennesimo aumento dei ritmi) e del numero di lavoratori necessari;
– parametri di produttività. Riguarda innanzitutto gli operai dei servizi e gli impiegati d’ufficio: possiamo parlare della preparazione di un panino di Mc Donald’s come dell’elaborazione di una determinata pratica d’ufficio, perché a entrambe le operazioni vengono assegnati quantitativi massimi di tempo abbastanza precisi. Anche in questo caso, perciò, l’imprenditore fa leva sull’imposizione di parametri di produttività che vanno rispettati. Mentre prima però i ritmi lavorativi erano il risultato diretto del calcolo del tempo necessario a compiere il lavoro e, limando sui tempi, si puntava a ridurre il numero dei dipendenti, ora l’applicazione di tali parametri ha una funzione diretta nella scelta della quantità di dipendenti da assumere ma indiretta nella determinazione dei loro ritmi di lavoro.
L’IA consente lo svolgimento del lavoro in tempi più brevi e l’aumento del controllo sul dipendente. Ciò comporta:
- la riduzione delle pause fra un’operazione lavorativa e l’altra;
- ritmi di lavoro serrati (grazie al monitoraggio continuo dei processi);
- la possibilità, per l’imprenditore, di scegliere il dipendente più adatto per questa o quella mansione, sulla base dei livelli di produttività personale monitorati. In questo modo nel fast food, ad esempio, c’è chi viene scelto per stare in cassa, chi per ricevere gli ordini, chi per confezionare il cibo, ecc.
Il generale aumento dei ritmi conduce alle stesse identiche problematiche cui aveva portato gli operai di linea e che abbiamo esemplificato per punti poco sopra, dall’aumento del controllo all’insorgere di problematiche muscolo-scheletriche agli arti superiori (per esempio per il troppo scrivere al computer degli impiegati d’ufficio).
– imposizione del carico/estensione dell’orario. Prendiamo come esempi i drivers e i riders, due categorie in cui il carico e l’orario giornaliero sono molto variabili. Nel loro caso il tempo ciclo coincide con l’orario di lavoro, in quanto grossomodo il “ciclo produttivo” altro non sarebbe che la consegna di tutti i pacchi ritirati. Il tempo ciclo viene quindi determinato dall’imposizione del carico di consegne giornaliero. A essere precisi, però, il tempo ciclo coinciderebbe col tempo di una singola consegna, perché è un concetto riferito al ciclo produttivo della merce e non al ciclo produttivo in generale: dovremmo allora parlare del tempo di consegna medio tenuto durante la giornata lavorativa. Questo è determinato dall’interazione di due variabili, carico e orario lavorativo, per cui siamo di fronte a un’ambivalenza. Se, infatti, nel caso dei drivers è più comune che l’orario sia fisso e il tempo medio di consegna vari, mentre per i riders (che generalmente lavorano a cottimo) è l’orario a estendersi più di frequente, allo stesso tempo i primi vivono comunque frequenti situazioni di lavoro oltre la fine dell’orario, mentre i secondi spesso auto-intensificano i ritmi per evitare di dover lavorare tutta la giornata.
Questa lunga premessa serve per arrivare al punto della questione, ossia: l’IA permette agli imprenditori di organizzare “rotte” di consegna per ogni singolo dipendente in base allo stile di guida del veicolo e alle prestazioni individuali, nonché di mandare dei corrieri che hanno già terminato le loro consegne in soccorso di altri che si trovano in difficoltà. Le possibilità applicative dell’IA sui veicoli sono immense: alcune aziende particolarmente performanti possono fornire utili casi di studio in tal senso, come ad esempio Autamarocchi21.
L’aumento dei ritmi e del controllo dovuto alle nuove tecnologie determinerà, anzi sta già determinando, le medesime problematiche viste per gli operai manifatturieri e quelli dei servizi, nonché per gli impiegati d’ufficio. L’unica differenza è che le parti del corpo che si deteriorano più rapidamente sono schiena e ginocchia, anziché gli arti superiori;
Dunque: l’inserimento dell’IA sul posto di lavoro porta all’aumento della velocità esecutiva delle mansioni, all’aumento dei carichi, alla diminuzione delle tempistiche, all’aumento del controllo aziendale e alla diffusione di problematiche psicologiche e fisiche. Per queste ultime si segnala una tendenza – che per la verità non abbiamo documentato adeguatamente – all’infortunio da usura in luogo del vecchio infortunio da trauma (tuttora comunque diffusissimo, fino alle morti sul lavoro). Tale tipo di infortunio è meno facilmente riconducibile all’attività lavorativa perché si sviluppa nel tempo (mesi, anni o anche decenni) e, pertanto, risulta meno identificabile dall’Inail.
Un AI Act democratico avrebbe dato indicazioni per prevedere perlomeno un coefficiente massimo di intensificazione del lavoro. L’identificazione delle fasce di rischio si mostra quindi del tutto inconsistente. D’altro canto si aprono potenziali spazi politici interessanti, per cogliere i quali c’è bisogno di organizzazioni sindacali di tipo nuovo, maggiormente flessibili, magari parzialmente modellate sui nuovi modelli aziendali.
Verso la società della sorveglianza?
Reputiamo prematuro addentrarci nel discorso. Pertanto, sempre riguardo all’AI Act, ci limitiamo a segnalare l’assenza completa di regolamentazione dell’IA in ambito militare. L’insufficiente definizione di “alto rischio” viene adoperata in relazione agli utilizzi delle tecnologie avanzate per le prestazioni del welfare, per il controllo delle frontiere, per l’amministrazione della giustizia e per la profilazione, il monitoraggio e la valutazione degli studenti. Molte delle future applicazioni dell’IA sono deducibili dalla lettura di alcuni documenti europei. Senza dilungarci ulteriormente, ai compagni interessati vogliamo segnalare il Pnrr tedesco, in particolare la Componente 2.1, «I dati come materia prima del futuro»22.
Note:
- Le tecnologie dual use sono quelle applicate allo stesso tempo sia in ambito civile che militare. ↩︎
- 2021/0106 (COD) (ITA), p. 10. ↩︎
- Stiamo parlando, complessivamente, di alcune migliaia di miliardi di € di valore aggiunto. Per dare un’idea dell’ordine di grandezza, il PIL italiano è sotto i 2000 miliardi. ↩︎
- 2021/0106 (COD) (ITA), p. 3. ↩︎
- Prenderemo a riferimento sempre e soltanto il testo della proposta originale, quello del 2021. Il testo appena approvato, infatti, non è ancora disponibile nel momento in cui scriviamo, se non sotto forma dell’elenco degli emendamenti al testo-base occorsi nel tempo, fra l’altro in lingua inglese (In questa forma è possibile prenderne visione al seguente link: https://drive.google.com/file/d/1xfN5T8VChK8fSh3wUiYtRVOKIi9oIcAF/view). Assicuriamo comunque che grosse modifiche non ce ne siano: il processo di consultazione con le parti interessate si è svolto precedentemente alla promulgazione del documento del 2021. ↩︎
- 2021/0106 (COD) (ITA), p. 7. ↩︎
- Ivi, p. 8. ↩︎
- Ivi, p. 13. ↩︎
- Ivi, pp. 3 e 4. ↩︎
- Ivi, pp. 10 e 11. Per i sistemi di IA «non ad alto rischio sono imposti soltanto obblighi di trasparenza molto limitati, ad esempio in termini di fornitura di informazioni per segnalare l’utilizzo di un sistema di IA nelle interazioni con esseri umani» (p. 7). ↩︎
- Ivi, p. 11. Per la definizione puntuale di tali parametri si veda l’Allegato IV al documento citato. ↩︎
- Sono stimati, considerando la fornitura di un sistema di IA di medio livello del valore di 170.000 € nel 2025, in 6-7000 € per il rispetto dei parametri, 5-8000 € aggiuntivi sul prezzo di vendita per i costi di sorveglianza umana del sistema, ulteriori 3000-7500 € per i costi di verifica della conformità. V. 2021/0106 (COD) (ITA), p. 11. ↩︎
- Ivi, p. 9. Abbiamo verificato come le parole citate siano rimaste invariate nel testo finale dell’AI Act. ↩︎
- Il testo definisce una differenza tra il termine “applicazione” e “pratica”. Le tecniche per il riconoscimento biometrico delle persone sono un tipo di applicazione dell’IA ad alto rischio, mentre effettuare tale applicazione «”in tempo reale” in spazi accessibili al pubblico a fini di attività di contrasto, fatta salva l’applicazione di talune eccezioni limitate» (p. 14), costituisce una pratica con un livello di rischio inaccettabile e, pertanto, vietata. Vi sono quindi diverse scale di rischio. Esaminare le pratiche più rischiose può darci un’idea degli enormi rischi a cui andiamo incontro in una società digitalizzata basata sul profitto; in questo articolo però ci concentriamo solo sulle applicazioni dell’IA, chiaramente per ragioni di brevità. ↩︎
- Questo tipo di approccio “neutrale” sta a significare che, in qualunque modo si intenda operare, non debba derivarne uno svantaggio per questa o quella tecnologia. Il motivo è che essendo tutto molto sperimentale non si sa su quali tecnologie convenga puntare di più e quali sarebbe meglio accantonare. Il risultato è che le tecnologie che spesso vengono adoperate in maniera rischiosa, pure, non devono essere penalizzate, con tutto ciò che ne consegue. ↩︎
- Esclusivamente «laddove i sistemi di IA siano in una certa misura implicitamente regolamentati in relazione al sistema di governance interna degli enti creditizi», ossia praticamente sempre. V. 2021/0106 (COD) (ITA), p. 5. ↩︎
- 2021/0106 (COD) (ITA), p. 12. ↩︎
- 2021/0106 (COD) (ITA), Allegati tecnici: Allegato III, punto 4. ↩︎
- 2021/0106 (COD) (ITA), p. 29. ↩︎
- Viene effettuato il calcolo del tempo necessario a svolgere ogni singola azione (come anche aprire o chiudere il palmo della mano, allungare il braccio, ecc.), prendendo come unità minima di misura cronometrica la Time Measurement Unit, che equivale addirittura a 0,0036 secondi (o 0,0031). ↩︎
- Si veda il libro della Cgil “Alessio Gramolati et alii: Contrattare l’innovazione digitale. Ediesse, Roma 2019”. ↩︎
- Darp (Deutscher aufbau und resilienzplan). ↩︎
di E. Gentili e F. Giusti
22/3/2024 https://www.infoaut.org/
Lascia un Commento
Vuoi partecipare alla discussione?Sentitevi liberi di contribuire!