Misurare i sorrisi
La classe dirigente impiega già algoritmi statistici per disumanizzare processi sociali. La sorveglianza delle espressioni facciali, per sovradeterminare le emozioni, è il nuovo orizzonte, ed è appena arrivata nei musei italiani
Da qualche settimana alcuni musei pubblici di Roma, Parma e Bologna hanno introdotto nei propri spazi delle telecamere che sorvegliano le espressioni facciali dei visitatori. La convinzione che misurare e analizzare questo dato permetta di calcolare il gradimento, e «ottimizzare l’esposizione delle opere stesse e il percorso di visita», è alla base del progetto, denominato ShareArt.
Se sei felice tu lo sai, ottimizza
Diffuso dal gergo matematico prima, e dalla terminologia industriale e amministrativa poi, ottimizzare indica la distribuzione metodologica delle risorse necessarie per massimizzare un risultato, in modo apparentemente neutrale, in quanto prodotta da un algoritmo. Concetto centrale all’automazione, la narrazione mainstream lo identifica come causa principe del successo dell’informatica nel contribuire al progresso generale della società. La dirigenza museologica nel prendere in prestito il termine fa dunque eco a questo tecno-ottimismo diffuso. Omette però che nel passato recente il risultato massimizzato non è stato generale, ma molto specifico: il profitto privato a breve termine.
Finanziata dai colossali fondi imperialisti, accumulati in epoca coloniale e a seguito dei conflitti mondiali, non per caso la Silicon Valley è la patria dei software più popolari oggi. La particolare informatica sviluppata qui ha infatti permesso di globalizzare un’organizzazione del lavoro che ne visualizza esclusivamente particolari aspetti quantitativi, rendendo invisibili i restanti. La rimozione di pensieri, politiche e prodotti del lavoro dalla cornice sociale e ambientale di origine ha così mascherato, sotto una coltre di sedicente neutralità, la progressiva strutturazione delle insopportabili crisi sociali, economiche e ambientali di oggi. Al contempo, per la cultura, le politiche di ottimizzazione delle risorse pubbliche hanno significato perlopiù definanziamento, risultando oggi in una situazione disastrosa per gli interessi pubblici, e più che mai favorevole per quelli privati.
Come può quindi una macchina apparentemente capace di acquisire «lo stato d’animo dei visitatori», tramite sedicenti «dati oggettivi», liquidare le domande che la museologia si pone da cinquant’anni, e promuovere ulteriormente l’automatizzazione incondizionata? Tanti sono i nodi aperti attorno al rendere i visitatori «parte attiva, partecipando alle decisioni di pianificazione dei contenuti e del museo stesso», affinché la conservazione, trasmissione ed elaborazione della conoscenza abbia esito positivo e rimanga sostenibile in entrambi i versi.
Prima di tutto, la complessità tecnologica ammanta chi la sviluppa e chi la adotta di un’aura semidivina, utile alla scalata delle gerarchie di potere esistenti, minimizzando il mancato rigore per affermazioni straordinarie come l’esistenza della macchina stessa e la bontà della sua adozione. In secondo luogo, l’operazione declassa il lavoro umano e sociale compiuto sinora a «risposte tradizionali […] troppo approssimative», fornendo una conveniente giustificazione a posteriori per la mancanza cronica di risorse adeguate per la loro raccolta e sistematizzazione. Senza alcun cenno alla loro potenzialità, se supportate da misure quantitative scelte con un rigore scientifico, validato da processi partecipativi, di generare nuovo tessuto sociale, capace di sovvertire gli ostacoli all’accesso alla cultura e il suo assoggettamento a scenografia di attività commerciali.
Se sei felice tu lo sai, superstiziona
Va detto molto chiaramente: che questa macchina capace di interpretare le emozioni a partire dalle espressioni facciali esista è una superstizione. Le elaborazioni psicologiche complesse non sono decontestualizzabili dal quadro sociale e dal flusso di coscienza individuale, né magicamente rappresentabili alla stregua delle dimensioni della zanzariera per la camera da letto.
Da una delle revisioni sistematiche più grandi della letteratura sul tema, risulta che solo il 30% delle persone ha una faccia minacciosa quando è arrabbiata, e poco più del 10% sorride quando è felice. A conferma di quanto più genericamente evidenziato dalla scienza cognitiva incarnata: l’impossibilità di predire comportamenti ambigui, indeterminabili e intrinsecamente ambigui dovuti alla complessità e alla flessibilità umana. Lisa Feldman Barrett, professoressa di psicologia tra le autrici della revisione, durante un’intervista a The Verge ha detto: «Vogliamo davvero che in tribunale, o durante un colloquio di lavoro, una visita medica, o all’aeroporto… ci sia un algoritmo che ci azzecca solo il 30% delle volte?».
Ciononostante Ibm, Google, Amazon e Microsoft, oltre a supportare economicamente le conferenze e gli studi accademici dove vengono presentati software open source che presumono di poter sbirciare nell’anima, commercializzano con successo le versioni a pagamento in un giro d’affari che, sino a poco tempo fa, era previsto raggiungere i 37 miliardi di dollari nel 2026, come racconta Kate Crawford su Nature.
In barba alle evidenze e al rischio di massimizzare la discriminazione, l’industria è riuscita a costruire questa superstizione grazie a un racconto ormai sedimentato nella narrazione mainstream. L’esplosione dell’industria dell’intelligenza artificiale, a partire dal 2012, avviene quando un paper dell’Università di Toronto pubblicizza un nuovo metodo per ottimizzare l’uso delle schede grafiche. Già molto diffuse per la modellazione e i videogiochi 3D, il loro nuovo impiego allarga enormemente l’accessibilità economica dell’addestramento delle reti neurali, un tipo di software presente in letteratura già da alcuni decenni, ma fino ad allora poco impiegato a causa dei costi proibitivi. Con una quantità di dati sufficiente le reti neurali sembrano produrre delle risposte intelligenti, in pochissimo tempo, a quelle che fino ad allora erano considerate domande complesse che non potevano che essere fatte a un essere umano.
C’è però un problema. Se le risposte non sono più fornite da esseri umani, chi ne controlla la accuratezza? Nessuno. O meglio, dato un dataset, cioè una lunga lista di domande e relative risposte (fatte di numeri, testo o qualsiasi tipo di media, in base al problema), solo una parte viene utilizzata per addestrare una rete. Per verificare se l’addestramento ha funzionato, e dunque il comportamento della rete, si procede a sottoporre le domande della parte restante della lista, e a controllare quanto il risultato prodotto si avvicina alla risposta corretta, tenuta nascosta. Se ci azzecca con una percentuale vicina allo stato dell’arte per problemi simili, la rete viene ritenuta sufficientemente performante. È un gioco che si basa dunque sulla qualità dei dati a disposizione, ovvero delle competenze e dei pregiudizi di chi li ha prodotti, e sull’impossibilità di conoscere precisamente come la rete ha codificato al suo interno i concetti chiave del problema durante l’addestramento.
La spettacolarità di alcune applicazioni, come ad esempio i deepfake di FaceApp oggi, ci ha portato a vivere un periodo di estrema euforia dove sia industria che accademia spesso applicano le reti neurali, adducendo loro una generica caratteristica di intelligenza non meglio specificata, a nuovi e vecchi problemi complessi, senza un’accurata ricognizione delle fragilità epistemiche in gioco e rinforzando, come scrivono Catherine D’Ignazio e Lauren Klein in Data Feminism, un «mito per cui la data science dell’astrofisica è la stessa di quella della criminalità e di quella delle emissioni di anidride carbonica».
Dunque, anche se parliamo di domini di conoscenza con diversissima precisione nella definizione di concetti, misure, sensori e conoscenze necessarie ai produttori dei dati, la superstizione è che la stessa asettica tecnologia possa dare, con ridotto intervento umano, risposte con affidabilità comparabile, «oggettiva», sia che si facciano previsioni del tempo sia che si vogliano prevedere le complesse emozioni del pubblico. Per descrivere questo fenomeno, D’Ignazio e Lauren Klein scrivono ancora:
Big Dick Data è un termine accademico formale che noi autrici abbiano coniato per denotare progetti big data caratterizzati da fantasie patriarcali, cismascoline e totalizzanti di dominazione del mondo attraverso la raccolta e l’analisi dei dati. I progetti Big Dick Data ignorano il contesto, feticizzano le dimensioni, ed esagerano le proprie capacità tecniche e scientifiche.
Se sei felice tu lo sai, sorveglia e punisci
Non sorprende che alla prima occasione, ovvero la difficoltà nell’applicare il sistema dovuto alle mascherine, il sistema sia stato sviluppato ulteriormente per sorvegliare, sul rispetto di distanziamento fisico ed uso dei Dpi, normalizzando dinamiche di costante controllo.
L’assoluta egemonia dei progetti di Big Dick Data nel campo dei finanziamenti sia accademici che industriali, e la loro connivenza negli ultimi dieci anni all’accentramento di potere all’interno del capitalismo, è resa chiara da alcuni casi eclatanti: il riconoscimento facciale che perseguita le minoranze per strada; i video suggeriti di YouTube che, pensati per massimizzare il numero di ore spese sulla piattaforma, hanno massimizzato gli utenti in rotta verso i contenuti di estrema destra; la scrematura automatica dei curriculum che scarta sistematicamente le donne. Ad avere successo, e a funzionare abbastanza bene per essere distribuite, non sono sedicenti intelligenze qualsiasi, ma quelle che sovraespongono alcune precise caratteristiche a sfavore di altre, riaffermando come giusti e auspicabili (o, se serve meglio, nascondono) lo status quo e le gerarchie di potere già esistenti.
Ma anche se la macchina è una superstizione, la sua mera simulazione produce effetti invece molto concreti e materiali. Promossa anche delle istituzioni pubbliche, serve a giustificare la trasfigurazione della tecnica e della tecnologia in una nuova religione i cui assunti sono incontestabili.
Lo abbiamo visto negli ultimi decenni con la psicologia individualista che ha promosso la costruzione del benessere come impegno solitario. E con la psicologia aziendale, fatta di poster motivazionali e attività di team building, che ha trasformato l’immagine di ogni azienda in una «grande famiglia», dove viene promossa un’aria di generica informalità e, più recentemente, di orizzontalità (ma non per quanto riguarda decisionalità economica e condivisione dei profitti), mascherando la mancanza di un interesse comune nella produzione oltre la necessità del salario, sopprimendo i bisogni individuali e delle comunità cui si appartiene.
Mentre i profitti crescevano, queste tecniche hanno contribuito a esasperare l’autoregolazione delle emozioni verso una positività costante e tossica, negando il bisogno primario di riconoscere sia emozioni positive che negative, e la loro uguale importanza per una decisionalità sana. Strumentali alla neutralizzazione del conflitto di classe, e alla desindacalizzazione che ha lasciato disintegrare le tutele sociali, sino a creare la prima generazione più povera dei propri genitori. Non sorprende che oggi integrino, oltre alle app ansiolitiche, il riconoscimento facciale per obbligare a sorridere o per verificare quanto si è «felici» sul luogo di lavoro.
Intanto i progetti di mappatura delle agenzie antisindacali, della sorveglianza stessa delle compagnie (come Ikea e Amazon), degli sprechi di cibo, delle obiezioni di coscienza per l’accesso all’interruzione volontaria di gravidanza, o dei conflitti ambientali, per esempio, oltre a costituire una fonte di informazioni spesso molto più urgente per chi non è ai vertici delle gerarchie, richiedono tecnologie forse meno affascinanti, ma sicuramente meno costose e meno opache. Eppure trovare finanziamenti, privati o pubblici che siano, per svilupparle, è talmente difficile e improbabile che se vengono alla luce spesso è solo perché qualcuno ha potuto dedicarsi al lavoro volontario o alla ricerca accademica con un contratto precario.
Se invece la discussione sulla discriminazione algoritmica è iniziata, è anche vero che si è incagliata su un nodo che non mette in discussione la tecnica, ma solo la sua applicazione, riassumendosi in «non è il sistema a essere sbagliato, sono sbagliati i dati». Le criticità relative alla loro qualità citate prima hanno permesso di generare una nuova industria del debiasing (rimozione dei pregiudizi) senza mettere in discussione l’impianto generale.
In realtà la trasmissione e la riaffermazione automatizzata di stereotipi e pregiudizi deriva anche dalla struttura del software. Determina infatti come i dati vengono aggregati, quali parti ne sono effettivamente usate, quale genere di risposta produce, come è possibile valutarne l’operato, e che attendibilità e importanza assume nel processo sociale in cui viene integrata. Dopodiché entrano in gioco i cicli di retroazione, ossia come tutto questo influenza le raccolte dati e gli sviluppi successivi dei software. A chi, dall’interno, cerca di discuterne, viene suggerito (in modo poco originale) di usare un tono positivo. O la porta. Ma trovare traccia di questo nel dibattito pubblico è improbabile.
Nel caso in esame non si trova una riflessione su cosa significhi acquisire imponenti moli di dati solo su venti opere, su chi al museo ci va già, in un numero limitato di musei già abbastanza esposti, iperfocalizzando le risorse museali e la curiosità indotta nei visitatori, senza esplicitare una metodologia di raccolta e analisi dei dati con degli obiettivi precisi, o quantomeno un’analisi del possibile impatto sociale.
Se non sei felice, batti i piedi
L’industria privata continuerà a offrire nuove automazioni che magicamente risolvono problemi sociali come la strutturazione dei percorsi museali: oggi sono le reti neurali e il riconoscimento biometrico, ma non saranno né le prime né le ultime a essere usate o sviluppate per scopi poco chiari o poco nobili. La raccolta di dati può permettere effettivamente di accrescere la conoscenza, ma senza una prospettiva intersezionale sulle gerarchie di potere esistenti, su chi acquisisce e analizza dati su chi, su quale tipo di rappresentazione del mondo si dà al calcolatore, su cosa omette questo e su quali decisioni influenza, è un invito all’abuso ai danni di chi è già a terra.
Un’opinione congiunta del Comitato e del Garante europei per la protezione dei dati ha appena esplicitamente richiesto il divieto di identificazione biometrica remota (già oggi possibile tramite riconoscimento facciale e della voce, postura nei movimenti, impronte digitali, pressione dei tasti nello scrivere) e definito il riconoscimento delle emozioni come indesiderabile, ma limitandosi ai luoghi pubblici. A questo si è aggiunta una segnalazione specifica su ShareArt al Garante della Privacy italiano.
La regolamentazione democratica è necessaria, e le iniziative come quella dei Cittadini Europei di Reclaim Your Face sono essenziali per avanzare. Ma, oltre a preoccuparci di come rendere materiali le leggi, dobbiamo interrogarci sulla loro portata geografica limitata, e dunque su cosa succede invece appena fuori dai nostri confini comunitari. E riaffermare l’interesse collettivo all’eliminazione dell’asimmetria dei saperi che oggi sostiene il terribile impianto economico globale, fuori dal quadro neoliberista della privacy che troppo spesso ci parla solo di dati personali.
Non cedere di un millimetro neanche su questo, certo, ma anche ricercare attorno a noi le forme di associazione, partecipazione e mobilitazione strumentali ad affrontare collettivamente la lotta per la giustizia sociale, garantendo che anche la progettazione, lo sviluppo e l’applicazione di tecnica discendano sempre e solo dall’obiettivo di garantire diritti umani, individuali e collettivi.
Riccardo Angius, borsista di ricerca in Informatica e Reti Neurali Profonde, studia anche diritti umani e inclusione per una prospettiva intersezionale sulle nuove tecnologie. In passato attivista presso la Rete della Conoscenza, oggi partecipa ad UP! Su la testa.
1/7/2021 https://jacobinitalia.it
Lascia un Commento
Vuoi partecipare alla discussione?Sentitevi liberi di contribuire!