Il tuo viso non ti appartiene

Home>Il tuo viso non ti appartiene

Sviluppo e pericoli del riconoscimento facciale

Ecco quello che potrebbe capitarvi in futuro. State mettendo il piede fuori la porta di casa, oppure sorseggiando un cocktail al vostro locale preferito o siete seduti nella vostra scrivania di ufficio, un pochino defilata rispetto al pubblico, quando vi viene incontro un volto che non vi rammenta nulla. “John” (o Alice, Sergei, Monica) dice quella persona “Ero sicuro/a di trovarti qui”. Il suo scopo potrebbe essere rimorchiarvi, uccidervi, farvi una proposta commerciale, ricevere un autografo, chiedervi personalmente un parere sul conflitto in Medio Oriente. Non ne avete idea, perché proprio non vi viene in mente chi diavolo è. Per forza. Non la conoscete. D’altronde non siete un personaggio famoso, e poi come faceva a sapere che eravate qui? Beh, un modo per svelare l’arcano rapidamente ce l’avete. Inforcate gli occhiali di realtà aumentata e almeno cominciate a sapere come si chiama, quanti anni ha e cosa fa nella vita.

Quando dico in futuro, potrebbe essere anche solo qualche annetto. Anzi, in termini tecnici, pure un paio di settimane. La scena che ho descritto, tecnicamente, è già quasi realizzabile e attiene ai progressi dell’intelligenza artificiale nel campo del riconoscimento facciale. Si tratta potenzialmente di una delle aree più dirompenti, e gli stati la maneggiano con prudenza. In Cina, tanto per dire, hanno appena introdotto delle forti restrizioni al suo uso: naturalmente non valgono in alcun modo per l’autorità pubblica. In Italia il divieto di usarlo da parte delle forze dell’ordine è stato prorogato sino al 2025, con un certo rammarico del ministro dell’interno che si era molto speso per la sua utilità nei centri commerciali o nelle stazioni. E in Europa, se da una parte vengono applicate sanzioni dagli stati e pronunciati severi moniti dalle autorità garanti della privacy, dall’altro si progetta un archivio “facciale” decentralizzato sulla base del quale le polizie potranno scambiare agevolmente informazioni visive.

Per capire dove sta andando il riconoscimento facciale, le aziende da tenere d’occhio in questo momento sono due, entrambe americane: PimEyes e Clerview, che raccolgono le applicazioni più evolute, e soprattutto i data base più imponenti (prossimo ai cento miliardi di immagini quello di Clerview: qualcuno di voi che state leggendo c’è di sicuro). Tra le due c’è una differenza rilevante, e cioè che Pim Eyes si rivolge ai privati e Clerview cerca committenti statali. Il proprietario di PimEyes è un accademico georgiano che l’ha acquistata a mezzo di scambi in quei classici luoghi poco trasparenti riguardo a chi sia il titolare delle partecipazioni sociali.

Con un canone mensile di una trentina di dollari, si accede al servizio: si carica un volto e in un batter d’occhio lo schermo sputa tutte le immagini esistenti di quello stesso volto. Non quelle dei social (non per ora) ma comunque quelle che il soggetto potrebbe non aver piacere di diffondere, e anzi erano state pure cancellate dal web per il diritto all’oblio (se però sono già state caricate il database le conserva), magari di gioventù, in una fase in cui, ad esempio (vero) risalenti a un’epoca in cui una donna con un lavoro socialmente rispettato lavorava nell’ambito della pornografia. In teoria, su PimEyes, una persona dovrebbe cercare solo il proprio volto, e il nobile scopo consisterebbe nella possibilità di fare pulizia delle immagini inconsapevolmente sparse in giro. Peccato che basti barrare una casella nella quale si dichiara di essere la persona rappresentata nella foto, e il servizio si attivi senza tanti problemi. Tra l’altro, secondo quel che ha sperimentato un ingegnere informatico che aveva invece seguito la retta via e si era imbattuto in sue immagini sgradite, per eliminarle bisognava accedere a un piano di abbonamento “plus” (300 euro mensili), e questo non è tanto differente da un’estorsione.

Altro aspetto: grazie alle foto disponibili, che ben possono essere scatti casuali di terzi, si possono raccogliere e mettere insieme informazioni tali da poter conoscere l’identità della persona e per questa via (e sempre con il rinforzo delle foto) sapere anche dove andarlo a cercare. Se per strada incrociate la persona da colpo di fulmine e siete pronti a immortalarlo avete qualche chance persino di scoprire dove abita. Anche di sapere dove andare a pescare quel tizio con cui avete avuto a che ridire in un alterco, o quello che è entrato in una fuoriserie mentre si ficcava in tasca un portafogli gonfio.

L’applicazione di Clearview è ancora più impressionante. Il suo fiore all’occhiello sono un paio di occhiali di realtà aumentata del costo di quasi mille dollari. Guardate una persona, anche a distanza di trenta metri, e la sua immagine sarà etichettata come una piccola voce di Wikipedia. Pure in questo caso il database non dovrebbe attingere ai social, e però si sono già verificati diversi episodi che mostrano come tale limite sia ampiamente varcato. Il fondatore dell’impresa, un australiano, è lo stesso che aveva fatto flop con l’app più stupida della terra, quella che doveva renderti somigliante a Trump piazzandoti la sua acconciatura sul cranio, in fotografia. Non è che sia diventato genio tutto d’un colpo: ha attinto a tutta una serie di sviluppi esistenti con lo stesso talento nella frutticoltura che avrebbe chi cammina in un frutteto con la possibilità di prendere quello che gli pare (secondo la spassosa metafora varata da un columnist di The Atlantic). Hoan Ton-That, questo il suo nome, suggerisce anche lui un uso sociale meritevole: finalmente smetteremmo di fare figuracce nelle serate mondane quando non ricordiamo come si chiama qualcuno che conosciamo (ma non sarebbe poi un eguale diletto fingere invece di conoscerlo quando non lo conosciamo?). Per il momento l’uso privato è precluso. Clearview, tuttavia, può consolarsi da quando, grazie anche ai buoni uffici di un ex consulente di Rudy Giuliani, ha cominciato a vendere i suoi prodotti, che includono il programma di ricerca, alla polizia americana. Non si è trattato di un uso futile, per essere onesti: grazie a Clearview, nel 2019, la polizia dell’Indiana ha individuato nel giro di poche d’ore uno stupratore, e un efficace marketing, probabilmente in parte corrispondente al vero, sottolinea che sono stati identificati abusatori di bambini. D’accordo, in un altro stato la sua adozione ufficiale è coincisa con lo smascherato una donna che aveva rubato un’aspirapolvere in un supermercato, che è un po’ come usare l’atomica per sterminare una colonia di termiti. Ma non si può prendere la questione sotto gamba: secondo voi la facilità nel rintracciare dei criminali, o magari prevenire i loro delitti, giustificherebbe questa svolta nei metodi di indagine? La domanda successiva, per chi risponde sì: anche se non rimanesse limitata ai metodi di indagine?

Si fa presto a dire che si tratta solo di un upgrade tecnologico e che i dati biometrici saranno semplicemente più moderni ed efficaci delle impronte digitali e del dna. Una faccia è una faccia che porti in giro, e al contrario delle impronte digitali e del dna è visibile e fa formare idee sul tuo conto. Apparire in una manifestazione politica di anni prima o in una foto insieme a persone che poi hanno preso una cattiva strada induce a interpretare le condotte retrospettivamente: prelude a un diritto penale di forte stampo indiziario e incentrato su quello che la persona è piuttosto che su quel che la persona ha fatto, cammino inverso a quello faticosamente percorso dal garantismo nel XX secolo.

Una delle preoccupazioni maggiori al riguardo dell’IA facciale è il loro margine di errore: lo stesso Ton-That, mentre si pavoneggia di una controversa percentuale di esattezza del 98%, ammette che se la posizione di una telecamera (chiaramente anche i video fanno parte della ricerca) non è posta all’altezza degli occhi ma troppo dall’alto la precisione cala del 75%. Non credo però che gli errori siano davvero ciò di cui più ci dovremmo preoccupare: nessun nuovo elemento di indagine ne è stato immune, e probabilmente nessuno di quelli vecchi è riuscito a disfarsene. Se si azzerassero tutti i metodi di indagine, peraltro, le ingiustizie sarebbero ben maggiori. Ciò che dovrebbe inquietare, semmai, è la costruzione volontaria degli errori: i progressi compiuti dalla reti neurali che producono deep fake sono ancora più sconvolgenti, e la capacità – già ora avanzatissima – di produrre immagini fasulle incrementerebbe il suo business quale contraltare alle immagini vere: in altre parole, ci troviamo in una fase storica in cui, esattamente per l’evoluzione dell’IA, affidarsi alla credibilità delle immagini e incrementarne il valore probatorio (nel campo strettamente processuale o anche in quello dell’opinione pubblica) è una scommessa estremamente rischiosa. Può apparire una considerazione paradossale, ma andrebbe girata agli ingegneri della Silicon Valley.

E poi: una volta invocata la sicurezza quale fattore decisivo per diffondere il riconoscimento facciale, come resistere nel tempo alla seduzione di impiegarli preventivamente? Perché attendere che venga commesso un reato o condotti i suoi preparativi a un passo dall’esecuzione, quando ricomponendo il puzzle delle immagini si potrebbe stroncare sul nascere tutto ciò che sembra preludere a un’iniziativa antisociale? Tale potrebbe essere in un regime illiberale anche l’attività degli oppositori politici. Ma senza arrivare all’IA facciale come continuazione della politica con altri mezzi, ci avvieremmo, lo dicevo, verso un diritto penale orientato alla sicurezza preventiva, prossimo alla distopia ideata da Philip K. Dick in Minority report, cioè all’arresto degli individui che stanno pensando se commettere un reato. In effetti, il dispiegamento generalizzato dei monitor e lo stoccaggio segreto di tutte le nostre immagini in circolazione sarebbero la forma di controllo più radicale che si possa immaginare, a parte leggere nel pensiero, e se prendiamo per buona l’IA facciale perché non dovremmo coltivare il sogno di pervenire alla lettura del pensiero. Controllo e stoccaggio non potrebbero che essere generalizzati, cioè riguardare tutti noi, e dato che fa testo il passato non potremo mai escludere che il momento in cui ci coglie lo scatto o la camera e che ci appare lecito, intimo, privato possa un giorno diventare il Golgota sopra il quale saremo crocifissi: non per forza destinati al carcere, magari esclusi da un lavoro o messi ai margini dalla comunità. È una pia illusione immaginare che l’estensione di uso, una volta ammessa, possa rimanere circoscritta, e che non sopravvengano sempre nuovi buoni motivi per usarla. In Ucraina, nel 2022, si sono serviti di Clearview per risalire all’identità dei soldati russi morti e mandare le foto alle madri. Anche questo atto disumano si è potuto presentare come una sottocategoria della sicurezza, proclamandolo un modo, pur sempre meno cruento della bomba di un attentato terroristico, per fiaccare il consenso interno del paese nemico e favorire il raggiungimento della pace.

Ci stiamo avvicinando a passi veloci a una scelta decisiva tra quello che in senso largo possiamo definire punto di frizione tra la democrazia e la sicurezza, ma in realtà consiste nell’opposizione fra essere un individuo inserito in una comunità o appartenere in toto a una comunità, senza nessuno spazio di autonomia e intimità. Magari questi termini dobbiamo considerarli come ferrivecchi, e apprezzeremo di essere fermati per strada da qualcuno che dice” Ah, lei è un notaio. Ne stavo giusto cercando uno per comprare casa”. Tutto sta correndo velocemente, però, senza nessun serio dibattito pubblico e quasi zero consapevolezze. Abbiamo ceduto i dati e cederemo anche le facce. Una legge di Murphy del marketing sarebbe: se qualcosa può diventare commerciale lo farà. Del resto, gli sviluppi dell’IA facciale sono una prosecuzione lineare delle ricerche su Google, soltanto più pratica. Non mi sembra fantascienza ipotizzare che, così come oggi possiamo far conto su Street View, su questa china arriveremo a People View, alla possibilità di rintracciare all’istante, grazie alla connessione tra milioni di telecamere, la persona che ci preme trovare (o così essere trovati: è meglio precisarlo perché la gente tende a considerare le questioni sempre come se si trovasse dalla parte vantaggiosa). C’è un ultimo elemento terribile di questa storia dell’IA facciale. La mia posizione riguardo alle tecnologie digitali è: potrebbero essere la salvezza dell’umanità ma rimarranno solo una costante minaccia finché saranno nelle mani di pochi giganti multinazionali che se ne servono per scopi commerciali e tengono segreto il funzionamento dei loro algoritmi. Ne rimango convinto, in linea di principio. E però devo ammettere che Google, Apple, Facebook, dopo avere potentemente investito nel riconoscimento facciale, anche acquisendo start-up, hanno poi deciso che per una volta era meglio lasciar perdere, perché era troppo pericoloso per il mondo procedere oltre; e che le due imprese attualmente di punta hanno raggiunto la loro posizione proprio grazie all’open source.

Fra i caratteri distintivi dell’umanità vi è la tendenza a evitare la ripetizione, privilegiando l’innovazione creativa e ciò che è differente. A uno sguardo più attento, però, fenomeni e comportamenti ricorsivi risultano prepotentemente insediati nei fondamenti delle nostre vite, e non solo perché rimaniamo incatenati ai vincoli della natura. Come le stagioni e le strutture organiche nell’evoluzione, si ripetono anche i cicli storici e quelli economici, i miti e i riti, le rime in poesia, i meme su Internet e le calunnie in politica. Su concetti e comportamenti reiterati si basano l’apprendimento e la persuasione, ma anche la coazione a ripetere e altre manifestazioni disfunzionali. Con brillante sagacia, Remo Bassetti affronta un concetto finora trascurato, scandagliandolo nei vari campi del sapere, fra antropologia, letteratura e cinema, per dipingere un affresco curioso di grande ispirazione. Da Kierkegaard almachine learning, dai barattoli di Warhol ai serial killer, dai déjà vu fino alla routine, questo libro offre un’analisi profonda della variegata fenomenologia della ripetizione nel mondo moderno, sia nelle forme minacciose e patologiche sia in quelle che invece assicurano conforto, godimento e, persino, libertà.

Quanto siamo ripetitivi

Di |2024-07-19T10:10:30+01:0013 Ottobre 2023|Limite di velocità|

Scrivi un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Torna in cima