Vorreste essere giudicati da un magistrato o da un algoritmo?

Home>Vorreste essere giudicati da un magistrato o da un algoritmo?

Si discute molto sull’opportunità che i membri del Consiglio Superiore della Magistratura siano nominati per sorteggio invece che per elezione. Ma tutto sommato essere scalzati dall’esercizio della volontà deliberativa a favore di un criterio casuale non è il macigno più grosso che grava sulla professione dei magistrati. Essi potrebbero essere sostituiti dall’intelligenza artificiale in alcune fasi del diritto penale. Non si tratta di fantascienza ma di quanto è già in corso nell’evolversi dell’automazione giudiziaria, e comincia a funzionare attivamente negli Stati Uniti.

 

Negli anni Settanta una ricerca negli Stati Uniti raggiunse un esito scioccante: nel decidere un ipotetico caso giudiziario di relativa semplicità (un’adolescente senza precedenti penali trovata in possesso di una modica quantità di marijuana che non ha mostrato alcun pentimento), fra i 47 giudici distrettuali interpellati, 29 giudicarono l’imputata non colpevole e 18 colpevole, e tra questi ultimi 8 raccomandarono la condizionale e 3 una pena detentiva (caso riportato, insieme ad altri inerenti l’applicazione degli algoritmi nella giustizia, nell’ottimo Hello World di Hannah Fry pubblicato in Italia da Bollati Boringhieri).

Il problema di uniformare i giudizi è in effetti antico, e in alcuni paesi viene risolto rendendo obbligatoria una parziale centralizzazione giurisprudenziale, che obbliga i giudici a seguire le decisioni precedenti: che però applicato su larga scala congela l’adeguamento del diritto ai mutamenti culturali (e rallenta gli stessi mutamenti culturali, che a volte prendono lo slancio decisivo da sentenze di rottura).

 

Ovviamente l’intelligenza artificiale viene considerata una ghiotta opportunità per rimediare all’incertezza provocata dalle difformità delle decisioni; e specialmente negli Stati Uniti sta incontrando consenso rispetto alla giustizia predittiva con l’impiego dell’algoritmo Compas nel campo delle misure cautelari. I soggetti in attesa di giudizio compilano un questionario contenente 137 domande, Compas “profila” l’imputato secondo l’aggregazione di dati preesistenti e stabilisce se lasciandolo uscire su cauzione sia elevata la probabilità che fugga prima del processo, o che commetta altri reati. Egualmente, l’algoritmo processa i dati relativi ai detenuti valutando il rischio di recidiva, che può essere rilevante nella concessione (o non concessione) dei benefici.

L’impiego dell’algoritmo risulterebbe favorevole agli individui, poiché processando con alta precisione (o comunque con precisione superiore a quella dei giudici) il rischio di recidiva o di fuga diminuirebbe il numero di persone che, per prudenza, sono state trattenute in carcere. Nel Rhode Island, ad esempio, sono calate sia le recidive (meno sei per cento) che la popolazione carceraria (meno diciassette per cento) e i progettisti di Compas assicurano che l’algoritmo è in grado di far incarcerare il 41 per cento del numero di imputati senza far aumentare il numero dei reati.

Il ricorso ad algoritmi predittivi naturalmente è diffusissimo in Cina. Ma comincia ad essere sperimentato in diversi paesi: da tempo in Francia, più recentemente in Estonia (dove ha intanto ottenuto risultati eccellenti nello snellimento del contenzioso amministrativo) e in Italia – in affiancamento statistico e non in sostituzione del giudice – presso la Corte d’Appello di Brescia.

 

Le decisioni dei giudici sono da tempo indicate come una crepa nella teoria che gli individui agiscano razionalmente, e se ne sono segnalate le incongruenze: quel che è peggio non solo nelle differenza di decisione su uno stesso caso tra giudici diversi (in fondo se non considerassimo naturale la difformità sarebbero inutili i tre gradi di giudizio!) ma nelle decisioni che prende la stessa persona a seconda di circostanze che nulla hanno a che vedere con il processo. Alcuni anni fa fece scalpore una ricerca condotta in Israele che dimostrò come la condanna dell’imputato fosse molto più probabile se la corte si era riunita poco prima dell’ora di pranzo, mentre con lo stomaco pieno i giudici tendevano ad essere più clementi.

Un altro pericolo è legato alla successione dei casi: se già sono state pronunciate quattro decisioni favorevoli alla libertà su cauzione, guai a chi capita sotto per quinto.

Ma qui chiaramente cominciamo ad entrare in campi che riguardano qualsiasi persona: certo, il giudice è vittima di quel bias cognitivo che si chiama effetto ancoraggio, per il quale se qualcuno sente menzionare, ad esempio, il numero quattro, questo numero potrebbe diventare una base di partenza nella questione di cui si sta occupando (e quindi, se si tratta di un giudice e quattro anni sono una pena plausibile, cresce la possibilità che sia quella effettivamente la pena erogata). Ma si tratta, appunto, di una forma di irrazionalità comune. Sicuro, se ha litigato di brutto con il figlio è più facile che sia sfavorevole anche all’imputato: ma non è diverso per l’esaminatore che corregge i compiti, o per il bancario che istruisce una pratica di finanziamento.

Non è insomma un problema che concerne i magistrati, ma tutti coloro che devono prendere decisioni che riguardano altri. Per i magistrati fa un certo effetto per l’importanza che di solito riveste quella decisione, soprattutto nel campo penale. A maggior ragione, tuttavia, l’importanza della decisione ci spinge a chiederci se da un algoritmo non dobbiamo aspettarci risultati migliori, visto che mancano quelle variabili casuali (non ha nessuno con cui litigare, non pranza ecc.) che rendono meno prevedibile e meno ragionevole la decisione di un giudice.

 

A onor del vero che l’algoritmo funzioni meglio degli umani, nel campo delle decisioni predittive, non è ancora accertato: negli Stati Uniti un’equipe ha messo a confronto le decisioni di Compas con quelle di un gruppo di volontari senza competenze specifiche che si sono documentati sulle circostanze dei casi concreti e hanno poi deciso collettivamente; e il loro margine di errore – sembra – è stato inferiore a quello dell’algoritmo.

Ci sono un paio di problemi non da poco: una è la preoccupazione che al diritto dei giuristi si sostituisca quello degli ingegneri. L’altro è la certezza che l’algoritmo, orientato come sarebbe a rendere prevedibile mediante la ripetizione delle decisioni passate in quelle future, riproduca i pregiudizi sociali. In effetti, per il momento è assodato che nei casi dubbi decida più favorevolmente ai bianchi che ai neri. Non è che sia intrinsecamente razzista. Però i neri si trovano più facilmente in quelle condizioni di marginalità che la decisione sfavorevole tende a perpetuare.

Aggiungiamo che la formula dell’algoritmo è segreta, ed è difficile accettare di farsi sei anni di prigione per un ragionamento che il condannato non ha il diritto di conoscere. Nel Wisconsin su queste basi il reo ha presentato un ricorso alla Corte Suprema che però lo ha respinto.

Ma dobbiamo affrontare con sincerità il punto centrale: io non avrei dubbio sul fatto che gli esseri umani si facciano preferire se si tratta di risolvere secondo giustizia un caso esaminato attentamente. L’algoritmo, invece, si lascia preferire rispetto a una decisione relativamente seriale e di natura amministrativa, perché ordina i dati con più coerenza ed esamina dati in modo distribuito equamente. Non si dà il caso di un algoritmo che ha trascurato un fascicolo e lo ha liquidato sbrigativamente rispetto agli altri.

Ora: il sistema giudiziario, da tempo, è una macchina amministrativa nella quale il valore della giustizia ha un ruolo del tutto secondario. Non dimentichiamo, ad esempio, che la pena irrogata non è quella prevista dal codice come giusta pena all’interno di un minimo e un massimo, ma sovente la pena diminuita dal rito abbreviato e negoziata nel patteggiamento. Ha qualcosa a che fare con la giustizia?

Soprattutto, i magistrati sono ufficialmente considerati, prima che dei decisori, dei gestori di fascicoli, che sono invitati (con effetto sulla loro carriera) a liquidare nel tempo più rapido possibile. Al magistrato, prima che buone decisioni, il sistema chiede molte decisioni.

È ovvio, però, che se la spostiamo sul campo della gestione dei fascicoli il magistrato con l’algoritmo non può proprio competere. La decisione mediata dall’algoritmo sarà più rapida, e nella maggior parte dei casi più razionale e prevedibile. Su questa base sarebbe non solo inevitabile, ma pure auspicabile, che l’algoritmo sostituisse i giudici anche nel quantum della pena (come già ora in qualcuno degli Stati Uniti) e progressivamente li surroghi del tutto nella decisione.

 

È però la ragione per cui la legge risulta sempre meno amata: gli individui che cadono nelle sue maglie si rendono rapidamente conto di essere diventati dai fascicoli. Quello che tutti vorremmo, idealmente, è una giustizia che si soffermi sul caso concreto, che distingua dentro l’identità dei dati la differenza specifica dell’individuo singolo. L’algoritmo allontana definitivamente da questo modello ideale. A meno che…

 

A meno che non prendiamo spunto dalle potenzialità dell’IA per ribaltare il tavolo.

Ovvero: stabiliamo che una serie numerosa di casi piuttosto banali che infognano il sistema giudiziario, vengono davvero risolti dall’algoritmo. Cioè, si inseriscono i dati essenziali e arriva il risultato, elaborato in pochi minuti. Come minimo in primo grado.

E poi impieghiamo la mole dei dati per affinare l’istruttoria, aggregando i dati, e semplificando ai giudici la preparazione del processo. E naturalmente continuiamo a consolidare, per via digitale, la conoscenza del giudice sui precedenti processuali.

E recuperiamo finalmente a un giudice meno oberato (e più responsabilizzato) quella parte che del processo penale costituisce l’essenza: il lavoro intellettuale sull’interpretazione della norma (che per larga parte non è ricavabile per via computazionale), la discussione orale e al suo interno la ricerca della particolarità del caso, e il complesso della liturgia processuale, che può essere variamente rivisitato ma riveste pur sempre un valore simbolico (come dice Antoine Garapon è tempo sociale e spazio sociale).

Dovrebbe essere anche il criterio con il quale definire, più in generale, il ruolo corretto degli algoritmi: aiutare l’uomo a essere più umano

Di |2020-09-11T15:17:31+01:0019 Luglio 2019|Web philosophy|

Scrivi un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Torna in cima