L’intelligenza artificiale applicata alla giustizia. I 5 principi etici dell'AI
Di intelligenza artificiale (AI) si sta occupando l’EU anche per il settore giustizia. Un approfondimento su che cosa sia l’AI, come viene sviluppata. Il nostro destino nelle mani delle macchine?

Basi di funzionamento dell’Intelligenza Artificiale
Quando si parla di Intelligenza Artificiale è bene capire quale sia la tecnologia sottostante.
Noi sappiamo che una macchina può essere istruita, con una serie di comandi, ad elaborare risposte a partire da certi input. Oppure a costruire schermate sul PC, oppure a muovere un braccio robotico per l’esecuzione veloce e precisa, sempre uguale, senza errori, di determinate operazioni.
Il programmatore sempre decide cosa deve fare il software, e di conseguenza cosa il software deve far fare, ad esempio, al braccio meccanico. Potranno essere previste delle variabili ma al di fuori di quelle variabili il software classico va in errore, in loop o in tilt.
A ricordarci quanto è stupida una macchina ce lo ricorda lo stesso Yann LeCun 1 al quale è stata attribuita la frase: “Vorrei fornire alle macchine una qualche forma di buon senso, visto che oggi sono veramente stupide”.
La base dell’intelligenza artificiale è sempre un software, non può essere diversamente.
Cosa distingue, quindi, una programmazione diretta alla costruzione della cosiddetta AI rispetto ad un ordinario software, qual è la differenza?
Dipende.
Dipende da quanto è sofisticato quello che chiamiamo intelligenza artificiale. E come si vede da questa risposta, ancora una volta abbiamo a che fare con un software. Il quale si distingue dal software classico per il fatto che può acquisire dati ed ampliare la base dati dai quali costruire una risposta. Se il software classico è statico, imbalsamato, e con capacità di apprendimento pari a 0, vi sarà tutta una gamma di possibili miglioramenti fino ad una ipotetica capacità di apprendimento pari, mettiamo, a 100.
Quando ci parlano di intelligenza artificiale, in quale grado di capacità si situerà il software proposto? Quanto intelligente sarà 2?
Torniamo per un attimo ancora al software. Quello c.d. intelligente è, in definitiva, una soluzione adottata dai programmatori per non dover far da soli tutto il lavoro.
Poiché è estremamente faticoso e lungo dover introdurre tutte le variabili di un software complesso, hanno ben pensato di far fare il lavoro direttamente dalla macchina. Le “reti neurali” o il c.d. “crivello”, “setaccio” 3 hanno proprio questo scopo. E’ un software costruito per sottoporre alla macchina una enormità di “casi” che la macchina vaglierà a partire da alcuni dati precostituiti. Il programmatore, a quel punto, si limiterà a dire alla macchina “OK, giusto” oppure “No, sbagliato” fino a quando la macchina avrà imparato a fare sempre giusto.
Quando parliamo di “enormità di casi” cominciamo a capire a cosa servono i c.d. big data collezionati dai grandi della rete. Servono milioni, centinaia di milioni di fotografie da confrontare prima di poter asserire che il proprio software ha cominciato a distinguere una foto che riprende un compleanno da quella di un panorama di montagna, qualunque sia l’inquadratura.
Ma ci stanno riuscendo 4.
Una ultima nota: il modo di elaborare i dati è quello statistico. E qui si pongono i primi interrogativi poiché ci si può giustamente chiedere se un metodo statistico sia il più adatto a decidere quando ad essere interessati sono i diritti, la vita e i rapporti umani.
Software predittivi
Va detto, il settore giustizia5 è sotto continuo pressing delle softwarehouse perché hanno tutto l’interesse a rivendere pacchetti già elaborati (in particolare negli USA e UK) e parzialmente utilizzati, soprattutto nel settore penale.
In aggiunta a tutto quel fermento che ha portato all’introduzione dei vari processi telematici.
I software in paesi diversi dal nostro stanno tentando ad esempio di prevenire reati (quando, ad esempio, statisticamente parlando, in certe condizioni di tempo, luogo, clima, e chissà quali ulteriori variabili, è stato notato un aumento di un certo tipo di reati in una certa zona della città, vengono mandati rinforzi). Sono i cosiddetti software predittivi utilizzati nel campo della sicurezza. Non è ancora come nel film Minority Report ma ci stiamo avvicinando.
Sull’uso del software PredPol da parte di parecchi dipartimenti di polizia degli Stati Uniti d’America vedi “Dozens of Cities Have Secretly Experimented With Predictive Policing Software”
Il Giudice robot
Più specificatamente legato alle decisioni, sempre negli USA, Francia e UK vengono utilizzati software per fare predizione in materia di recidiva. Il pericolo di recidiva viene calcolato dal computer; vengono, conseguentemente, utilizzati questi software per concedere la libertà provvisoria, calcolare la cauzione, ecc.
L’ente europeo per l’efficienza della giustizia (CEPEJ) ha iniziato da tempo a meditare sul fenomeno. E nel dicembre 2018 ha pubblicato una Carta sull’uso “etico” dell’intelligenza artificiale nel settore giustizia.
Il rapporto ci riferisce come negli USA vi siano al lavoro già dei “robot lawyer”, avvocati robot in grado di dialogare in linguaggio naturale con gli umani. Vi sarebbero, inoltre, software in grado di predire l’esito della causa, in funzione anche della giurisprudenza del singolo magistrato a cui è affidata. Questo è il motivo per cui la Francia già ha adottato una normativa che vieta di raccogliere dati sui magistrati in funzione predittiva 6.
Il CEPEJ ha, infine, elaborato 5 principi chiave (non sono le tre leggi della robotica di Azimov, ma qualcosa del genere) ai quali ogni AI elaborata dovrà attenersi. Eccoli:
1) Principio del rispetto dei diritti fondamentali;
2) Principio di non discriminazione;
3) Principio di qualità e sicurezza;
4) Principio di trasparenza, imparzialità e correttezza; questo punto merita un commento. Il termine trasparenza evoca la filosofia sottostante il free software e gli open source. Come a dire che se si ha la possibilità di capire cosa fa il software con l'analisi di ogni singola riga di codice si potrà verificare se nascosto qua e la vi sia qualche inganno. Ma l'AI non funziona in questo modo. Gli stessi programmatori hanno difficoltà a comprendere il perché di certi risultati e talvolta ammettono di non avere alcuna idea di come è uscito il risultato. Quindi, come si potrà verificare la "trasparenza" di questo strumento?
5) Principio del “under user control”, pieno controllo da parte dell’utente.
Avvocati e giudici sostituiti da robot?
Il Ministro Bonafede, solo pochi giorni fa ha fatto riferimento al “ricorso a sistemi di intelligenza artificiale dotati di funzionalità predittive da porre a disposizione degli utenti del sistema giustizia per la previsione dell’esito, probabile esito, di giudizi di struttura elementare in modo da disincentivare, ove possibile, il ricorso alla giustizia da parte dei soggetti più probabilmente soccombenti e incentivare così il ricorso a soluzioni stragiudiziali di componimento delle liti”.
Verrà superato il ricorso al legale per il parere? Oppure quello stesso parere potrà essere dato da chiunque abbia il software a disposizione, un consulente di qualsiasi tipo?
Il Ministro ha fatto riferimento anche a “ il ricorso a sistemi di intelligenza artificiale per la decisione in prima istanza di procedimenti di natura elementare, quale per esempio le impugnazioni contro sanzioni amministrative per violazioni del codice della strada”.
In questo caso il magistrato cosa farà? Firmerà il decreto o ordinanza emessa dal software?
Vi è chi solleva questioni di legittimità costituzionale dell’adozione procedure come queste. Il Prof. Viola, che da sempre si occupa dell’informatica nella giustizia, ci spiega che taluno ritiene come “ questo non sia attualmente ammissibile nel nostro ordinamento almeno per le seguenti ragioni:
-gli artt. 25 (Giudice naturale precostituito per legge) e 111 (Giusto processo) della Costituzione postulano un giudice umano; ciò soprattutto per origine storica e per la riflessione che la Carta è stata costruita come un equilibrio tra valori e non come “fattispecie”, con la conseguenza favorire la soggettività all’oggettività e, dunque, l’essere umano ad “altro”;
-l’art. 51 c.p.c. (astensione del giudice) postula, in modo non equivoco e forse più di altri, la natura umana del “giudicante”;
-se si osserva il processo nel suo complesso, può desumersi un principio di “simmetria” tra giudice e parti, nel senso che queste devono avere la medesima natura (umana, verrebbe da dire), differenziandosi solo per ruolo e/o potere.
La tecnologia predicabile, al più, va vista in modo integrativo e non sostitutivo dell’attività del giurista” 7.
Certo, qualcosa sta arrivando, qualcosa di dirompente. Una sorta di rivoluzione che porterà pro e contro, di questo si può stare sicuri.
Una questione rilevante è la “non umanità” del giudizio, il non tenere conto del caso concreto qualora questo, ad esempio, non faccia parte della statistica. Altra questione è quella della sicurezza o della possibilità di manipolare il software.
Infine, la possibilità di appoggiarsi ad una intelligenza esterna produrrà un naturale rilassamento del senso di responsabilità del giudicante, così come del medico di fronte alla diagnosi elaborata dall’intelligenza artificiale. Chi si assumerà la responsabilità di contraddire il software?
Avv. L. M. Rasia
____________
1 - Yann LeCun assieme a Geoff Hinton e Yoshua Bengio è uno dei tre inventori del deep learning.
2 - La parola intelligenza artificiale è estremamente di moda e vengono sbandierate doti di AI anche per banali software predisposti per elaborare diversi tipi di input ma che di intelligente hanno ben poco.
3 - Su AI, Deep Learning e reti neurali , in inglese, vedi il seguente interessante video su youtube: https://www.youtube.com/watch?v=aircAruvnKk e in italiano "Che differenza c'è tra Intelligenza Artificiale, Machine Learning e Deep learning?"
5 - Non è solo il settore giustizia, ovviamente, ad essere interessato. I nuovi sofisticati software hanno molteplici applicazioni ad esempio anche nel settore medico.
6 - E’ una legge del 2019 che prevede sanzioni per chi raccolga, analizzi e riutilizzi "i dati di identità dei magistrati con lo scopo o l'effetto di valutare, analizzare, confrontare o prevedere le loro pratiche effettive o presunte pratiche professionali”.
7 - Viola, “Giurimetria, composizione di dati e giustizia predittiva”.