22 Maggio 2018

Il giudice automatico. Giudizio penale ed intelligenza artificiale

ANDREA GUIDI

Immagine dell'articolo: <span>Il giudice automatico. Giudizio penale ed intelligenza artificiale</span>

Abstract

La complessità del giudizio penale rende non ipotizzabile la sostituzione del giudice umano con un sistema cibernetico avanzato, a meno di una radicale e pericolosa semplificazione del sistema processuale

* * *

Ha suscitato interesse la notizia dell’adozione, da parte di un importante studio legale americano, di un computer di tipo “cognitivo”, capace cioè di emulare il funzionamento del cervello umano e quindi di apprendere dall’esperienza; la macchina è in grado di assistere gli avvocati in questioni di diritto fallimentare rispondendo a domande formulate in linguaggio ordinario (1).

Un altro importante studio internazionale avrebbe adottato un diverso sistema intelligente specializzato nell’analisi delle clausole contrattuali.

In campo criminologico è noto come alcune forze di polizia si siano dotate di sistemi esperti capaci di “predizioni” volte a rendere più efficace il sistema di prevenzione e repressione della criminalità di strada: la macchina, basandosi sulle serie storiche dei reati rilevati e su altri dati, è in grado di indicare in quale zona della città ed a quale ora sia più probabile la commissione di attività criminose (2).

Emersa, dunque, la vocazione “legale” delle macchine pensanti sorge il dubbio che, un domani, anche l’attività giudiziaria possa essere delegata ad efficientissimi calcolatori, e questo anche nel campo del processo penale.

I difetti di una macchina giudicante

Il problema fondamentale del giudizio penale è la possibilità di errori significativi, sia nella ricostruzione del fatto sia nella sua valutazione giuridica (e quindi un elevato tasso di imprevedibilità delle decisioni).

Il ricco apparato di congegni processuali di controllo e di correzione dei provvedimenti giudiziari dimostra quanto il legislatore sia cosciente del pericolo e quanto si preoccupi di individuare ed espellere gli errori dal sistema.

Essendo, dunque, il giudice, fallibile per definizione, forse potrebbe essere utilmente sostituito da una macchina logica: questo nuovo tipo di giudicante sarebbe del tutto privo di umani pre-giudizi, perfettamente equanime e scevro da ogni pigrizia curiale perché capace di analizzare gli elementi a sua disposizione anche migliaia di volte in tempi infinitesimali.

Tuttavia, anche se disponessimo di un super-calcolatore togato capace di superare il test di Turing in un’aula di tribunale, i problemi di fallibilità della giustizia penale probabilmente non sarebbero risolti, anche per ragioni insite nella complessità del sistema processuale (poniamo qui, per ipotesi, la nostra macchina giudicante in relazione al sistema del diritto punitivo italiano vigente).

Un giudice automatico, in fondo di questo si tratterebbe, avrebbe bisogno di assegnare un valore numerico definito (un punteggio di efficacia dimostrativa) ad ogni elemento di prova, a favore o contro, reintroducendo necessariamente un sistema di prove legali simile a quello adottato nei sistemi giudiziari dell'ancien régime (la confessione - anche estorta - è prova invincibile, la testimonianza di un chierico vale più di quella di un laico etc.) invece, essendo vigente, nel sistema processuale, l'opposto principio del “libero convincimento” (il giudice attribuisce alla prova il valore che crede, salvo l'onere di motivare le proprie scelte) la macchina si troverebbe ad affrontare un tipo di giudizio non strettamente deterministico (forse troppo umano) che la metterebbe in serie difficoltà. 

La stessa imprecisione dei testi normativi e la necessità di adattare la norma al caso concreto (enti raramente perfettamente coincidenti) costituirebbe un ostacolo notevole alla elaborazione di una sentenza ragionevole.

Anche la neutralità del giudice automatico sarebbe illusoria in quanto i suoi pre-giudizi sarebbero insiti nello stesso algoritmo che lo anima e non farebbero che proiettare nel processo decisionale i pre-giudizi del compilatore del programma.

Sospetta resterebbe anche l'attività di inserimento dei dati che potrebbe essere causa di distorsioni della decisione.

Il giudizio penale, comunque, resta anche un giudizio di valore e di disvalore, cioè un giudizio anche morale, troppo complesso persino per una macchina che possa simulare, in qualche modo, il pensiero umano; nulla a che vedere, naturalmente, con la cd. “moral machine” a cui si pensa di demandare le decisioni estreme dei sistemi di guida automatica degli autoveicoli in caso di possibile collisione: una macchina mostruosa che dovrebbe rispondere, all’istante, alla domanda “devo sacrificare il pedone distratto o l’equipaggio dell’automobile?” (3).

Un esperimento di giudizio automatico è già stato, comunque, attuato in Europa: presso lo University College di Londra un software ha simulato il giudizio della Corte Europea dei Diritti dell’Uomo relativamente a 584 casi (reali) di sospetta tortura, trattamenti degradanti e violazione della privacy; per il 79% dei casi analizzati il verdetto della macchina è stato coincidente con la decisione della Corte (4).

Le prospettive di una deriva cibernetica della giustizia sono quanto meno perturbanti ed è probabile che, anche nel lontano futuro, si opterà per le incertezze di un giudizio formulato da semplici e fallibili esseri umani (anche perché il legislatore stesso rischierebbe di dover affrontare, un giorno, il gelido giudizio di una macchina).

* * *

  1. L. Zorloni, Negli studi legali arriva l’avvocato robot, in Wired.it, 28.2.2018      https://www.wired.it/economia/lavoro/2017/02/28/avvocato-robot/
  2. Usa, polizia come Minority Report: prevede i reati col pc, in Lettera 43, 29.9.2016    http://www.lettera43.it/it/articoli/scienza-e-tech/2016/09/29/usa-polizia-come-minority-report-prevede-i-reati-col-pc/203053/
  3. Si può partecipare ad un esperimento di moral machine accedendo al sito del Massachusets Institute of Technology  http://moralmachine.mit.edu/
  4. C. Jonhnston, Artificial intelligence 'judge' developed by UCL computer scientists, in The Guardian, 24.10.2016  https://www.theguardian.com/technology/2016/oct/24/artificial-intelligence-judge-university-college-london-computer-scientists

Altri Talks