28 Maggio 2021

L’approccio simbolico per garantire equità e trasparenza dell’Intelligenza Artificiale

MARCO BILLI

Immagine dell'articolo: <span>L’approccio simbolico per garantire equità e trasparenza dell’Intelligenza Artificiale</span>

Abstract

Nell’attesa del nuovo regolamento europeo sui sistemi di Intelligenza Artificiale (IA), quest’articolo ha lo scopo di esaminare le nozioni di equità e trasparenza nelle fonti europee, le relative questioni legali, ed infine fornire una introduzione in chiave informatica dei particolari pregi e difetti dell’approccio simbolico per lo sviluppo di software di supporto decisionale.

***

Il principio di equità nella regolamentazione europea

Sulla scia della quarta rivoluzione industriale, la gamma di potenziali usi dell'IA è aumentata e con essa il suo potenziale di danno. Al fine di bilanciare tali conseguenze e nel tentativo di snellire il processo di sviluppo e contrastare l'opacità dei sistemi di IA, la Commissione Europea negli ultimi anni ha definito una strategia per costruire una "IA affidabile".

Nell'aprile 2018 la Commissione ha istituito un gruppo di esperti ad alto livello che, nell'aprile 2019, ha pubblicato le ‘linee guida per l'IA affidabile, una comunicazione che definiva sette principi cardine[1], riadattati un anno dopo dalla Commissione Europea per l'Efficienza della Giustizia[2], al fine di garantire la conformità tra il trattamento delle decisioni giudiziarie e dei relativi dati mediante algoritmi, e l’uso che viene fatto di tali dati.

Il principio di equità e non-discriminazione viene richiamato in entrambe le sovracitate fonti giuridiche, stabilendone l'importanza nell'ordinamento giuridico europeo; pertanto programmatori e giuristi si sono posti la domanda di come tradurre in pratica questo principio, in assenza di qualsiasi processo standardizzato.

Le questioni che i tribunali devono affrontare ora sono due, collegate tra loro. La prima si riferisce alla possibilità di una decisione discriminatoria a cui può portare il processo decisionale algoritmico, sia a causa di un difetto nella struttura del programma sia a causa di pregiudizi nei dati incorporati nel processo di formazione dello stesso. La seconda si riferisce alla mancanza di informazioni che spesso si può trovare nei sistemi di IA, che, per quanto riguarda la logica del loro processo decisionale, non può essere adeguatamente o facilmente spiegata in termini comprensibili dall'uomo.

Il significato e lo scopo del principio di equità, che mira a risolvere le due questioni, può essere affrontato trattando diversi aspetti legali. Tutti gli algoritmi sono sviluppati sulla base di dati raccolti in precedenza, siano essi fonti legali, correlazioni create da macchine, o istanze del mondo reale; qualora  i dati raccolti siano discriminatori o mancanti, il sistema algoritmico sottostante lo rifletterà. La ratio dei suddetti principi consiste nell'assicurarsi che tali dati includano tutti i casi prevedibili, garantendo un trattamento imparziale e un giusto processo.

Il problema dell'opacità di un sistema algoritmico è affrontato dal principio di trasparenza, che è parzialmente distinto da quello di equità, e ha introdotto la nozione di tracciabilità dei sistemi di IA. L’Unione Europea afferma che un meccanismo che registri e documenti sia le decisioni prese dal sistema, sia il percorso logico seguito per raggiungere tale decisione, deve essere garantito. Strettamente collegato a questo è il principio di spiegabilità, che coinvolge l'utente del programma e mira a fornire spiegazioni del modo in cui un sistema di intelligenza artificiale influenza e modella il processo decisionale organizzativo e le scelte progettuali dell’IA. Va notato che spiegabilità ed interpretabilità sono spesso usati in modo intercambiabile. Mentre il primo si riferisce alla capacità di conoscere ciò che rappresenta un nodo (neurone) e l'importanza di questo per le prestazioni del modello,  il secondo dovrebbe essere interpretato come la capacità di determinare causa ed effetto del un modello stesso.

 

Pregi e difetti dell’approccio simbolico

Nell’ultima decade si è vista una forte diffusione dei sistemi di apprendimento automatico o sub-simbolico (machine learning). Rispetto al modello originale di IA basato sulla preventiva determinazione di regole e della formalizzazione della conoscenza da parte del programmatore (simbolico), nell’IA basata sul machine learning il programmatore fornisce un metodo di apprendimento, da applicare ai dati cui la macchina ha accesso, per estrarre automaticamente da essi le regole di decisione da applicare al caso concreto.

Il principale dilemma etico-giuridico di questi sistemi è da ricondursi al cosiddetto problema del ‘black box’. Essendo le regole decisionali estratte automaticamente dal sistema sulla base di una immensa quantità di dati (big data), difficilmente queste regole potranno essere comprensibili da un essere umano, e quand’anche lo fossero non sempre sono accettabili da un punto di vista giuridico (un esempio classico: un sistema di IA che ha trovato una correlazione tra il numero annuale di film di Nicolas Cage e le morti per annegamento[3]).

Una soluzione per risolvere il problema dell’opacità dei sistemi di IA, e parallelamente assicurare un livello di equità maggiore, è utilizzare un approccio simbolico nello sviluppo e costruzione dei sistemi algoritmici. Quest’approccio si basa sulla creazione di un’ontologia, una rappresentazione formale di un concetto. Le regole su cui la rappresentazione è costruita sono fondate sulla logica formale, deduttiva ed induttiva, tradotte in un linguaggio comprensibile alla macchina.

Ad esempio, la frase ‘se il soggetto è nato da genitori italiani allora acquista cittadinanza italiana’ può essere formalizzata in ‘se a allora b’. Il compito degli scienziati informatici consiste quindi nel tradurre la proposizione logica in linguaggio di programmazione, ad esempio il linguaggio Prolog[4].

La differenza principale con i sistemi basati sull’apprendimento automatico consiste quindi nel fatto che la creazione di un’ontologia, lo sviluppo della base di conoscenza e regole che governa questi sistemi simbolici, sono interamente di origine umana. Sono i programmatori e gli esperti della materia a tradurre i dati che andranno a formare i collegamenti inferenziali del programma in un linguaggio computazionale. Essendo quest’ultimo infine basato su una logica a noi comprensibile, sarà infinitamente più semplice per un utente, sia egli giudice avvocato o comune cittadino, leggere la soluzione e da questa risalire ai fatti che sono la premessa della conclusione raggiunta dal sistema.

È infine necessario far notare che, quando la legge stessa verrà tradotta in un simile sistema simbolico, non solo sarà possibile risalire alla precisa norma che porta a quel risultato, ma sarà anche assicurata la natura non-discriminatoria del sistema, riflettendo questo la norma stessa (che si presume essere equa).

 

Conclusioni

In conclusione, per garantire il diritto ad essere soggetto di una equa decisione, sarà necessario fare affidamento ad approcci simbolici che rendano esplicita la logica inferenziale del sistema di IA, e che permettano una lettura della struttura interna e del linguaggio  utilizzato dalla macchina. I sistemi di ML, per quanto funzionali, da soli non potranno raggiungere quello standard di trasparenza richiesto dall’UE, nonostante la ricerca nell’eXplainable AI stia, negli ultimi anni, portando ad ottimi risultati.

 

 

[1]I principi richiamati dalla Commissione sono: intervento e sorveglianza umani, robustezza tecnica e sicurezza, riservatezza e governance dei dati, trasparenza, diversità, non discriminazione ed equità, benessere sociale e ambientale, e accountablity.

[2] I cinque principi richiamati dalla Carta Etica sono: Principio del rispetto dei diritti fondamentali, Principio di non-discriminazione, Principio di qualità e sicurezza, Principio di trasparenza, imparzialità ed equità, e Principio del “controllo da parte dell’utilizzatore”.

[3] https://towardsdatascience.com/nicholas-cage-pool-saviour-9c13feafff6f

[4] In Prolog si potrebbe formalizzare in personaCittadinanza(Persona1, italiana) :- genitoriCittadinanza(Genitore1, Genitore2, Persona1, italiana).

 

Altri Talks