09 Agosto 2021

Intelligenza artificiale e responsabilità civile: la spinta europea verso un’armonizzazione della disciplina

CHIARA LEONARDI

Immagine dell'articolo: <span>Intelligenza artificiale e responsabilità civile: la spinta europea verso un’armonizzazione della disciplina</span>

Abstract

La diffusione di dispositivi dotati di intelligenza artificiale comporta inevitabilmente l’insorgenza di rischi in capo agli utenti che li utilizzano, dovuti a potenziali difetti di progettazione, di acquisizione di dati o, ancora, dai limiti del c.d. “machine learning”.

Dal punto di vista giuridico, il tema della responsabilità civile per i danni derivanti dall’utilizzo e dalla produzione di device intelligenti è da tempo oggetto di un ampio dibattito, il quale ha trovato un primo approdo nelle istituzioni europee, attualmente impegnate nell’elaborazione e definizione di un pacchetto di misure sull’uso dell’intelligenza artificiale. Nell’ambito di questo ampio progetto normativo, alla tematica della responsabilità civile è stata dedicata la Risoluzione del Parlamento europeo del 20 ottobre 2020 “recante raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale”, che individua un doppio regime di responsabilità: oggettiva, per l’ipotesi di danno provocato da un sistema di intelligenza artificiale ad alto rischio; per colpa presunta, in caso di danno cagionato dagli altri sistemi di intelligenza artificiale.

Il presente contributo si propone di richiamare la disciplina normativa attualmente in vigore in materia di responsabilità da prodotto difettoso a tutela dei consumatori, evidenziarne i limiti di applicabilità rispetto alle fattispecie di danni provocati dai sistemi di intelligenza artificiale e ripercorrere le principali soluzioni prospettate dal Parlamento europeo con la Risoluzione dello scorso ottobre.

***

L’assenza di una disciplina ad hoc in materia di responsabilità civile per i danni causati dall’intelligenza artificiale e la proposta del Parlamento europeo

Nel nostro ordinamento, il tema della responsabilità civile per danni cagionati dall’utilizzo e dalla produzione dell’intelligenza artificiale non è disciplinato da regole ad hoc e risulta da sempre oggetto di indagine tra gli studiosi del diritto. Per una parte minoritaria della dottrina, soltanto l’intervento riformatore del legislatore potrebbe risolvere i diversi problemi giuridici che le fattispecie di danno da utilizzo di smart device comportano; diversamente, per la maggior parte degli studiosi, le attuali norme civilistiche, se reinterpretate alla luce dei nuovi fenomeni, possono trovare applicazione e soddisfare appieno le esigenze emergenti dai nuovi scenari di innovazione tecnologica.

Per la verità, l’individuazione della disciplina normativa da applicare alle ipotesi di danno causato da dispositivi intelligenti è di grande importanza e attualità: sia in quanto il regime di responsabilità prescelto potrà incentivare o sfavorire lo sviluppo del mercato di smart device, sia perché tale disciplina determinerà il livello di protezione riconosciuto ai soggetti lesi.

L’assenza di una normativa specifica sul punto, tuttavia, non riguarda soltanto l’Italia. A livello europeo, la materia della responsabilità civile dell’intelligenza artificiale non è compiutamente regolamentata. Proprio nell’ottica di dotare gli Stati membri di una “legislazione uniforme, basata su principi e adeguata alle esigenze future”, con la Risoluzione del 20 ottobre 2020 il Parlamento europeo ha rivolto alla Commissione “raccomandazioni dettagliate per l’elaborazione di un regolamento del Parlamento europeo e del Consiglio sulla responsabilità per il funzionamento dei sistemi di intelligenza artificiale”, al fine di armonizzare la disciplina interna degli Stati membri sul tema.

 

Le difficoltà applicative della Direttiva 85/374/CEE alle ipotesi di danno causato da smart device difettoso

Per quanto la Direttiva 85/374/CEE sulla responsabilità per danno da prodotto difettoso “abbia dimostrato, per oltre trent'anni, di essere un mezzo efficace per ottenere un risarcimento per i danni cagionati da un prodotto difettoso”, è lo stesso Parlamento europeo a riconoscere la necessità che la stessa venga rivista per adattarla al mondo digitale”. La sua applicabilità rispetto ai casi di responsabilità per danni provocati da dispositivo intelligente è senz’altro ostacolata dal regime probatorio posto a carico del consumatore danneggiato. In particolare, grava su quest’ultimo l’onere di dimostrare il difetto del prodotto, il danno subito e il nesso di causalità tra difetto e danno (art. 4 della Direttiva), circostanza particolarmente complicata se si considerano i prodotti ad alta complessità tecnologica, i cui comportamenti risultano difficilmente decifrabili anche per gli esperti del settore.

 

La figura dell’operatore e il regime di responsabilità applicabile ai casi di utilizzo di sistemi di IA ad alto rischio

Al fine di superare le problematiche applicative della normativa vigente, con la Risoluzione del 20 ottobre 2020 il Parlamento europeo ha predisposto una proposta di Regolamento contenente due diversi regimi di responsabilità in capo all’”operatore, alternativamente individuato nel soggetto che “esercita un certo grado di controllo su un rischio connesso all’operatività e il funzionamento del sistema di IA e che beneficia del suo funzionamento” (c.d. “operatore front-end”), o nella “persona fisica o giuridica che, su base continuativa, definisce le caratteristiche della tecnologia e fornisce dati e servizi di supporto di back-end essenziale, in grado di esercitare “un elevato grado di controllo su un rischio connesso all’operatività o al funzionamento del sistema di IA” (c.d. “operatore back-end”).

Secondo l’art. 4 della proposta di Regolamento, l’operatore di un sistema di intelligenza artificiale ad “alto rischio è oggettivamente responsabile di qualsiasi danno o pregiudizio causato da un’attività, dispositivo o processo fisico o virtuale guidato da un sistema di intelligenza artificiale, e dispone ulteriormente che gli operatori di sistemi di intelligenza artificiale ad alto rischio non possono eludere la propria responsabilità sostenendo di avere agito con la dovuta diligenza o che il danno o il pregiudizio sia stato cagionato da un’attività, dispositivo o processo autonomo guidato dal loro sistema.
Nell’ottica del Parlamento, le attività definite ad “alto rischio” dovrebbero essere compiutamente individuate in un elenco allegato al Regolamento, soggetto a costanti modifiche ed aggiornamenti da parte della Commissione europea.

A questo proposito, si segnala che con la recentissima proposta di regolamento del 21 aprile 2021 “che stabilisce regole armonizzate sull'intelligenza artificiale (Legge sull'intelligenza artificiale) e modifica alcuni atti legislativi dell'Unione” (meglio nota come “The Artificial Intelligence Act”), la Commissione europea ha fornito una classificazione basata sul rischio dei sistemi di intelligenza artificiale. Applicazioni ad alto rischio sono considerate, tra le altre, quelle il cui utilizzo può avere un impatto sui diritti fondamentali della persona (a titolo esemplificativo, si richiamano i sistemi di riconoscimento facciale, i sistemi per la regolazione dell’accesso ai servizi pubblici e per la gestione della migrazione, dell’asilo e del controllo delle frontiere, o, ancora, i sistemi utilizzati per la gestione di infrastrutture “critiche”, come la fornitura di acqua e gas).

 

La responsabilità dell’operatore di un sistema IA non classificato ad alto rischio

Diversamente, ai sensi dell’art. 8 della proposta del Regolamento, l’operatore di un sistema di intelligenza artificiale che non si configura come un sistema ad alto rischio, è soggetto a un regime di responsabilità per colpa in caso di eventuali danni o pregiudizi causati da un’attività, dispositivo o processo fisico o virtuale guidato dal sistema. L’operatore non è in ogni caso responsabile se riesce a dimostrare che il danno o il pregiudizio arrecato non è imputabile a sua colpa per uno dei seguenti motivi:

  • il sistema di IA si è attivato senza che l’operatore ne fosse a conoscenza e sono state adottate tutte le misure ragionevoli e necessarie per evitare tale attivazione al di fuori del controllo dell’operatore, o
  • è stata rispettata la dovuta diligenza con lo svolgimento delle seguenti operazioni: selezionando un sistema idoneo al compito e alle competenze, mettendo debitamente in funzione il sistema, monitorando le attività e mantenendo l’affidabilità operativa mediante la periodica installazione di tutti gli aggiornamenti disponibili.

 

La previsione di una copertura assicurativa per i danni causati dai sistemi IA ad alto rischio

Quanto ai profili di copertura assicurativa dei danni causati dall’utilizzo dei dispositivi intelligenti, il Parlamento europeo propone la previsione di un obbligo di copertura per i sistemi ad alto rischio. Sempre all’art. 4, la proposta di Regolamento prevede infatti che “l’operatore di front-end di un sistema di IA ad alto rischio si assicura che le operazioni di tale sistema siano coperte da un’assicurazione a copertura della responsabilità civile adeguata agli importi e all’entità del risarcimento previsti. L’operatore di back-end si assicura invece che i suoi servizi siano coperti da un’assicurazione della responsabilità civile prodotti o imprese anch’essa adeguata agli importi e all’entità del risarcimento”.

In un campo inesplorato come quello delle nuove tecnologie, tuttavia, i rischi non sono sempre facilmente calcolabili e una tale incertezza potrebbe comportare la richiesta da parte delle imprese assicuratici di premi molto elevati.

La proposta formulata dal Parlamento europeo, dunque, sembrerebbe aprire la strada ad un’ulteriore sfida: la necessità di adottare un sistema di norme chiare, in grado di guidare le imprese assicuratrici nel calcolo dei rischi derivanti dall’utilizzo dell’intelligenza artificiale.

Altri Talks