16 Novembre 2020

Intelligenza artificiale in medicina: quale impatto sulla responsabilità medica?

NESRINE KRAIEM

Immagine dell'articolo: <span>Intelligenza artificiale in medicina: quale impatto sulla responsabilità medica?</span>

Abstract

La progettazione di sistemi informatici volti ad attribuire alle macchine caratteristiche tipicamente umane costituisce una delle mete più affascinanti del progresso tecnologico- scientifico. La riproduzione del ragionamento umano realizzata attraverso algoritmi di deep learning – ispirati alla struttura, funzionamento e connessioni delle reti neurali biologiche – solleva la questione circa l’opportunità di riconoscere personalità giuridica ai robot intelligenti. Più specificamente, sorge l’esigenza di determinare se, ai fini di una tutela efficace contro i comportamenti dannosi del robot dotato di A.I., la normativa attuale offra già delle soluzioni adeguate o si renda necessario introdurre una disciplina ad hoc che regolamenti il fenomeno.

***

Le applicazioni dell’A.I. in medicina tra benefici, necessità e problematiche giuridiche

L’impiego dell’intelligenza artificiale in ambito medico rappresenta, oggi, una realtà emergente e dagli scenari futuri sempre più consolidati. Difatti, gli indubbi benefici apportati, in termini di tutela del diritto alla salute del paziente – quali diagnosi precoci e somministrazione di terapie sempre più precise e meno invasive –, vengono conclamati dal Parlamento europeo che, con la Risoluzione del 16 febbraio 2017(1), sottolinea l’importanza di incentivare lo sviluppo di tali tecnologie.

Un obiettivo pienamente condivisibile in considerazione, altresì, dell’utilizzo necessitato dei sistemi intelligenti nella gestione ed analisi dei big data della salute, aumentati esponenzialmente negli ultimissimi anni con le accentuate applicazioni dell’Internet of Things nel settore sanitario (IoMT).

L’intervento delle istituzioni europee in materia prende le mosse da una precisa constatazione: la sinergia originata dall’applicazione di un sistema di artificial intelligence nella robotica è in grado di stravolgere gli attuali assetti della responsabilità civile. Più precisamente, il robot dotato di A.I. assume un rilevante margine di autonomia decisionale che si traduce inevitabilmente in imprevedibilità comportamentale: tali caratteristiche, di conseguenza, non consentono di inquadrare la fondamentale questione della responsabilità giuridica per danno cagionato da robot dotato di A.I. entro i confini delineati dalle soluzioni normative odierne – che risultano essere quindi inadeguate – sia a livello codicistico (art.2043 c.c.), sia a livello comunitario (direttiva 85/374/CEE sulla responsabilità per danno da prodotti difettosi(2); direttiva 93/42/CEE sui dispositivi medici(3).

La capacità di prendere decisioni e di metterle in atto nell’ambiente circostante, indipendentemente da qualsiasi controllo o influenza esterna, non consente, infatti, di qualificare in modo pacifico il robot intelligente né in termini di mero strumento, né di prodotto, né tantomeno di dispositivo medico. La strong A.I. sembrerebbe dunque rivendicare spazi a sé stanti nella regolamentazione giuridica, tant’è che, sul punto, si è innescato un accesissimo dibattito circa la necessità di creare una nuova categoria giuridica avente caratteristiche specifiche ed implicazioni proprie. Di ciò si fa portavoce il Parlamento europeo che, con la risoluzione citata, ha invitato la Commissione europea a considerare, nell’elaborazione di una proposta legislativa che disciplini organicamente la materia in esame, il riconoscimento di uno status giuridico (c.d. personalità elettronica) in capo ai robot dotati di A.I., comportante diritti ed obblighi ben precisi, fra cui l’obbligo di risarcire il danno cagionato.

 

Il robot intelligente come mero strumento: tra responsabilizzazione del medico utilizzatore e carenza di tutela del paziente

La proposta del Parlamento europeo risponde ad una precisa esigenza: quella di non lasciare privi di riparazione i pazienti danneggiati dall’impiego di sistemi intelligenti nell’ambito della relazione di cura.

In effetti, i limiti delle regole ordinarie in materia di responsabilità civile sono chiari:

  1. i robot non possono essere considerati “personalmente” responsabili dei propri atti od omissioni che cagionino danni a terzi;
  2. le norme esistenti in materia di responsabilità coprono solo le ipotesi in cui la causa di un’azione o di un’omissione del robot possa essere ascritta ad uno specifico agente umano;
  3. ai fini dell’accertamento della responsabilità è necessario che il soggetto agente abbia potuto prevedere ed evitare il comportamento nocivo del robot.

Considerare il robot in un’ottica meramente strumentale condurrebbe alla responsabilizzazione del medico utilizzatore il quale, senza colpa, verrebbe chiamato a rispondere della scorretta o inesatta prestazione sanitaria “erogata” dall’apparecchiatura dotata di intelligenza artificiale. Se da un lato ciò potrebbe essere giustificato con riferimento alla posizione di garanzia che la Costituzione (ai sensi del combinato disposto degli artt. 2 e 32) e, pedissequamente, la giurisprudenza attribuiscono al medico nei confronti del paziente, dall’altro si pone chiaramente in contrasto con l’inquadramento normativo della responsabilità medica in termini extracontrattuali (art. 7 L. n. 24/2017).

Il timore dettato dalla formulazione di un’ipotesi di responsabilità oggettiva, peraltro, potrebbe determinare l’impiego sempre più sporadico di robot dotati di A.I. da parte della classe medica, portando alla messa a punto di una nuova species del noto fenomeno di c.d. medicina difensiva.

Posto l’obbligo del medico non solo di attivarsi a prestare le cure al paziente ma anche di impedire l’insorgenza o l’aggravamento di condizioni patologiche che siano prevedibili ed evitabili, l’attuale quadro giuridico risulta, in definitiva, del tutto insufficiente a garantire al paziente il fondamentale diritto al risarcimento dei danni cagionati dalla nuova generazione di robot, dotati di capacità di adattamento e di apprendimento tali da implicare un significativo e preoccupante grado di imprevedibilità.

 

Verso la costruzione di un sistema sostenibile di responsabilità?

L’incompatibilità delle caratteristiche proprie di un sistema di intelligenza artificiale e la normativa in materia di responsabilità civile dà spazio a ineludibili margini di irresponsabilità, ai quali corrispondono gravi vuoti di tutela. In ossequio al principio incardinato nell’art. 2043 c.c., la riparazione del danno, infatti, non può prescindere dall’accertamento della colpevolezza del medico curante: in altri termini, l’ordinamento giuridico italiano non riconosce al paziente un autonomo diritto al risarcimento del danno, ma la sua tutela passa necessariamente attraverso l’accertamento in giudizio della responsabilità del medico.

Premesse queste considerazioni, l’introduzione di una disciplina ad hoc potrebbe realizzare, attraverso il riconoscimento di uno status giuridico al robot intelligente, la costruzione di un sistema di responsabilità sostenibile ed in grado di contemperare i numerosi interessi in gioco, tra cui l’esigenza di un sereno esercizio della professione sanitaria e la protezione del paziente. L’idea di partenza è quella di una stretta cooperazione tra intelligenza umana e intelligenza artificiale nella somministrazione della prestazione di cura. Con una consapevolezza di fondo: “Nessun robot, nessun algoritmo potrà mai sostituire il medico, perché l’arte professionale sta nell’interpretare i dati secondo le esigenze del paziente”(4).

 

 

(1)Recante “raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL))”, in Gazzetta Ufficiale dell’Unione europea.

(2) Recepita in Italia con il DPR 224/1988, abrogato dal D. Lgs. n.206/2005 (“Codice del Consumo”).

(3) Recepita in Italia con il D. Lgs. 46/97.

(4) Filippo Anelli, Presidente della FNOMCeO, in occasione degli Stati generali della professione medica del 16 e 17 maggio 2019, Roma.

 

 

 

 

 

 

 

 

 

 

Altri Talks