11 Aprile 2023

Il caso ChatGPT e l’effetto “tzunami” generato dal provvedimento del Garante per la Protezione dei Dati Personali italiano

CRISTINA RABAZZI

Immagine dell'articolo: <span>Il caso ChatGPT e l’effetto “tzunami” generato dal provvedimento del Garante per la Protezione dei Dati Personali italiano</span>

Abstract

I principi normativi del GDPR e le criticità insite nell’utilizzo di ChatGPT messe in evidenza dall’Autorità Garante italiana con il Provvedimento del 30 marzo 2023.

***

ChatGPT: una Intelligenza Artificiale generativa

ChatGPT è l’acronimo di Chat Generative Pre-trained Transformer, che tradotto in italiano sta per “Trasformatore Preistruito Generatore di Conversazioni”. Si tratta di un modello di elaborazione del linguaggio naturale che utilizza algoritmi di apprendimento automatico per interagire con le persone come se fosse un essere umano. Il livello raggiunto con la versione 3 è talmente avanzato che è realistico pensare che possa agevolmente superare il Test di Turing, ideato dal matematico statunitense nel 1950 sulla base di un esperimento volto a riconoscere in una macchina la presenza di un comportamento attribuibile ad un essere umano.

Tecnicamente ChatGPT 3 è stato addestrato utilizzando un metodo di apprendimento per rinforzo.

L’addestramento avviene con l’impiego di reti neurali composte da unità di elaborazione, che operano come il cervello umano, collegate tra loro tramite “sinapsi” ciascuna con un proprio “peso”. Durante il processo di addestramento, i pesi delle sinapsi vengono aggiornati in modo che la rete neurale produca una risposta che si avvicina sempre di più alla risposta corretta. Una volta che la rete neurale è addestrata, può essere utilizzata per elaborare nuovi dati in ingresso utilizzando i pesi delle sinapsi acquisiti.

Dal punto di vista tecnologico, i principi illustrati consentono la creazione di modelli di intelligenza artificiale sempre più avanzati e ormai adottati da molteplici attori.

 

Gli scenari filosofici, sociologici, giuridici e ancora tecnologici che ne possono discendere

Lo scenario filosofico e sociologico è quello più esplorato, risalendo il concetto di intelligenza artificiale già al secolo scorso. Sono diversi i testi che sollevano dubbi circa il dialogo uomo-macchina in relazione allo sviluppo della persona compromesso dalla troppa confidenza nel mezzo tecnologico, ma anche al futuro stesso dell’umanità che potrebbe trovarsi inerme di fronte alla volontà di una intelligenza, di cui ha perso il potere di controllo e, quindi, capace di deciderne in autonomia le sorti in una frazione di secondo.

Gli scenari giuridici e tecnologici sono strettamente interconnessi in quanto potremmo arrivare al punto, ma forse ci siamo già, in cui non sappiamo esattamente cosa fa un’intelligenza artificiale.

Se infatti il procedimento di apprendimento sopra descritto è chiaro e definito, poco conosciamo dei successivi passi di apprendimento e quindi l’inquadramento giuridico che ne deriva.

ChatGPT elabora dati fermi all’anno 2021, ma raccoglie dati attuali grazie alle nostre conversazioni con esso e prosegue l’apprendimento scandagliando la rete, per le versioni successive.

 

Il provvedimento del Garante della Privacy e l’impatto di ChatGPT sui dati personali

Il vero buco nero, che ha indotto il Garante per la Protezione dei Dati Personali ad intervenire con un Provvedimento d’urgenza, da parte del Presidente del Collegio, ai sensi dell’art. 58, par. 2, lett. f, GDPR, disponendo la misura della limitazione provvisoria del trattamento dei dati degli interessati stabiliti nel territorio italiano e chiedere chiarimenti alla società OpenAI, è la procedura di raccolta dati e il relativo trattamento che ChatGPT sta attuando. Il problema posto riguarda diversi aspetti normativi e precisamente:

- l’assenza di una informativa per gli utenti, come invece richiesto dall’art. 13 GDPR,

- la mancanza di una idonea base giuridica che ne giustifichi il trattamento, da formularsi ai sensi dell’art. 6 GDPR,

- la carenza di una concreta verifica dell’età dell’utenza che accede a tale servizio, facendo particolare attenzione all’accesso da parte dei minori di età di 13 anni, come anche disciplinato dall’art. 8 GDPR,

- il mancato rispetto del principio di correttezza dei dati, ai sensi dell’art. 5 GDPR, con la produzione di informazioni spesse volte non rispondenti al dato reale.

Tutto è partito dalla segnalazione di un Data Breach che OpenAI ha subito nel marzo scorso, con il quale è stata esposta la cronologia delle chat di un utente e reso in chiaro i dati personali e delle carte di credito dell’1% degli abbonati al servizio. Per quanto la stessa OpenAI abbia affermato che questo evento non abbia comportato alcun rischio per gli utenti, pare evidente come una simile violazione dovesse essere attenzionata dall’Organo di controllo.

Oggi il dato personale è un bene di valore, non a caso spesso viene chiesto in cambio dell’accesso a siti internet o per la fruizione di servizi, senza che l’utente se ne renda pienamente conto, mediante l’accettazione di cookies o lunghi formulari online.

Nel caso di ChatGPT, l’entusiasmo che è scaturito per le sue potenzialità ha fatto sì che la maggior parte degli utenti non abbia prestato molta attenzione a quali dati personali potessero essere elaborati, dove questi potessero essere conservati e come fossero concretamente utilizzati e protetti.

Il Garante italiano esaminando le condizioni del servizio e contestualizzandole con il dettato normativo del GDPR ha solo riscontrato la mancata evidenza dei sopra citati adempimenti che rappresentano i capisaldi della protezione dei dati personali, senza una manifesta strategia ostativa allo sviluppo e all’utilizzo di tale tecnologia.

Sicuramente l’approccio di chi sviluppa questi strumenti è quello di metterli a disposizione degli utenti e perfezionarli in base all’impatto che hanno sulla comunità (come anche affermato da Mira Murati, Chief Technology Officer di OpenAI, in una recente intervista a La Stampa). Cosa che probabilmente mal si concilia con il principio di privacy by design (art. 25 GDPR), che richiede proprio un agire opposto, ovvero lo svolgimento di una valutazione a priori dell’impatto che un trattamento può avere sui soggetti interessati e di adottare misure tecniche ed organizzative per garantirne la maggiore tutela.

Nel caso in esame, ricordiamo che il Garante non ha bloccato l’accesso a ChatGPT, ma ha semplicemente disposto la limitazione del trattamento dei dati degli utenti italiani, mentre è stata la stessa OpenAI, di propria iniziativa, a decidere di bloccare gli accessi da parte degli IP italiani, in via preventiva, nell’attesa di fornire i chiarimenti richiesti che forse anch’essa deve ancora analizzare e comprendere.

Siamo davvero sicuri che questa decisione porti il nostro Paese tra gli ultimi al mondo per libertà di informazione e democrazia? O forse potrebbe essere il primo tra i Paesi che si è posto l’obiettivo principale di tutelare i dati dei propri cittadini?

Del resto, abbiamo visto che nei giorni successivi a tale Provvedimento, anche altri Paesi, non solo europei, hanno manifestato particolare interesse all’iniziativa della nostra Autorità.

Un passo ulteriore che conferma che quella del Garante non sia stata una presa di posizione contro l’evoluzione tecnologica è stato l’esito dell’incontro che lo stesso ha avuto il 5 aprile scorso, proprio con OpenAI, conclusosi con una intesa di collaborazione per meglio chiarire la gestione delle informazioni trattate e trovare una positiva soluzione delle criticità rilevate riguardo a ChatGPT. 

Alla vicenda in esame si collega probabilmente la vera sfida che si pone per gli operatori tecnici e le istituzioni, ossia quella di trovare e definire una regolamentazione unitaria in materia di AI che sia egualmente efficace per la tutela degli individui e per il progresso tecnologico, che non può e non deve arrestarsi.

Altri Talks