20 Luglio 2021

Big tech e la censura di Trump, tra politica, etica e responsabilità giuridica (globalizzata)

ALESSANDRO GENTILONI SILVERI

Immagine dell'articolo: <span>Big tech e la censura di Trump, tra politica, etica e  responsabilità giuridica (globalizzata)</span>

Abstract

I provvedimenti di censura dell’account dell’ex Presidente americano Donald Trump, recentemente adottati da numerosi giganti di Internet -Twitter e Facebook, per rimanere ai principali- hanno proiettato agli occhi del grande pubblico un dibattito che, da molto tempo, anima i giuristi occidentali. Si tratta di stabilire se sia opportuno, ed eventualmente a quali condizioni, corresponsabilizzare i fornitori di servizi digitali per gli illeciti, anche penali, commessi attraverso le proprie piattaforme. Stante la dimensione globale e delocalizzata del ‘fenomeno Internet’, il panorama normativo è variegato, così come le interpretazioni giurisprudenziali.

***

I fatti di Capitol Hill ed il successivo oscuramento di Trump

Il 6 gennaio 2021 migliaia di sostenitori di Donald Trump, incitati da un suo discorso e da ripetute prese di posizione sui social, hanno marciato sul Parlamento statunitense e, dopo un breve assedio, lo hanno espugnato per impedire che la vittoria elettorale di Joe Biden venisse certificata. Il risultato è stato di morti e feriti, di ingenti danni alla struttura ed alla reputazione della democrazia statunitense. Come reazione immediata, numerosi social networks hanno sospeso o cancellato gli account di Donald Trump, per il timore che la sua retorica incendiaria potesse alimentare ulteriori episodi di violenza. Pochi giorni or sono, Facebook ha confermato che la sospensione permarrà almeno sino al gennaio 2023. Su entrambe le sponde dell’Atlantico, queste decisioni hanno scatenato un vivace dibattito nell’opinione pubblica circa la loro legittimità (o comunque opportunità) da una prospettiva politica, con prese di posizione anche di Capi di Stato e di Governo di importanti Paesi. Il confronto pubblico ha tuttavia eluso i clous della vicenda, non registrando le autentiche traiettorie giuridiche su cui si fondano prese di posizione di simile impatto.

 

L’autentica questione giuridica dietro ai provvedimenti: il timore della corresponsabilizzazione

Tralasciando le antipatie politiche, è lo spettro di una diretta chiamata in responsabilità che ha orientato il comportamento di questi importanti corporate citizens. L’oscuramento di Trump da Twitter, per esempio, ha proceduto su matrici tipicamente giuridiche: alla violazione di una norma interna all’azienda, la policy contro la glorification of violence, è conseguita l’adozione di un provvedimento autoritativo inibitorio teso a schermare la piattaforma dall’attribuzione di responsabilità accessoria ed aggiuntiva per reati (ipoteticamente) commessi, in concorso, da un suo utente.

Dal punto di vista della politica criminale, il problema matura nella tensione tra interessi contrapposti: gli indiscutibili vantaggi che Internet apporta allo sviluppo macroeconomico, alla promozione delle relazioni interpersonali, alla condivisione di informazioni, si contrappongono alle significative potenzialità criminogene della rete, tanto rispetto alla creazione di nuove offese, quanto all’amplificazione della capacità offensiva di condotte illecite tradizionali (in materia di pedo-pornografia, terrorismo, hacking a scopo di estorsione, diritto d’autore, e via esemplificando).

In sede ermeneutica, i comportamenti tenuti dai facinorosi di Washington D.C. concretizzano gli estremi di gravi reati di cui un utente di quei social network, Donald Trump, potrebbe essere chiamato a rispondere a titolo di concorso, per aver istigato online i suoi sostenitori all’odio politico.

Considerato che dal punto di vista tecnico pubblicazione e accesso a contenuti online si debbono all’imprescindibile opera degli internet provider -che forniscono le infrastrutture su cui viaggiano o vengono immagazzinati i dati prodotti dagli utenti, li rendono fruibili attraverso i software di selezione ed indicizzazione- secondo alcuni commentatori, il contributo (materialmente) determinante dei provider ai reati commessi sulle loro piattaforme, unito al possesso da parte loro delle risorse organizzative e tecniche per rimuovere i contenuti illeciti, fa sì che essi debbano venire corresponsabilizzati, accessoriamente all’autore principale, per omesso impedimento del fatto.

All’opposto, altri propugnano l’irresponsabilità degli operatori, adducendo anzitutto l’inesigibilità del filtraggio della mostruosa mole di dati caricati sulle piattaforme, operazione il cui enorme costo verrebbe ribaltato sugli utenti. Inoltre, segnalano il pericolo di attribuire a soggetti privati, come tali assoggettati a logiche imprenditoriali, il dovere di limitare liberà civili degli utenti, quali quella di espressione o di iniziativa economica, attraverso norme non modellate nelle sedi democratiche né assistite da apparati di censura vagliati dalle competenti autorità. La vicenda di Donald Trump è emblematica di come Facebook e Twitter abbiano proceduto a silenziare un esponente politico (nel bene e nel male) di grandissimo rilievo sulla base di norme sanzionatorie e procedure applicative autarchiche, non necessariamente rispettose delle garanzie di legge.

 

Lo stato dell’arte della normativa e della giurisprudenza

Nel diritto vigente, in prospettiva globale, la tesi a favore della responsabilità dei provider soccombe. Diversi testi normativi introducono disposizioni che escludono un concorso degli operatori digitali negli illeciti dei loro utenti, onerandoli, al più, di obblighi di collaborazione successiva con le autorità. Tra le principali, il § 230 del Communications Decency Act americano del 1996, il § 202 dell’Online Copyright Infringement Liability Limitation Act del 1998, il tedesco IuKDG del 1997, la Direttiva sul commercio elettronico (2001/31/Ce, recepita in Italia con il D.lgs. 70/03) del 2001. Tutte disposizioni che, con una varietà di soluzioni, istituiscono un meccanismo di esclusione della responsabilità (c.d. safe harbor) per gli intermediari digitali rispetto agli illeciti verificatisi attraverso i loro sistemi, alla condizione fondamentale che non abbiano avuto alcun ruolo nella produzione del contenuto incriminato.

Numerose pronunce giurisdizionali in diversi Paesi del mondo hanno confermato l’ampia immunità di cui godono i provider. In Italia si è registrato un leading case in ambito penale, allorché i vertici di Google vennero chiamati a rispondere, in concorso, dei reati commessi da alcuni utenti attraverso la pubblicazione di un videoclip in cui un ragazzo affetto da sindrome di Down veniva bullizzato all’interno di una scuola; evidentemente, in concorso con gli autori materiali di quelle condotte, che avevano caricato il video. La Corte di Cassazione, con una sentenza del 2013, escluse la corresponsabilità proprio sulla base delle disposizioni e dei principi generali che garantiscono gli operatori digitali dell’obbligo di filtrare i contenuti illeciti. Analogamente, le Corti dello Stato di New York hanno recentemente negato la corresponsabilità di Facebook in attentati terroristici in Medio Oriente, fomentati anche da post caricati sulle sue pagine.

Tuttavia, i trend più recenti mostrano una progressiva erosione dello spazio di salvaguardia degli intermediari. Sono state introdotte normative (come la legge americana ‘FOSTA’ del 2018 sullo sfruttamento sessuale online, o la recente NetzDG tedesca) che limitano l’immunità alla responsabilità civile, o che la escludono per determinati illeciti. E si diffondono interpretazioni giurisprudenziali rigorose sull’inadempimento agli obblighi di cooperazione successiva. I fatti di Capitol Hill hanno mostrato a tutto il mondo l’effetto moltiplicatore dei social network sull’ordine pubblico e, di converso, la capacità dei giganti del web di intervenire alla radice del problema.

In disparte ogni considerazione sull’opportunità politica di affidare a soggetti privati poteri pervasivi su diritti primari degli utenti, appare chiaro che, dal punto di vista giuridico, quella della (cor)responsabilità è la strada da seguire per ottenere l’ingaggio degli intermediari nella moderazione dei contenuti. Non per nulla, negli Stati Uniti post-trumpiani continuano a discutersi disegni di legge per limitare, o abrogare del tutto, la § 230, e nell’Unione Europea vanno avanti i lavori per l’adozione dei Digital Services/Markets Acts, che, per la prima volta, si propongono di regolare organicamente la materia su tutto il continente.

 

Conclusioni

I tragici eventi del 6 gennaio 2021 hanno impresso nuovo slancio alla discussione sull’opportunità di affidare ai giganti del web un ruolo di controllori dei contenuti, in funzione di salvaguardia di interessi fondamentali dei singoli e delle comunità. La leva giuridica per ottenere questo risultato è quella della corresponsabilizzazione per gli illeciti commessi attraverso le loro piattaforme. Tradizionalmente rigettata dalla normativa e dalla giurisprudenza, quest’ipotesi sta conoscendo un rinnovato interesse negli interventi normativi più recenti, che guardano sempre più ai providers come anelli fondamentali della catena della legalità su internet.

Altri Talks