04 Settembre 2023

L'intelligenza artificiale per gli avvocati, tra mito e realtà

ALESSANDRO M. LERRO

Immagine dell'articolo: <span>L'intelligenza artificiale per gli avvocati, tra mito e realtà</span>

Abstract

Le nuove tecnologie hanno sempre una elevata capacità di fascinazione, soprattutto se comprensibili da parte del grande pubblico; il 2023 è stato caratterizzato da una sovraesposizione delle potenzialità dell’intelligenza artificiale, celebrata dai media per le effettive potenzialità e commentata con apocalittiche riflessioni sociologiche. L’impatto che avrà sul mondo legale non è sicuramente banale, ma i rischi sono altrettanto rilevanti e la sua funzionalità dovrà essere limitata ad alcune aree di supporto operativo.

***

L’uso di alcune risorse digitali avanzate e in particolare dell’intelligenza artificiale presenta diverse tipologie di rischi per i professionisti del mondo legale sintetizzabili in almeno tre categorie.

Una prima categoria di rischi, che potremmo definire “passivi”, comprende quelli legati ad un uso superficiale o inappropriato degli strumenti, tale da esporre la sicurezza del legale e dei suoi clienti. Come è noto, l’intelligenza artificiale si basa sul trattamento di grandi quantitativi di dati e sulla relativa elaborazione al fine di sviluppare operazioni partendo da detto bacino di conoscenze. Un sistema di intelligenza artificiale è tanto più efficiente quanto maggiore è la quantità e qualità di dati che riesce a trattare, rendendo così impraticabile l’eventuale ipotesi di utilizzazione di uno strumento limitato ad un solo studio legale, per grande che esso possa essere. Questa caratteristica strutturale dello strumento comporta la inevitabile esposizione al sistema informatico di prezioso know how e conoscenze acquisite dagli utilizzatori, che verranno automaticamente recuperate e riproposte dal sistema agli utilizzatori successivi.

Esiste inoltre un obiettivo rischio di diffusione di dati, fatti o informazioni concernenti un cliente che devono rimanere coperti dal più stretto riserbo per ragioni deontologiche e contrattuali.

Una seconda categoria di rischi, che possiamo definire “attivi”, colpisce i documenti che vengono redatti con questi sistemi digitali: salvo modesti correttivi, l’intelligenza artificiale riesce raramente a discernere dati qualitativi, e quindi rischia di impostare un prodotto documentale basandosi esclusivamente sulla preponderanza delle informazioni nel database, ritenuta in linea di principio affidabile.  Inoltre, per funzionare in modo adeguato, la prospettazione del caso deve essere assolutamente completa, circostanza che qualsiasi professionista sa essere estremamente difficile, in considerazione delle numerose variabili che emergono negli approfondimenti di ciascun caso e nella continua interazione con il cliente. Invece, l’intelligenza artificiale è un motore che risolve un problema sulla base di un determinato input, senza indagare la possibile esistenza di varianti non esplicitate e senza poter mettere in dubbio informazioni di partenza possano risultare inesatte. L’errata o incompleta predisposizione della c.d. query (cioè la richiesta di ingaggio del software) può quindi pregiudicare la qualità dell’output. Non è un caso se gli usi più efficienti dell’intelligenza artificiale sono in settori che richiedono un alto livello di elaborazione semantica o grafica (ad es. composizione di testi, creazione di immagini ecc.) ed un basso livello di elaborazione tecnica.

La terza tipologia di rischi riguarda profili “qualitativi”. Salvo attività routinarie a basso valore aggiunto, la predisposizione di un documento legale parte da una fase analitica che non consiste, di regola, in una mera acquisizione di informazioni, ma in una selezione ragionata di informazioni orientata dall’esperienza; prosegue poi con le riflessioni sulle possibili soluzioni strategiche o tattiche, che richiedono competenze ma anche intuito, fantasia, oltre ad esperienza pratica, e si conclude poi con la parte di elaborazione di un documento, che può essere un parere legale, un contratto o un atto.

Quanto più il servizio legale è sofisticato, tanto più la competenza non rappresenta il driver di successo e quindi la mera elaborazione delle informazioni porta ad un risultato scarsamente qualitativo. In definitiva, l’intelligenza artificiale non si discosta molto dalla deprecabile e abusata pratica del “copia e incolla” che quotidianamente produce significativi danni, generando acritici output. Per i servizi legali più complessi, quindi, si deve prendere atto della mera strumentalità delle soluzioni digitali e sfruttarle al meglio per quello che esse oggi possono offrire.

Ad esempio, nel settore dell’M&A, prodotti di intelligenza artificiale possono risultare utili in fase di due diligence, per le traduzioni di documenti redatti in più lingue diverse, per analisi di scenario concernenti rischio di credito, mentre la regia dell’operazione e la gestione delle negoziazioni deve rimanere prerogativa esclusiva del professionista.

A ben vedere, il grande equivoco sulla potenzialità dell’intelligenza artificiale di incidere sui servizi legali nasce dalla diffusa incapacità di distinguere tra efficacia operativa e strategia. La ricerca di produttività, qualità e velocità sta finalmente generando un notevole numero di strumenti e tecniche di gestione. Ma vi è un concreto rischio che, poco a poco, quasi impercettibilmente, gli strumenti di gestione prendano il posto della strategia, in una illusoria crescita qualitativa, che invece rischia di frustrare le caratteristiche endemiche delle professioni intellettuali.

 

Altri Talks