LA DEONTOLOGIA DELL’AVVOCATO E L’INTELLIGENZA ARTIFICIALE

di Vincenzo Comi*

Prima che lo tsunami dell’intelligenza artificiale travolga la nostra professione è doveroso affrontare l’argomento esaminando sinteticamente le regole esistenti e le prospettive di interpretazione.
Non è retorica, ma ne va della sopravvivenza del nostro ceto e la deontologia rappresenta la chiave necessaria per affacciarci a questa nuova frontiera.
Siamo in una fase di grande e veloce sviluppo dell’intelligenza artificiale. Proprio in questi momenti è necessario riflettere e immaginare il futuro per assicurare un utilizzo responsabile e deontologicamente corretto di questi nuovi e sconosciuti strumenti nella nostra professione forense.
Il presupposto indispensabile di un uso responsabile è la conoscenza e in particolare della tecnologia posta a fondamento del sistema utilizzato, le criticità che derivano dall’apprendimento automatico in assenza di interpretazione, il rischio del linguaggio e dei contenuti massivi che possono prestare il fianco a letture fuori dal contesto reale o disallineate rispetto al presupposto fattuale del ragionamento giuridico.
Il rispetto della normativa vigente a livello nazionale ed europeo in tema di intelligenza artificiale è un altro presupposto necessario per un comportamento eticamente corretto dell’avvocato oltre che la verifica della compatibilità dell’offerta del servizio di fornitura del servizio con gli standard deontologici.

Il nostro codice deontologico vigente non contiene alcun riferimento all’intelligenza artificiale, ma già nelle istituzioni forensi europee inizia a intravedersi una certa attenzione. Abbiamo, infatti, le indicazioni della Federazione Europea degli Avvocati che ha pubblicato le prime linee guida della Commissione nuove tecnologie. Si tratta di prime riflessioni legate all’attuale situazione di sviluppo alla luce della diffusione della ChatGPT, attiva dal 30 novembre 2022.

Dalle criticità emerse nell’uso incauto della CHAT GPT sono nate le prime discussioni che hanno portato alla elaborazione delle linee guida: queste riguardano la comprensione della tecnologia, la consapevolezza dei limiti, la normativa e l’aggiornamento, il ruolo delle competenze umane, il rispetto della deontologia e quindi del segreto professionale, la protezione dei dati personali e la comunicazione con i clienti.

L’intelligenza artificiale già da qualche tempo imperversa e crea problemi nel mondo legale. Oggi l’uso di CHAT GPT è diffuso nel mercato globale dei servizi legali. C’è l’esempio della start-up americana DO NOT PAY che ha lanciato la pubblicità del Robolawyer: un milione di dollari a chi avesse accettato di farsi rappresentare in tribunale dall’avvocato robot.

Il caso dello studio legale americano Levidow che ha ammesso di aver presentato un caso contenente citazioni di casi falsi che avevano ottenuto dalla chat box GPT ha fatto scoprire il fenomeno delle allucinazioni del sistema.

Le linee guida rappresentano un punto di partenza per individuare le buone prassi in un fenomeno che si dovrà necessariamente governare per evitare conseguenze irreparabili nella nostra professione. Sono sette prassi chiave per “mantenere alti standard etici, salvaguardare la riservatezza dei clienti e assicurare un utilizzo consapevole e responsabile dell’intelligenza artificiale generativa e dei modelli linguistici di grandi dimensioni nel contesto legale”.

La base di partenza per esaminare il rapporto dei limiti dell’intelligenza artificiale e la nostra professione è la normativa professionale vigente, che nel nostro Stato è abbastanza recente, ma non attuale rispetto all’evoluzione della professione degli ultimi anni.

I principi contenuti nell’articolo 3 della legge 247 del 2012 rappresentano il fondamento delle norme di comportamento e si tratta di principi che delimitano il perimetro della liceità del comportamento dell’avvocato.

La qualità dell’esercizio del diritto di difesa dell’avvocato (persona) è al centro dei doveri deontologici contenuti nel nuovo codice.

L’articolo 1 offre una dimostrazione plastica di tale centralità essendo particolarmente ispirato alla difesa penale: “l’avvocato tutela in ogni sede il diritto alla libertà, l’inviolabilità e l’effettività della difesa, assicurando nel processo, la regolarità del giudizio e del contraddittorio”.
La tutela del diritto di difesa non è per nulla scontata ma anzi impone l’indispensabile opera dell’avvocato che ne assicuri il rispetto nell’interesse del proprio assistito e di tutti i cittadini coinvolti in un procedimento penale.

Il codice deontologico affida all’avvocato l’onere di assicurare nel processo la regolarità del giudizio e il rispetto delle regole del contraddittorio.

Ciò comporta per l’avvocato il dovere di possedere competenza tecnica e consapevolezza del proprio ruolo di difensore dei diritti fondamentali dei propri assistiti. In questo contesto si inserisce la deontologia in relazione all’intelligenza artificiale ed è subito chiara la rilevanza e i limiti che sono contenuti nelle raccomandazioni della Federazione degli Ordini Europei: competenza, segreto professionale, privacy prima di ogni altro.

La regolarità del giudizio e del contraddittorio impone che l’avvocato si attivi attraverso l’esercizio del diritto di difesa effettiva. Pertanto, a monte c’è una deontologia della categoria prima che del singolo affinché si introduca negli ordinamenti una tecnologia compatibile con tale funzione del ceto. Questa premessa riguarda la regolamentazione e di conseguenza le condotte dei singoli avvocati per far rispettare i diritti fondamentali delle persone coinvolte nel processo.

Il dovere di competenza disciplinato dall’articolo 14 è molto importante anche nella prospettiva dell’uso dell’intelligenza artificiale. Da questo scaturiscono le previsioni disciplinari dell’articolo 26 in tema di adempimento del mandato. L’accettazione di un incarico professionale presuppone la competenza a svolgerlo e costituisce violazione dei doveri professionali il mancato, ritardato o negligente compimento di atti inerenti al mandato o la nomina quando derivi da non scusabile e rilevante trascuratezza degli interessi della parte assistita.

La competenza consiste nella conoscenza del funzionamento della tecnologia usata, e il pericolo della mancanza di interpretazione dei prodotti forniti dalle chat o da altri sistemi di intelligenza artificiale. L’avvocato non può sostituire in alcun modo il proprio intervento, la propria capacità critica e in sostanza la propria competenza. Ovviamente in alternativa verrebbe meno il profilo del dovere di competenza. La competenza e la professione forense sono una endiadi indissolubile della vita umana prima che professionale, con l’unica alternativa possibile che è l’eliminazione della figura dell’avvocato, circostanza questa inimmaginabile oltre che da rifiutare con fermezza. Già oggi la vita professionale si caratterizza per una difficile visione del futuro. I grossi studi tendono a impostare l’organizzazione con una visione manageriale nella quale a capo della law firm si pone più un imprenditore o manager piuttosto che un avvocato. In questo contesto il pericolo è l’azzeramento dell’intero sistema legale umano.

Gli strumenti di intelligenza artificiale – con le dovute regole e prescrizioni a tutela della collettività – possono semplificare i servizi legali offerti ma non possono mai sostituire le decisioni dell’uomo e i risultati delle macchine dovrebbero essere sempre controllati in modo autonomo attraverso analisi umane.

Altro presidio deontologico nella prospettiva dell’uso dell’intelligenza artificiale è il dovere di segretezza e riservatezza articolo 13 codice deontologico forense. L’avvocato è tenuto al segreto professionale e al massimo riserbo su fatti e circostanze apprese nell’esercizio professionale. Da qui l’importanza di evitare la diffusione di dati riservati che vengano inseriti nelle domande formulate al sistema di intelligenza artificiale eventualmente utilizzato. È assolutamente vietato inserire domande su chat contenenti dati riservati dei clienti.

In questa prospettiva si inserisce il dovere di informazione articolo 27 codice deontologico forense. L’avvocato deve informare il cliente delle caratteristiche e dell’importanza dell’incarico e delle attività da espletare, precisando le iniziative e le ipotesi di soluzione. Dovrà anche informare il cliente dell’utilizzo di sistemi tecnologici di intelligenza artificiale. Sarà necessario prevedere apposite linee guida di informazione dei clienti in relazione all’uso dell’intelligenza artificiale e anche dei pericoli per ogni cittadino di un incongruo uso e dei rischi di affidarsi a tali sistemi per consulenze legali.
Dovrà essere rafforzata la tutela dei dati riservati dei clienti, osservando le regole e le indicazioni del Garante della Privacy. Non si può consentire l’utilizzo dei dati riservati dei clienti da parte delle società che sviluppano sistemi di intelligenza artificiale.

Sarà necessario implementare l’informativa sul trattamento dei dati personali negli studi legali prevista ai sensi dell’articolo 13 del Regolamento UE 2016/679. Non si potrà prescindere dalla previsione di un punto relativo all’esistenza di processi decisionali automatizzati compresa la profilazione dei dati. Sarà necessario inserire la comunicazione specifica che informi il cliente circa l’adozione o meno di processi decisionali automatizzati e di profilazione, se si avvalga o meno dell’intelligenza artificiale generativa (GenAI) con i dati dei propri clienti, se proceda o meno alla documentazione dei dati dei clienti e con quali modalità tuteli la riservatezza dei dati sensibili eventualmente attraverso l’oscuramento. Andrà comunque segnalato l’utilizzo di modelli di intelligenza artificiale presenti in banche dati professionali o gestionali realizzate da terzi che circolano su piattaforme o canali multimediali.
L’obiettivo è arrivare preparato e consapevole all’uso di questo nuovo strumento nell’esercizio della professione forense, sempre nell’interesse della società e dei cittadini coinvolti nelle vicende giudiziarie.

In ultimo vanno segnalate le raccomandazioni su intelligenza artificiale e Deontologia elaborate dal G7 delle delegazioni delle Avvocature svolto a Roma il 17 aprile 2024. Nell’ambito della sessione del G7 dedicato a “IA, e valori democratici, Etica, innovazione tecnologica e tutela dei diritti umani”, il contenuto delle raccomandazioni richiama con forza il limite del rispetto dei principi di trasparenza ed equità dei sistemi di intelligenza artificiale per la difesa dei diritti in ambito giudiziale e stragiudiziale, tutela della pricacy, supporto dei sistemi ma mai sostituzione, formazione e competenza degli avvocati, controllo della tipologia dei dati e controllo del risultato conseguente, definizione delle responsabilità sia in relazione alla creazione dei sistemi che di utilizzo degli stessi.

Inoltre, un punto fermo della raccomandazione è rappresentato dal divieto di provvedimenti elaborati totalmente da sistemi automatici per garantire il giusto processo, l’obbligo di indicare del sistema di IA utilizzati nel corso del procedimento e della decisione, il coinvolgimento dell’avvocato per la verifica, ove possibile, della validazione dei sistemi di intelligenza artificiale nell’attività professionale e nei sistemi giuridici.

È molto importante notare che tutte le delegazioni delle avvocature del G7 convengono sulla opportunità di porre l’etica e la deontologia alla base delle raccomandazioni. Ed infatti l’avvocato che faccia uso di sistemi di intelligenza artificiale deve adeguatamente informare la parte assistita, ferma restando l’osservanza dei doveri etici e deontologici.
L’ultima raccomandazione è rivolta alle istituzioni forensi affinché perseguano l’obiettivo che i provvedimenti dei giudici siano sempre il risultato di una valutazione umana e imparziale per ogni singolo caso.
È solo l’inizio ma la strada è lunga nella consapevolezza che questo impegno di tutti sarà determinante per la sopravvivenza del nostro ceto.

 

*Avv. Consigliere Ordine Avvocati Roma

Torna in alto