INTELLIGENZA ARTIFICIALE: PREDIZIONE DELLA DECISIONE E VALUTAZIONE DELLA PROVA

 

di Paolo Carnuccio* – 

Il termine intelligenza indica in generale un insieme di caratteristiche relative alle capacità mentali degli esseri umani. Lo studio dell’intelligenza è stato affrontato da diverse discipline (come filosofia e psicologia) da più di duemila anni.

Negli anni cinquanta, anche grazie allo sviluppo degli elaboratori elettronici, diversi campi di ricerca su tematiche riguardanti lo studio dell’intelligenza sono confluiti in un’unica disciplina autonoma denominata Intelligenza Artificiale (IA)[1].
Oggi, l’intelligenza artificiale ha invaso anche il terreno giudiziario. La capacità intrinseca della struttura di apprendere e di risolvere i problemi determina notevoli conseguenze in termini di predizione della pronuncia giudiziaria e di valutazione della prova.

Non potendosi affrontare in modo esaustivo i variegati risvolti dello sviluppo dell’intelligenza artificiale sul mondo del diritto, il proposito delle presenti riflessioni attiene alla rilevanza dello strumento ed alla sua efficacia concreta. L’operazione supera i panorami diversificati che ne hanno tracciato i contenuti fino ad un decennio orsono[2] per giungere ad interrogativi circa l’attribuzione di valutazioni giuridicamente rilevanti alle entità artificiali[3].
Il campo di analisi dovrà essere condotto su quegli aspetti che in maniera più diretta coinvolgono il dominio della previsione sull’epistemologia giudiziaria e la riflessione giuridica sul fenomeno probatorio[4].

L’espressione intelligenza artificiale ha un’accezione più o meno ampia a seconda dell’angolo visuale prescelto, tanto da sembrare alle volte un prisma dalle mille sfaccettature. Tradizionalmente, si distingue tra una concezione “forte” ed una “debole”.
La prima, tende alla creazione di modelli in grado di possedere veri e propri stati cognitivi analoghi a quelli della mente umana; la seconda, prevede la realizzazione di elaborati capaci di compiti normalmente attribuiti all’intelligenza dell’uomo senza però alcuna assimilazione tra pensiero e sistema informatico.
In entrambe le prospettive, l’intelligenza artificiale sarebbe comunque qualificabile come “la scienza intesa a sviluppare modelli computazionali del comportamento intelligente in grado di eseguire compiti che richiederebbero intelligenza da parte dell’uomo”[5].
In altre parole, la codificazione variabile del ragionamento umano.

La prima fonte definitoria la si trova contenuta nella “Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi” adottata il 3-4 dicembre 2018 dalla Commissione Europea per l’efficienza della giustizia (Cepej) istituita dal Comitato dei Ministri del Consiglio d’Europa del 2002, in cui la si considera come “l’insieme di metodi scientifici, teorie e tecniche finalizzate a riprodurre mediante le macchine le capacità cognitive degli esseri umani”[6].

I sistemi dell’intelligenza artificiale sono variegati, e vanno dalla costruzione del software (ad esempio assistenti vocali, analisi delle immagini, motori di ricerca, sistemi di riconoscimento vocale e facciale), a quello dell’hardware (ad esempio veri e propri robot o droni), strumenti interagenti nel mondo virtuale. In entrambi i casi la raccolta delle informazioni è indispensabile, ragionando sulla conoscenza o elaborando le soluzioni adeguate all’obiettivo.
Una prima, e fondamentale, questione attiene al rapporto tra la mente umana e il sistema informatico. Il tema nasce dalle origini culturali dell’intelligenza artificiale, si propaga mediante la costituzione di una lingua universale in grado di rappresentare i nostri pensieri, e finisce per creare un’elaborazione sistematica capace di ridurre il ragionamento ad operazione automatica o matematica[7].
La creazione dei cd. logaritmi si inserisce in questo paradigma concettuale, e rappresenta la conseguenza dello sviluppo artificiale.
Sia nel ragionamento giudiziario, sia nella predizione del suo esito, viene in rilievo l’utilizzo della logica come strumento posto a fondamento delle varie interazioni.

I sillogismi artificiali sono necessari e devono poter essere affrontati nella loro corretta dimensione, finalizzata, cioè, ai risultati per i quali sono utilizzati.
Il problema principale attiene all’individuazione del modello: quello probabilistico oppure quello non-monotonico? Quello deduttivo, quello abduttivo, o ancora quello deontico?[8]

La risposta non è univoca in quanto è possibile utilizzare i vari tipi di ragionamento inferenziale a seconda dei contesti in cui ci si trova ad operare, variando, pertanto, l’esito del risultato dell’intelligenza artificiale.
Ciò in virtù del fatto che l’intelletto umano adopera svariati meccanismi di ragionamento a seconda dell’oggetto, del luogo e del tempo in cui si trova ad operare.
Ad esempio, la diagnosi medica, o il progetto tecnico di un ingegnere sono diversi dalla decisione giudiziaria o dalla valutazione della prova.

Lo scrutinio della decisione giudiziaria, e della valutazione della prova, diventano precondizioni necessarie per costruire la struttura dell’intelligenza artificiale. Laddove la stessa sia semplice, e non particolarmente complessa, è possibile adoperare criteri altrettanto agevoli, ma quando l’ordito diventa infarcito da sillogismi di natura logica il compito dell’elaboratore è alquanto complesso giacché rivolto alla qualificazione della tipologia del modello logico di riferimento ed alla conseguente individuazione dei parametri da inserire nella struttura artificiale.

Significa gettare nuova luce su un procedimento mentale che è stato definito “complesso, variabile, avvolto nell’incerto, vago e intriso di valori”[9]
Il percorso di indagine diventa ancora più complicato se si pone mente alla valutazione giudiziaria totalmente ancorata alla visione del libero convincimento, dunque sganciata da qualunque parametro razionale[10].

Al netto di motivazioni inesistenti, o totalmente insufficienti, il punto è quello di capire come l’intelligenza artificiale risulta compatibile con la decisione giudiziaria a-logica.
Ogni sentenza ha un contenuto intrinsecamente collegato al sentimento della decisione, al diversamente legato al criterio inferenziale, a ciò che è intimamente collegato alla sua percezione della prova. 

Questo è il terreno più difficile da affrontare perché costituisce forse il limite dell’intelligenza artificiale.
La componente ineluttabile, il nocciolo duro della natura umana, quelli che alcuni chiamano intelligenza emotiva. Tale ambito riguarda una componente dell’intelligenza, che consiste nella capacità di percepire, valutare, comprendere, utilizzare e gestire le emozioni.
Le persone con un’elevata intelligenza emotiva sanno riconoscere le proprie emozioni e quelle degli altri, distinguerle tra di esse ed utilizzare queste informazioni per guidare i propri pensieri e le proprie azioni[11].
Essa è composta da tre rami principali: valutazione ed espressione delle emozioni, regolazione delle emozioni, utilizzo delle emozioni.
Tale definizione iniziale è stata poi successivamente aggiornata in quanto appariva imprecisa e priva di un ragionamento sui sentimenti, trattando solo la percezione e la regolazione delle emozioni. È stata, quindi, definita come segue: “l’intelligenza emotiva coinvolge l’abilità di percepire, valutare ed esprimere un’emozione; l’abilità di accedere ai sentimenti e/o crearli quando facilitano i pensieri; l’abilità di capire l’emozione e la conoscenza emotiva; l’abilità di regolare le emozioni per promuovere la crescita emotiva e intellettuale”[12].

Anche in Italia il tema dell’intelligenza emotiva ha iniziato ad essere utilizzato e studiato sia in ambito psicologico, sia in ambito organizzativo/aziendale.[13]
Il confronto è sulla misurazione delle varie abilità che non può prescindere dalla possibilità di esaminarne almeno una con carattere oggettivo, al netto di ciò che una persona compie nel sentirsi emotivamente intelligente, mettendola sempre in correlazione con le altre[14].

Sullo specifico versante della valutazione della prova, l’intelligenza artificiale tenta di conciliare, invece, la tesi di coloro i quali affermano il carattere argomentativo-persuasivo con quelli che ne propugnano la natura meramente dimostrativa[15].
La struttura artificiale evidenzia come sia astrattamente plausibile sviluppare modelli della conoscenza, e del ragionamento, rigorosamente formali ma anche vicini agli schemi linguistici ed alle tecniche argomentative del discorso giuridico.
Il progetto invade ogni ambito del contenuto probatorio: dalla ricostruzione del fatto, al supporto del ragionamento probatorio del giudice e delle parti, fino all’approfondimento della prova scientifica.
Di particolare interesse è il secondo dei passaggi sopra descritti, quello dell’implementazione probatoria mediante supporti conoscitivi informatici.

Si tratta dello sviluppo di algoritmi in grado di ordinare e gerarchizzare gli elementi di prova a disposizione in base alla loro valenza persuasiva con riferimento alla cronologia ed alla ricostruzione dei fatti[16].
Il pensiero matematico, infatti, ha da sempre considerato la prova come forma perfetta di giustificazione. Senonché la necessità di codificare la mera formula mediante strutture e dinamiche intellegibili ha trainato la logica all’interno del ragionamento.
Le inferenze di natura logica non sono altro che la traduzione sostanziale dell’operazione matematica. Tuttavia, tale conclusione non sempre risulta essere adeguata alla realtà empirica, se ad esempio si ritiene che la prova sia sfornita di un rapporto con l’esperienza[17].
In altre parole, la prova come mera creatrice di concetti, sillogismi inferenziali autoreferenziali, a tratti incapace ad un uso strettamente matematico del ragionamento.
La chiave di lettura del problema sta proprio in questo, nella possibilità di elaborare il ragionamento probatorio non necessariamente legato al puro calcolo matematico, in grado di distinguere tra condizioni epistemiche autenticamente matematiche e modelli puramente logici[18].

L’intelligenza artificiale entra con forza in questo perimetro concettuale giacché non solo si propone di catalogare le operazioni matematiche ma anche di affiancare ad esse, in maniera autonoma, gli orditi sillogistici intrinsecamente privi di esperienza empirica. È il punto di incontro tra più discipline e, nello stesso tempo, strumento per strutturare le dinamiche del ragionamento probatorio. Le prospettive involgono decisamente tale ambito, la decisione sull’accertamento probatorio giudiziale e le sue connaturate conseguenze.

Si svilupperanno modelli di ragionamento basati su algoritmi capaci di fondere la logica con la teoria dell’argomentazione in grado, cioè, di superare la nozione di prova alla sua primigenia accezione puramente deduttiva.
Se la prova ha lo scopo di convincere della realtà di un fatto, ha quindi senso prendere in considerazione differenti nozioni di prove non deduttive. In tale direzione, l’abduzione come metodologia di formazione del ragionamento appare il necessario corollario per superare la critica di cui sopra.

Un fatto è considerato provato se ammette una prova deduttiva quando si suppongono vere certe ipotesi o spiegazioni che a priori si è pronti ad accettare, in grado di costruire ragionamenti che diano conto della realtà e non solo elementi da interpretare.
Questo è quello che ci si potrà attendere nel futuro prossimo, senza tuttavia scendere in previsioni quantomai fantomatiche circa la sostituzione del giudice con un processore[19].

La macchina non potrà mai sovvertire l’uomo e lo sviluppo tecnologico non dovrà assolutamente provocare timore. La giustizia era, e rimarrà ancora per lungo tempo, ad uso esclusivo degli esseri umani.
L’intelligenza artificiale non dovrà mai essere considerata come un competitore, un avversario da combattere, ma vieppiù l’assistente digitale di qualsiasi operatore del diritto. Il Giudice avrà diritto di dire l’ultima parola sulla decisione finale.
Il ragionamento giudiziario non potrà subire alcuna rivoluzione, ancorché predetto, esso potrà essere assistito dall’ausilio tecnologico per la risoluzione delle varie problematiche, specie in ordine alla prova.

Il riscontro, ed il contrappeso, è rinvenibile proprio nell’attuale sistema di costruzione della decisione giudiziaria.
L’aver espressamente individuato, e statuito, delle patologie direttamente collegate alla logicità del ragionamento (art. 606 lett. e) c.p.p.) rappresenta la più autorevole, e formidabile, conferma di come il livello delle garanzie necessiti di dinamiche codificate.
È stata la nostra legislazione, senza pensarci, ad introdurre nel processo il meccanismo dell’intelligenza artificiale.

L’operatore del diritto ha da sempre l’obbligo di lavorare sulla prevedibilità della decisione, perché prevedere significa non solo verificare come i giudici interpretano il diritto ma anche come lo applicheranno al fatto.
Il futuro, tutto da controllare, appare proiettato verso la tendenza di sostituire il Giudice con i giudizi, cioè con le previsioni di giudizi futuri[20].

Introducendo prima l’obbligo della motivazione della sentenza e, successivamente quello legato alla logicità della sua struttura, comunque si è voluto ancorare la terminazione definitiva ad una dinamica sillogistica, laddove il controllo della Corte Suprema di Cassazione diventa garanzia di prevedibilità delle decisioni giudiziarie.
Tale riferimento è assolutamente dirimente nel contesto in cui stiamo riflettendo poiché stabilisce che il ragionamento del giudice, posto alla base della sua decisione, sia assistito e composto da un ordito sillogistico inferenziale perfetto.  
La conclusione potrebbe apparire paradossale: senza farci caso, legislazione, giurisprudenza e dottrina hanno preparato il terreno all’intelligenza artificiale.

I protocolli logici non sono altro che una sequenza di operazioni cognitive, collegate in una trama logica coerente, che partono da informazioni, le elaborano e producono una decisione, mettendosi sulla soglia ultima delll’operazione di ermeneusi della norma (art. 12 Preleggi).
Una sequenza trasparente controllabile in tutte le sue fasi (informazioni- elaborazioni e risultati).
Gli algoritmi ed i protocolli logici appaiono mossi dalla medesima identità, laddove questi ultimi non sono altro che la forma discorsiva dei primi costruiti dall’essere umano per il processo.
E allora sarà impossibile chiudersi al futuro, rifiutare ciò che già esiste, quello che abbiamo inconsapevolmente già istituito, ciò che esprime tra l’altro il più alto livello di garanzia.
Porte aperte, quindi, all’Intelligenza Artificiale!           

*Avvocato del Foro di Catanzaro

 

[1] Così F. ROLI, Corso di Intelligenza Artificiale, Milano 2003.
[2] La scienza cognitiva ha interessato ambiti diversi come la giuscibernetica, oggi informatica giuridica, con gli importanti studi di V. FROSINI, Cibernetica, diritto e società, Milano 1968; oppure la moderna ontologia mediante la linguistica computazionale in grado di fornire criteri di contestualizzazione e assunzione di significato, come da studio Formal Ontology in Information System, a cura di N. GUARINO, Amsterdam, 1988, nonché S.C. SMITH, Ontology and Dimension in Legal Reasoning, in Informatics and the Foundation of Legal Reasoning, a cura di Z. BANKOWSKI-I. WHITE-U. HAHN, Amsterdam, 1995, p. 205 e segg. 
[3] Cfr. G. SARTOR, L’intenzionalità dei sistemi informatici ed il diritto, in Riv. Trim. dir. Proc. Civ. 2003, pag. 23 e segg; G. TADDEI ELMI, I diritti dell’intelligenza artificiale tra soggettiva e valore: fantadiritto o ius condendum? In Il meritevole di tutela, a cura di L. LOMBARDI VALLAURI, Milano 1990 p. 685 e segg.
[4] L’epistemologia giudiziaria è una espressione di G. UBERTIS, Fatto e valore nel sistema probatorio penale, Milano 1979, pag. 54 e segg.
[5] Cfr. G. SARTOR, Intelligenza artificiale e diritto, Un’introduzione, Milano 1996. Pag. 9, il quale passa in rassegna i numerosi tentativi definitori. Per un inquadramento generale della tematica si veda S.J. RUSSEL- P. NORVING, Artificial Intelligence- a modern Approach, III ed. Peason, 2010, mentre tra le opere italiane si cita AA.VV. Diritto e intelligenza artificiale, a cura di G. ALPA, Pisa, Giuridica, 2020; Il ragionamento giuridico nell’era dell’intelligenza artificiale, a cura di S. DORIGO, Pisa, 2020; AA.VV. Intelligenza artificiale, il diritto, i diritti, l’etica, a cura di U. Ruffolo, Milano, 2020; A. SANTOSUOSSO, Intelligenza artificiale e diritto, Milano 2020.
[6] Analogamente gli scienziati dell’Università di Stanford la qualificano come “una scienza e un insieme di tecniche computazionali che vengono ispirate pur operando tipicamente in maniera diversa dal modo in cui gli esseri umani utilizzano il proprio sistema nervoso ed il proprio corpo per sentire, imparare ragionare ed agire”, Cfr. Artificial Intelligence and life in 2030. One hundred year study on Artificial Intelligence, Stanford University, 2015 , cap. 5.
[7] Cfr. A. VITERBO-A. CODIGNOLA, L’intelligenza artificiale e le sue origini culturali, in Giur. It., 2004, pag. 1541 e segg.
[8] Il problema si pone con D. COSTANTINI-L. GEYMONAT, Filosofia della probabilità, Milano 1982, e con D. TISCORNIA, Il diritto nei modelli  dell’intelligenza artificiale, Bologna 1996, p. 221, ed infine con C.S. PEIRCE, La logica degli eventi, Antologia dai Collected papers (1931-1958) trad. it. Milano 1989, P. MARQUES, Le prove non deduttive in intelligenza artificiale, pag. 149 e segg., e A.J.I. JONES-M. SERGOT, Deontic Logic in the Representation of Law, in Artif. Intell. Law, 1992 pag. 45 e segg.
[9] Cfr. M. TARUFFO, Judicial Decisions and artificial Intelligence, in 6 Artif. Intell.Law, 1988, pag. 317
[10] Cfr. M. NOBILI, Storia d’una illustre formula: il libero convincimento negli ultimi trent’anni, in Riv. It. Dir. Proc. Pen., 2003, p. 92, secondo cui “il convincimento libero del giudice quanto di benefico doveva partorire già lo diede negli anni tra Voltaire e Carrara. Da allora è stato solo un calvario una tribolazione di storpiature, equivoci, concetti e manipolate, ambiguità di linguaggio. Non foss’altro per normali necessità d’igiene lessicale sarebbe tempo d’abbandonarlo, nel senso di parlarne ammirati, come ammirati parliamo di Leopardi o del Rinascimento.
[11] L’intelligenza emotiva è stata trattata la prima volta nel 1990 da P. SALOVEY E J. MAYER nel loro articolo Emotional Intelligence. pag 6 di 27 articolo accademico.
[12] P. SALOVEY e D. J. SLUYTER (a cura di) “Emotional development and Emotional Intelligence: educational implications” 1997 New York: Basic Books, pag. 5
[13] Il tema dell’intelligenza emotiva è stato successivamente trattato nel 1995 da D. GOLEMAN nel libro Emotional Intelligence tradotto in italiano nel 1997, come Intelligenza emotiva: che cos’è e perché può renderci felici.
[14] P. SALOVEY E D, J. SLUYTER (a cura di) “Emotional development and Emotional Intelligence: educational implications” 1997 New York: Basic Books, pagg. 3-4. Fra le ricerche empiriche in grado di soddisfare questi criteri vi sono: MAYER, DI PAOLO, SALOVEY (1990): secondo gli autori è provata l’esistenza di una abilità di base per cui gli individui, in modo differente, decodificano le emozioni che leggono sui volti, sui disegni o attraverso i colori. L’abilità di base è strettamente correlata ai punteggi che gli stessi individui ottengono su scale di self – reporter circa la capacità di empatia. Questo è in linea con le abilità denominate “abilità della percezione delle emozioni”. Mayer, Salovey & Caruso (1977): questa ricerca che utilizza una scala/test, considera tutte le abilità che costituiscono l’IE e richiede al soggetto di riflettere e verbalizzare sulle emozioni provate dai personaggi di una storia analizzata. Per valutare la correttezza o meno delle risposte sono stati contemplati due criteri: il personaggio si fa coinvolgere dalla situazione il consenso della maggior parte dei partecipanti su una determinata risposta, scelta tra una lista di alternative possibili, in riferimento all’emozione agita dal personaggio. Questi due criteri evidenziavano un adattamento con andamenti che non sono analoghi ma sono in grado di avvalorare l’esistenza dell’intelligenza emotiva. Averile & Nunley (1922): lo studio è rivolto alle abilità relative alla comprensione delle emozioni, “comprensione e analisi delle emozioni”.
[15] L’intelligenza artificiale è il punto principale da cui muovere per l’indagine sulla prova, in quanto comporta, per la sua stessa natura, il rapporto che lega la comprensione e l’intelligenza con le teorie ed i conseguenti sillogismi di natura logica. Riflette le relazioni che si stabiliscono su tutte le forme di conoscenza e della concreta messa in opera. L’attività probatoria possiede aspetto bivalente: teorico e pratico che nasce dalla filosofia e si allunga verso la scienza intrinsecamente possedendo lo strumento della logica nella sua struttura, toccando il problema delle relazioni esistenti tra l’oggettività scientifica e la trasmissione delle conoscenze. Cfr. J. SALLANTIN-J.J. SZCZECINIARZ, Introduzione. La prova alla luce dell’intelligenza artificiale, 2005, pagg. 2 e segg.
[16] In questa direzione si rileva il prototipo MarhalPlan che adotta le reti inferenziali di Wigmore, rigoroso metodo di notazione formale per le inferenze a catena che consente di esplicitare i rapporti e i nessi tra i diversi item of evidence, e fa ampio uso del ragionamento abduttivo, cfr. D.A. SCHUM, Evidence Marshaling for Imaginative Fact investigation, in 9 Artif. Intell. Law, 2001, pag. 165.
[17] Così per L. WITTGENSTEIN, Tractatus logico-philosophicus e quaderni 1914-1916, 1998, e S.STILLWELL, Empirical Inquiry and Proof, in Proof and Knowledge in Matthematics, pag. 110 e segg. , secondo cui la prova è per prima cosa l’elaborazione di modelli o regole di applicazione di concetti, non è ciò che produce uno stato mentale di convinzione ma si sostanzia nelle applicazioni legate a questa convinzione.
[18] Alcuni addirittura arrivano ad affermare che il ragionamento matematico non sia affatto formalizzabile e che le prove non siano costruzioni-segni (forme simboliche) ma costruzioni-tipo (categorizzazioni e concettualizzazioni), Cfr. sempre S. STILLWELL, Empirical Inquiry and Proof, in Proof and Knowledge in Matthematics.
[19] In questa fase iniziale si cerca di applicare i modelli di intelligenza artificiale alla giustizia predittiva, per aiutare gli operatori del diritto a rendere il sistema più efficiente. Sono intraprese iniziative sperimentali volte a sintetizzare i fatti che stanno alla base delle decisioni, per cercare successivamente di individuare gli aspetti simili tra una vicenda ed un’altra e mettere in relazione i fatti con gli esiti per arrivare alla predizione.
[20] Si veda la riformulazione dei criteri di giudizio dell’Udienza Preliminare sulla regola della “ragionevole previsione di condanna” recentemente introdotta dalla riforma Cd. Cartabia. Il GUP oggi fa la previsione su cosa fa un altro giudice domani, senza occuparsi di cosa farebbe lui con le prove che ha a disposizione.

Torna in alto