di Tommaso Guerini
Il rapporto tra Intelligenza Artificiale e Diritto penale è destinato a rappresentare uno dei topoi del nostro futuro prossimo.
Senza scomodare alcuni suggestivi riferimenti letterari – penso in particolare al gustoso libriccino di Jacques Charpentier[1] – l’avvento di quella che Luciano Floridi ha lucidamente definito come la Quarta Rivoluzione[2] pone tutti noi di fronte alle sensazioni tipiche di chi si trova a vivere un’era di forti trasformazioni.
In questo caso, oltre allo spaesamento e al senso di perdita e abbandono che assieme alla speranza di un futuro migliore accompagnano ogni cambiamento radicale nella società umana, dobbiamo però fare i conti con le conseguenze di quella che Antoine Garapon e Julian Lassegue hanno definito una rottura antropologica[3], dovuta al passaggio da un linguaggio alfabetico a quello numerico utilizzato dalle Intelligenze Artificiali e dai codici che le governano.
Il linguaggio binario degli algoritmi è quindi destinato a sostituire sempre di più il linguaggio degli uomini, sempre più spettatori di fenomeni che non comprendono, se non in termini minimi, così come avveniva nei tempi antichi, quando i sacerdoti compivano i loro gesti magici.
I sacerdoti della contemporaneità, i custodi del vero sapere sono i matematici, i fisici e gli ingegneri: creatori e addestratori di forme di Intelligenza non umane, secondo alcuni destinate a superare nel medio-breve periodo quella di chi le ha progettate.
Del resto, come osservava già al tramonto dello scorso secolo Lawrence Lessig: code is law[4].
E le considerazioni amare di Filippo Sgubbi, che poco prima della pandemia che ha determinato la definitiva migrazione del genere umano nell’Infosfera ci ammoniscono sui rischi che il formante digitale produce sulla tenuta dei principi di garanzia elaborati in materia penale a partire dall’Illuminismo[5].
È in questa prospettiva o, per richiamare Leonardo Sciascia, in questo contesto che vogliamo declinare, sia pure per sommi capi, il sotto-tema del rapporto tra diritto penale e manipolazione digitale del consenso, particolarmente sentito in un momento storico nel quale la tutela della libertà di manifestazione del pensiero – vera e propria pietra angolare della democrazia – viene sempre più spesso messa in discussione dal proliferare di fake news e deepfake, la cui diffusione ha raggiunto da tempo una dimensione ‘epidemica’.
Nella nostra prospettiva di studio[6] fake news e i deepfake sono strumenti di manipolazione del consenso tecnologicamente evoluti per far fronte alle esigenze sorte con la rivoluzione digitale, nella quale non è più sufficiente indirizzare la vita analogica dei cittadini, quanto piuttosto condizionare il loro comportamento in quella che si suole ormai definire come Infosfera[7], che rappresenta il brodo di coltura del fenomeno che stiamo osservando.
D’altra parte, è vero che la manipolazione – dei singoli, delle masse – è sempre stata uno strumento estremamente efficace di lotta politica[8], al quale tanto i regimi autoritari, quanto le democrazie – autoritarie e non – non hanno mai saputo rinunciare e la cui evoluzione si accompagna sia a quella dei sistemi politici e sociali, sia a quella delle tecnologie disponibili per amplificarne gli effetti, ma allo stesso tempo è altrettanto evidente che a rendere profondamente diverso il presente dal passato anche più recente contribuisce l’interazione tra due fenomeni di recente insorgenza.
Da un lato, sul piano economico prima ancora che politico, il modello occidentale di democrazia viene apertamente messo in discussione dalle cd. democrazie illiberali[9], su tutte Russia e Cina, ma anche, nel nostro continente, da Polonia e Ungheria e, ahimè, per certi versi oggi anche dall’Italia.; dall’altro lato, il campo di scontro tra i diversi modelli politico-economici si è già spostato dal mondo degli atomi a quello del bit – con particolare attenzione ai temi della Artificial Intelligence[10] – e la tendenza, anche in ragione del potenziamento delle infrastrutture legato alla migrazione di un numero sempre maggiore di attività dall’universo analogico a quello digitale, pare ormai inarrestabile, rendendo sempre più centrale il ruolo delle reti sociali in ogni ambito della vita umana[11].
Così, un numero sempre maggiore di cittadini è esposto, senza possedere adeguate difese, a contenuti ingannatori sempre più raffinati, come nel caso dei cd. deepfake, termine nato dalla crasi tra deeplearning (riferito alla capacità di apprendimento di una Intelligenza Artificiale) e fake[12].
Sviluppatosi nell’ambito dell’industria della pornografia on line[13] e rapidamente diffusosi all’intero World Wide Web, attraverso l’utilizzo di algoritmi particolarmente precisi, il deep fake permette di sostituire i volti di due persone (c.d. face swapping), realizzando dei video nei quali è possibile far dire a chiunque qualsiasi cosa, sincronizzando in modo perfetto anche il labiale.
La potenzialità offensiva di questo tipo di strumenti è notevolmente superiore a quella di qualsiasi altro prodotto informativo fasullo, in quanto l’alterazione di un documento audiovisuale ha una attitudine ingannatoria estremamente elevata, ponendo l’utente di fronte a qualcosa che egli vede accadere davanti ai suoi occhi, senza avere strumenti per confutarne la veridicità.
È evidente come i pericoli connessi all’uso di questa tecnologia siano immediatamente apprezzabili, soprattutto in ambito politico-elettorale[14].
I rischi per la corretta allocazione del consenso in ambito politico-elettorale ci sembrano infatti particolarmente concerti, sia in ragione del continuo perfezionamento dei programmi che consentono di realizzare questi contenuti – ormai tecnicamente molto precisi, salvo alcune imperfezioni nel doppiaggio, difficilmente percepibili da un utente non particolarmente attento –, sia in ragione della politica scarsamente repressiva posta in essere dalle aziende che gestiscono i principali siti di diffusione di video[15].
Di fronte a una sistematica attività organizzata e imprenditorialmente strutturata di produzione e diffusione di contenuti ingannatori, realizzati mediante la raccolta non sempre trasparente di dati personali, trattati mediante l’utilizzo di sistemi di intelligenza artificiale, appare quasi automatico interrogarsi su quali possano essere i profili di rilevanza penale.
Eppure – e può apparire un paradosso nell’epoca dell’ipertrofia del diritto penale, non a caso definito “massimo” da autorevole dottrina[16] – di fronte a questi fenomeni, per loro natura immateriali e transnazionali, il diritto penale si scopre inerme.
Le tradizionali fattispecie poste a presidio della legislazione elettorale e della libertà di stampa – ormai vetuste – non offrono alcuno strumento efficace di tutela, così come avviene, sul piano dell’offesa individuale, prendendo in considerazione il reato di diffamazione.
Con l’ulteriore paradosso di condotte ontologicamente illecite e particolarmente aggressive impunite e impunibili e di attività lecite e fondamentali per la qualità stessa della democrazia – pensiamo in particolare alla pubblicazione di quotidiani e periodici – ancora draconianamente sanzionate in spregio ai principi fondamentali del diritto penale[17].
Non è certo il nostro un invito ad ulteriormente gravare il nostro ordinamento giuridico di ulteriori fattispecie incriminatrici, anche perché se alziamo lo sguardo e osserviamo in quali ordinamenti è stata intrapresa questa strada – Russia, Singapore, Cina… – non troviamo certo degli esempi edificanti di diritto penale liberale.
Piuttosto, proprio in ragione dell’evidente tensione tra bisogno di tutela e rischi censori, ci pare fondamentale che nell’ambito del più generale dibattito sulla regolamentazione dell’Intelligenza Artificiale – vera e propria sfida di questa generazione di giuristi – sia presente anche la voce di chi porta sulle spalle l’esperienza di secoli di faticosa costruzione di un sistema di delitti e di pene rispettosi del fondamentale principio di umanità.
Un principio che ci pare assuma particolare attualità proprio nel momento in cui si affaccia all’orizzonte della storia una nuova forma di intelligenza e di sapere, che di umano sembra avere ben poco.
(Pubblicato sul n. 0 di Ante Litteram)
[1] J. Charpentier, Justice Machine, Macerata, 2015.
[2] L. Floridi, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Milano, 2017, 99-105.
[3] A. Garapon-J. Lassègue, Justice digital, Paris, 2018, pubblicato in italiano con il titolo: Id., Giustizia digitale, Bologna, 2021.
[4] L. Lessig, Code is law. On Liberty in Cyberspace, New York, 1999.
[5] F. Sgubbi, Il diritto penale totale, passim, e, in particolare, 27 ss. Sia concesso anche un rinvio alle riflessioni che sul punto abbiamo già avuto occasione di svolgere in T. Guerini, Il formante algoritmico all’alba della justice digital. Uno sguardo a uno dei futuri possibili del diritto penale, dialogando a distanza con Filippo Sgubbi, in AA.VV., Il pensiero giuridico di Filippo Sgubbi dal “reato come rischio sociale” al “diritto penale totale”, Soveria Mannelli, 2022.
[6] Sia concesso il rinvio al nostro T. Guerini, Fake news e diritto penale. La manipolazione digitale del consenso nelle democrazie liberali, Torino, 2020.
[7] L. Floridi, La quarta rivoluzione, cit.; Id., Pensare l’infosfera. La filosofia come design concettuale, Milano, 2020.
[8] Rimandiamo per tutti al ricco saggio di E. Canetti, Massa e potere, Milano 1960-2011. Secondo Hannah Arendt:“la propaganda totalitaria perfeziona la tecnica della propaganda di massa, ma non ne inventa né propone i temi. Questi sono già pronti, preparati dal cinquantennio dell’ascesa dell’imperialismo, della disintegrazione dello stato nazionale e della comparsa della plebe sulla scena politica europea”. H. Arendt, Le origini del totalitarismo, Torino, 2009, 484. Si veda anche un importante scritto di E.L. Bernays, Propaganda, New York, 1928, 25.
[9] Si è occupato di questo tema, di recente, F. Fukuyama, Identità, Milano, 2018, 19.
[10] Secondo quanto sostenuto da ultimo da Kai-Fu Lee, AI Superpowers. China, Silicon Valley and the new world order, Boston, 2018, le frontiere dell’economia digitale – e in particolare le potenzialità offerte dallo sviluppo delle Intelligenze Artificiali (Artificial Intelligence, o AI) – rappresentano il nuovo campo di scontro tra le superpotenze del XXI Secolo e, in particolare, gli Stati Uniti e la Cina.
[11] Per alcune considerazioni sul ruolo dei social network nella pandemia da Covid-19 e sui possibili effetti della migrazione nell’universo digitale di attività tradizionalmente svolte “in presenza”, sia concesso il rinvio a T. Guerini, La tutela penale della libertà di manifestazione del pensiero nell’epoca delle fake news e delle infodemie, in questa Rivista, 2-2020, 205-207.
[12] M. Beard, To fix the problem of deepfakes we must treat the cause, not the symptoms, in www.theguardian.com, 23 luglio 2019.
[13] Sul ruolo della pornografia come motore nascosto dell’industria tecnologica, si veda l’articolo di R. Benes, PORN: The Hidden Engine That Drives Innovation In Tech, in www.businessinsider.com, 5 luglio 2013.
[14] R. Chesney-D.K Citron, Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security, in California Law Review (July 14, 2018). 107 (2019, Forthcoming); U of Texas Law, Public Law Research Paper No. 692; U of Maryland Legal Studies Research Paper No. 2018-21.
[15] In un comunicato diffuso a seguito della condivisione di video deepfake tramite la piattaforma Facebook, i responsabili del social network si dichiararono contrari alla rimozione di tali contenuti, sostenendo che per l’Azienda è importante che ciascuno possa decidere in cosa credere, mentre il loro compito consiste nel garantire che gli utenti possano ricevere le giuste informazioni (“We think it’s important for people to make their own informed choice for what to believe. Our job is to make sure we are getting them accurate information”). Cfr. A. Horton, Facebook defends decision to leave up fake Pelosi video and says users should make up their own minds, in www.washingtonpost.com, 25 maggio 2019.
[16] N. Mazzacuva, La clemenza collettiva nell’epoca del ‘diritto penale massimo’, in Criminal Justice Network, 4-2018, 192 ss.[17] Il pensiero corre, evidentemente, all’art. 57 c.p., la cui struttura “colposa” sollecita ancora innumerevoli dubbi circa l’evidente truffa delle etichette volta a mascherare un caso di scuola di responsabilità oggettiva. Per tutti: E. Carletti, I reati a mezzo stampa, in F. Bricola-V. Zagrebelsky (diretta da) Giurisprudenza sistematica di diritto penale, Codice penale, Parte generale,Vol. II, II Ed., Torino, 1996, 133 ss. Nella giurisprudenza di legittimità – al di là della dichiarata adesione formale al paradigma personalistico – si trovano peraltro pronunce che finiscono di fatto con l’accedere alla tesi della responsabilità oggettiva, in quanto la colpa viene identificata con la stessa inosservanza dell’obbligo di controllo da parte del Direttore (v. ad es. Cass., Sez. Un.,18 novembre 1958, ma anche, più di recente, Cass., Sez. V, 5 maggio 1981).