ALCUNE CONSIDERAZIONI SU DIRITTO PENALE E MANIPOLAZIONE DEL CONSENSO NELL’ERA DELL’INTELLIGENZA ARTIFICIALE
di Tommaso Guerini Il rapporto tra Intelligenza Artificiale e Diritto penale è destinato a rappresentare uno dei topoi del nostro futuro prossimo. Senza scomodare alcuni suggestivi riferimenti letterari – penso in particolare al gustoso libriccino di Jacques Charpentier[1] – l’avvento di quella che Luciano Floridi ha lucidamente definito come la Quarta Rivoluzione[2] pone tutti noi di fronte alle sensazioni tipiche di chi si trova a vivere un’era di forti trasformazioni. In questo caso, oltre allo spaesamento e al senso di perdita e abbandono che assieme alla speranza di un futuro migliore accompagnano ogni cambiamento radicale nella società umana, dobbiamo però fare i conti con le conseguenze di quella che Antoine Garapon e Julian Lassegue hanno definito una rottura antropologica[3], dovuta al passaggio da un linguaggio alfabetico a quello numerico utilizzato dalle Intelligenze Artificiali e dai codici che le governano. Il linguaggio binario degli algoritmi è quindi destinato a sostituire sempre di più il linguaggio degli uomini, sempre più spettatori di fenomeni che non comprendono, se non in termini minimi, così come avveniva nei tempi antichi, quando i sacerdoti compivano i loro gesti magici. I sacerdoti della contemporaneità, i custodi del vero sapere sono i matematici, i fisici e gli ingegneri: creatori e addestratori di forme di Intelligenza non umane, secondo alcuni destinate a superare nel medio-breve periodo quella di chi le ha progettate. Del resto, come osservava già al tramonto dello scorso secolo Lawrence Lessig: code is law[4]. E le considerazioni amare di Filippo Sgubbi, che poco prima della pandemia che ha determinato la definitiva migrazione del genere umano nell’Infosfera ci ammoniscono sui rischi che il formante digitale produce sulla tenuta dei principi di garanzia elaborati in materia penale a partire dall’Illuminismo[5]. È in questa prospettiva o, per richiamare Leonardo Sciascia, in questo contesto che vogliamo declinare, sia pure per sommi capi, il sotto-tema del rapporto tra diritto penale e manipolazione digitale del consenso, particolarmente sentito in un momento storico nel quale la tutela della libertà di manifestazione del pensiero – vera e propria pietra angolare della democrazia – viene sempre più spesso messa in discussione dal proliferare di fake news e deepfake, la cui diffusione ha raggiunto da tempo una dimensione ‘epidemica’. Nella nostra prospettiva di studio[6] fake news e i deepfake sono strumenti di manipolazione del consenso tecnologicamente evoluti per far fronte alle esigenze sorte con la rivoluzione digitale, nella quale non è più sufficiente indirizzare la vita analogica dei cittadini, quanto piuttosto condizionare il loro comportamento in quella che si suole ormai definire come Infosfera[7], che rappresenta il brodo di coltura del fenomeno che stiamo osservando. D’altra parte, è vero che la manipolazione – dei singoli, delle masse – è sempre stata uno strumento estremamente efficace di lotta politica[8], al quale tanto i regimi autoritari, quanto le democrazie – autoritarie e non – non hanno mai saputo rinunciare e la cui evoluzione si accompagna sia a quella dei sistemi politici e sociali, sia a quella delle tecnologie disponibili per amplificarne gli effetti, ma allo stesso tempo è altrettanto evidente che a rendere profondamente diverso il presente dal passato anche più recente contribuisce l’interazione tra due fenomeni di recente insorgenza. Da un lato, sul piano economico prima ancora che politico, il modello occidentale di democrazia viene apertamente messo in discussione dalle cd. democrazie illiberali[9], su tutte Russia e Cina, ma anche, nel nostro continente, da Polonia e Ungheria e, ahimè, per certi versi oggi anche dall’Italia.; dall’altro lato, il campo di scontro tra i diversi modelli politico-economici si è già spostato dal mondo degli atomi a quello del bit – con particolare attenzione ai temi della Artificial Intelligence[10] – e la tendenza, anche in ragione del potenziamento delle infrastrutture legato alla migrazione di un numero sempre maggiore di attività dall’universo analogico a quello digitale, pare ormai inarrestabile, rendendo sempre più centrale il ruolo delle reti sociali in ogni ambito della vita umana[11]. Così, un numero sempre maggiore di cittadini è esposto, senza possedere adeguate difese, a contenuti ingannatori sempre più raffinati, come nel caso dei cd. deepfake, termine nato dalla crasi tra deeplearning (riferito alla capacità di apprendimento di una Intelligenza Artificiale) e fake[12]. Sviluppatosi nell’ambito dell’industria della pornografia on line[13] e rapidamente diffusosi all’intero World Wide Web, attraverso l’utilizzo di algoritmi particolarmente precisi, il deep fake permette di sostituire i volti di due persone (c.d. face swapping), realizzando dei video nei quali è possibile far dire a chiunque qualsiasi cosa, sincronizzando in modo perfetto anche il labiale. La potenzialità offensiva di questo tipo di strumenti è notevolmente superiore a quella di qualsiasi altro prodotto informativo fasullo, in quanto l’alterazione di un documento audiovisuale ha una attitudine ingannatoria estremamente elevata, ponendo l’utente di fronte a qualcosa che egli vede accadere davanti ai suoi occhi, senza avere strumenti per confutarne la veridicità. È evidente come i pericoli connessi all’uso di questa tecnologia siano immediatamente apprezzabili, soprattutto in ambito politico-elettorale[14]. I rischi per la corretta allocazione del consenso in ambito politico-elettorale ci sembrano infatti particolarmente concerti, sia in ragione del continuo perfezionamento dei programmi che consentono di realizzare questi contenuti – ormai tecnicamente molto precisi, salvo alcune imperfezioni nel doppiaggio, difficilmente percepibili da un utente non particolarmente attento –, sia in ragione della politica scarsamente repressiva posta in essere dalle aziende che gestiscono i principali siti di diffusione di video[15]. Di fronte a una sistematica attività organizzata e imprenditorialmente strutturata di produzione e diffusione di contenuti ingannatori, realizzati mediante la raccolta non sempre trasparente di dati personali, trattati mediante l’utilizzo di sistemi di intelligenza artificiale, appare quasi automatico interrogarsi su quali possano essere i profili di rilevanza penale. Eppure – e può apparire un paradosso nell’epoca dell’ipertrofia del diritto penale, non a caso definito “massimo” da autorevole dottrina[16] – di fronte a questi fenomeni, per loro natura immateriali e transnazionali, il diritto penale si scopre inerme. Le tradizionali fattispecie poste a presidio della legislazione elettorale e della libertà di stampa – ormai vetuste – non offrono alcuno strumento efficace di tutela, così come avviene, sul piano dell’offesa individuale, prendendo