ALGORITMI E PREVENZIONE: TRA NUMERI, LINGUAGGIO E GARANZIE
di Fabrizio Costarella* e Ottavio Porto** Nel contemporaneo scenario giuridico, l’espansione del paradigma preventivo rappresenta un mutamento strutturale delle forme di repressione penale. Non si tratta più soltanto di un aumento quantitativo delle misure di prevenzione, ma di una progressiva sostituzione funzionale del processo penale con strumenti alternativi, nei quali le garanzie costituzionali risultano ridimensionate o, talora, del tutto elise. In tale contesto, si profila il rischio che il principio della responsabilità personale accertata venga progressivamente sostituito da valutazioni di pericolosità basate su elementi indiziari, prognostici, e talvolta statistici, privi di un reale contraddittorio. Questo scenario prefigura una vera e propria inversione metodologica, dove la “certezza della pena” diventa, paradossalmente, espressione di una incertezza del diritto, frammentato da prassi giurisprudenziali, estensioni interpretative e criteri probatori informali. In tale deriva trova attualità la massima pitagorica secondo cui “tutto è numero”. Se, per il filosofo di Crotone, il numero era la chiave dell’ordine cosmico, nella declinazione tecnologica contemporanea esso diventa invece strumento di previsione e categorizzazione sociale. Gli algoritmi, utilizzati in funzione preventiva, si ergono a nuovi criteri di giudizio, riducendo la complessità del comportamento umano a variabili computabili. A ciò si accompagna la trasformazione del linguaggio giuridico, sempre più assorbito dal lessico tecnico e predittivo dell’intelligenza artificiale. Come ricordava Wittgenstein, “i limiti del mio linguaggio significano i limiti del mio mondo“: quando la lingua del diritto viene riscritta in codice computazionale, cambia anche la nostra concezione di colpa, responsabilità, libertà. L’introduzione di strumenti informatici come il Sistema Giove, fondato su logiche di polizia predittiva, segna una soglia epistemologica critica. Si tratta di una piattaforma che consente l’incrocio automatizzato di banche dati di diversa natura – giudiziaria, amministrativa, anagrafica – con l’obiettivo di identificare pattern ricorrenti associabili a fenomeni criminali ad alto impatto sociale. Il principio è quello della previsione del rischio: identificare soggetti potenzialmente pericolosi prima che compiano reati, così da attivare misure di prevenzione personale o patrimoniale. In tale modello investigativo, l’indagine si sposta dal fatto alla probabilità, dalla responsabilità accertata alla pericolosità supposta. La razionalità garantista, fondata sulla verifica rigorosa delle prove e sul contraddittorio, viene progressivamente erosa dalla logica predittiva e dalla statistica induttiva. Questa tecnica stocastica si inserisce in una più ampia tendenza, comune a diversi ordinamenti, che fa ricorso a tecnologie basate su machine learning, profilazione automatica e analisi comportamentale predittiva. Tali strumenti – se non rigorosamente regolati – rischiano di introdurre nel procedimento di prevenzione elementi discriminatori, amplificando bias preesistenti nei dati di addestramento: etnia, orientamento sessuale, contesto socioeconomico. Il cuore del problema è epistemologico: chi programma l’algoritmo determina il diritto implicito che esso codifica. Eppure, il controllo giudiziale su questi strumenti è spesso ostacolato dalla loro opacità, dall’assenza di accesso ai dati, e dalla mancanza di supervisione esperta. In questo scenario, la giustizia si espone al rischio di automazione non controllata della discrezionalità. Da questa prospettiva, risulta illuminante la riflessione sulla dimensione mistica e simbolica del potere punitivo pubblico. In epoca medievale, il potere giudiziario del sovrano si configurava come espressione di un ordine trascendente e non riducibile alla razionalità amministrativa. Per Kantorowicz, ad esempio, il sovrano incarnava due nature: un corpo fisico, destinato a morire, e un corpo politico immortale, simbolo della continuità e infallibilità dell’autorità statale. In tale dualismo, la giustizia non era semplicemente esercitata, ma incarnata: il giudice sovrano non agiva come la legge, ma era la legge, in una sovrapposizione tra diritto umano e ordine cosmico. Come la figura del re taumaturgo di Bloch, che si fondava sulla credenza collettiva che il sovrano fosse dotato di un potere miracoloso, capace di guarire per sola imposizione delle mani, non per abilità medica, ma per una legittimazione trascendente, collettivamente condivisa. Anche in quel contesto, il potere pubblico si fondava su una narrazione mistica di giustizia e ordine, accettata perché sentita come parte di un disegno superiore. Tale convinzione conferiva al potere una legittimazione carismatica e quasi liturgica, che legava l’autorità politica al destino spirituale della comunità. L’intelligenza artificiale – nella sua radicale opacità e nella sua pretesa di oggettività neutrale – spezza questo legame simbolico tra autorità e comunità. Non solo rimuove il volto del giudice, ma lo sostituisce con un’entità che non può essere né creduta né contestata sul piano del senso, perché priva di un’origine simbolica condivisa. Così facendo, si introduce una nuova mitologia impersonale, in cui il calcolo prende il posto della fede, e il rischio non è più il sopruso umano, ma l’arbitrio meccanico della macchina. La giustizia viene svincolata da ogni elemento simbolico e umano, recedendo il vincolo collettivo di senso tra governanti e governati e sublimando d’altro canto la dimensione misterica dell’auctoritas, il cui esercizio diviene nuovamente incomprensibile al volgo, smaterializzando la sua secolarizzazione illuministica. In tale modello, l’eccezione si fa norma e il sospetto diventa criterio di azione. La grammatica stessa del diritto moderno, fondata sulla responsabilità personale e sul principio di legalità, risulta sovvertita. Non è più necessario un atto, ma una correlazione statistica; non una colpa, ma un rischio. In chiave politico-filosofica contemporanea, questa trasformazione può essere letta alla luce della riflessione di Giorgio Agamben sul paradigma del “governo attraverso la sicurezza”: una logica in cui il diritto viene progressivamente svuotato, sostituito da pratiche amministrative orientate alla gestione dei rischi e dei comportamenti. La prevenzione algoritmica – fondata su una razionalità tecnico-statistica – si configura come uno stato di eccezione permanente, dove la sospensione delle garanzie è normalizzata, invisibile, addirittura automatica. Qui si innesta una riflessione centrale sul rapporto tra dittatura e stato di eccezione, così come tematizzato da Carl Schmitt e Ernst Fraenkel. Per Schmitt, il sovrano è “colui che decide sullo stato di eccezione”: il momento fondativo del potere politico si manifesta quando, in nome dell’emergenza, si sospende l’ordine normativo per salvaguardarlo. In questo senso, la prevenzione algoritmica si pone come una forma tecnicizzata e automatizzata della decisione sovrana, dove l’eccezione non è più pronunciata da un soggetto politico, ma è incorporata nel funzionamento stesso del sistema. Fraenkel, nel suo celebre Il doppio Stato, aveva mostrato come, nella Germania nazista,
ALGORITMI E PREVENZIONE: TRA NUMERI, LINGUAGGIO E GARANZIE Leggi tutto »