L'Intelligenza Artificiale contro la Violenza di Genere: Promesse di Prevenzione e Rischi di Discriminazione Algoritmica

Pubblicato il 21 novembre 2025 alle ore 17:02

L'avanzamento dell'Intelligenza Artificiale (IA) ha introdotto strumenti rivoluzionari nel campo della sicurezza e della giustizia penale, aprendo un dibattito acceso sulle sue potenzialità e sui pericoli che comporta, soprattutto quando applicata a reati ad alto impatto sociale come la violenza di genere.

Definizione dei Confini: Polizia Predittiva e Giustizia Predittiva

Quando si parla di IA applicata al sistema penale, ci si riferisce principalmente a due ambiti complementari: la Polizia Predittiva (Predictive Policing) e la Giustizia Predittiva

La Polizia Predittiva è l'impiego di tecniche analitiche e quantitative, spesso basate su algoritmi di apprendimento automatico (machine learning), per elaborare grandi volumi di dati. La sua funzione è duplice: da un lato, cerca di prevedere dove e quando è più probabile che avvenga un reato, orientando così l'allocazione delle risorse delle forze dell'ordine. Dall'altro lato, può essere utilizzata per identificare l’autore di una serie di reati già commessi attraverso l'elaborazione statistica di dati. L'obiettivo è prevenire i crimini futuri e migliorare la sicurezza del cittadino.

La Giustizia Predittiva si concentra, invece, sull'uso di software e algoritmi per supportare le decisioni dei magistrati, fornendo previsioni sull'esito di un giudizio o, più comunemente, calcolando la pericolosità sociale e il rischio di recidiva di un individuo. Sebbene la locuzione "giustizia predittiva" possa evocare un'immagine oracolare, nel contesto giuridico essa mira a fornire dati di prevedibilità che rispettino i criteri di certezza e razionalità del diritto. È fondamentale chiarire che l'IA non è destinata a sostituire il giudice umano, ma agisce come un potente strumento per migliorare l'oggettività e la qualità del suo operato.

L'AI al Servizio delle Indagini contro la Violenza di Genere

L'efficacia degli strumenti di polizia predittiva e dei sistemi di indagine basati sull'IA può essere determinante per contrastare i reati di violenza di genere, inclusi violenza sessuale, maltrattamenti contro le donne e femminicidi, soprattutto nella fase investigativa e di prevenzione.Sistemi informatici avanzati possono supportare le indagini (Polizia Giudiziaria) elaborando e incrociando dati per identificare gli autori di reati seriali, come molestie o violenze sessuali (crime linking). Ad esempio, in Italia, software come Keycrime sono stati concepiti per supportare le attività investigative e operano sfruttando in modo sinergico un vasto patrimonio cognitivo per l'analisi e la previsione criminale. Anche il sistema Giove è stato presentato come in grado di indicare dove e quando è probabile che si verifichino reati, per supportare la prevenzione e la repressione dei crimini a maggiore impatto sociale.A livello internazionale, esistono modelli specificamente dedicati alla prevenzione della violenza contro le donne. Sebbene non direttamente citato con il suo nome, si fa riferimento a sistemi come quelli utilizzati in Spagna (ad esempio, VioGén), dove un duplice meccanismo algoritmico è progettato per analizzare i casi di violenza e stimare la probabilità di un episodio fatale (femminicidio) nei casi denunciati. Questo protocollo ha l'obiettivo di garantire che i soggetti a rischio siano valutati tempestivamente da esperti (psicologi o medici legali) al fine di adottare o rafforzare misure di protezione a tutela della vittima.In Italia, sebbene l'uso di IA non sia formalmente vincolante in fase cautelare, il sistema processuale ha introdotto misure rafforzate per la vittima, in linea con istanze sovranazionali (come la Convenzione di Istanbul). In particolare, nei casi di delitti commessi con violenza alla persona (nozione che è stata interpretata in modo ampio, includendo anche la violenza psicologica), la persona offesa deve essere informata delle richieste di revoca o sostituzione delle misure cautelari coercitive a carico dell'aggressore. Questo diritto di essere informata garantisce alla vittima la possibilità di fornire il proprio contributo conoscitivo al giudice, assicurando che le sue esigenze di protezione siano considerate. Inoltre, istituti di prevenzione come l'ammonimento del questore per gli atti persecutori (stalking) poggiano su un accertamento prognostico di pericolosità individuale, simile concettualmente ai sistemi predittivi di tipo person-based usati altrove, e potrebbero beneficiare di basi valutative più consistenti fornite dall'IA.

La Giustizia Predittiva e l'Accertamento della Recidiva: Un Passo Avanti

Nell'ambito della giustizia predittiva, l'IA può segnare un passo avanti decisivo, specialmente nella valutazione della pericolosità e del rischio di recidiva, tradizionalmente affidata a giudizi intuitivi e all'esperienza personale del giudice.L'utilizzo di algoritmi predittivi permette di basare le decisioni su evidenze statistiche e pratiche scientifiche (evidence-based practices), introducendo una maggiore obiettività e razionalità nella valutazione prognostica. Sebbene nell'ordinamento italiano l'articolo 220, comma 2, del codice di procedura penale vieti il ricorso a perizie per stabilire la personalità dell'imputato ai fini del reato, l'IA è già impiegata in contesti specifici.Per esempio, nel settore dei reati sessualmente connotati, strumenti di valutazione del rischio di recidiva come STATIC 99R, STABLE 2007 e ACUTE sono stati utilizzati in programmi condotti in Italia, come quello del CIPM nel carcere di Milano Bollate, per la scelta del tipo di trattamento riabilitativo. Questi strumenti attuariali combinano fattori di rischio statici (non modificabili, come la storia criminale) e dinamici (modificabili attraverso il trattamento, come il discontrollo degli impulsi), consentendo al giudice di assumere determinazioni più consapevoli in merito alle misure coercitive, alternative alla detenzione o alla quantità di pena.L'IA, grazie alla sua capacità di elaborare una quantità di dati di gran lunga superiore a quanto possa fare un essere umano, offre un supporto probatorio che potrebbe superare i limiti di affidabilità scientifica dei giudizi criminogenetici tradizionali.

L'Ombra del Pregiudizio: Il Rischio di Discriminazione Algoritmica

Nonostante le promettenti applicazioni, l'introduzione dell'IA nella giustizia penale, in particolare per la valutazione della pericolosità individuale, solleva preoccupazioni etiche e giuridiche legate soprattutto al rischio di discriminazione.Gli algoritmi sono addestrati con dati storici e, se questi dati riflettono pregiudizi sociali passati, l'IA può replicare e persino cristallizzare il pregiudizio (feedback loops). L'illusione della neutralità scientifica può nascondere un pregiudizio implicito nell’algoritmo, che si traduce in risultati discriminatori o errati.In ordinamenti come quello statunitense, l'algoritmo COMPAS è stato criticato perché, nel calcolare il rischio di recidiva, include fattori socioeconomici, demografici e l’origine etnica, elementi che non sono rilevanti rispetto al singolo caso concreto ma che tendono a identificare come più pericolosi gli individui appartenenti a determinate minoranze o classi sociali.

Questo sistema, basandosi su dati statistici di massa, rischia di trasformare il diritto penale del fatto (giudizio sul crimine commesso) in un diritto penale del tipo di autore (giudizio sulla personalità o sul gruppo di appartenenza), un approccio che riproporrebbe tesi deterministiche superate e violerebbe la presunzione di innocenza.Le persone fisiche nell'Unione Europea, in linea con la presunzione di innocenza, devono sempre essere giudicate in base al loro comportamento effettivo. La normativa europea (AI Act) vieta esplicitamente le valutazioni del rischio volte a prevedere il reato futuro basate unicamente sulla profilazione, sui tratti della personalità o su caratteristiche come la cittadinanza o il luogo di residenza, in assenza di un ragionevole sospetto basato su fatti oggettivi verificabili e senza una valutazione umana.Infine, l'opacità dei sistemi algoritmici (la black box) ostacola l'esercizio dei diritti di difesa, inclusa la possibilità di contestare la validità scientifica dell'algoritmo in tribunale. È necessario che l'algoritmo sia trasparente, comprensibile e verificabile.

La Carta etica europea raccomanda che, anche se l'IA è utilizzata, la decisione sia sempre sottoposta a un controllo umano significativo e che gli utilizzatori siano consapevoli del funzionamento e dei limiti dell'IA. Questo intervento umano è visto come un presidio necessario per garantire i diritti fondamentali e impedire che i giudici si limitino ad accettare il dato dell'algoritmo (automation bias o anchoring), delegando di fatto la loro esclusiva competenza umana.Per garantire l'equità nel processo penale, l'IA deve rimanere un ausilio e non un decisore, assicurando che l'ultima parola spetti sempre al magistrato, la cui indipendenza e imparzialità non possono essere sottomesse alla macchina