la storia di lisa e l’algoritmo viogen: quando la tecnologia si fa sentenza sulla violenza di genere

La tragica vicenda di Lisa, vittima di omicidio nonostante il punteggio medio dell’algoritmo Viogen, solleva interrogativi sui rischi di affidare decisioni cruciali a sistemi automatici poco trasparenti.
L'articolo analizza il caso spagnolo dell'algoritmo Viogen, utilizzato per valutare il rischio di violenza di genere, evidenziando i limiti e i pericoli di affidare decisioni di vita a sistemi automatici privi di trasparenza e sensibilità umana. - Unita.tv

Negli ultimi anni la tecnologia ha invaso molti ambiti della vita quotidiana, compreso quello della sicurezza e della giustizia. In Spagna, da oltre quindici anni, un algoritmo chiamato Viogen serve per valutare il rischio di violenza di genere e supportare le forze dell’ordine nelle decisioni. Ma la tragica vicenda di Lisa, vittima di omicidio nonostante la valutazione “moderata” dell’algoritmo, apre una riflessione su limiti e pericoli di affidare vite umane a sistemi automatici poco trasparenti.

Viogen, un algoritmo predittivo al centro della sicurezza spagnola

Viogen nasce con lo scopo di aiutare la polizia spagnola a identificare i casi di violenza domestica più a rischio. Analizza dati relativi a precedenti, comportamenti e situazioni personali per assegnare un punteggio di pericolo e guidare le autorità nella presa di decisioni. Dovrebbe essere uno strumento di prevenzione e protezione per le vittime. Questo sistema viene aggiornato e impiegato dal 2010 per monitorare in modo sistematico le segnalazioni di violenza di genere sul territorio nazionale.

Nella pratica, Viogen assegnò a Lisa un livello di pericolo medio nella sua situazione con l’ex partner. Quel punteggio avrebbe dovuto attivare controlli e misure restrittive più incisive, ma così non è stato. A far discutere è proprio la rigidità e opacità dell’algoritmo che ha portato a ignorare segnali di pericolo percepiti solo dagli esseri umani. Alla luce di quanto successo, si evidenzia come strumenti di questo tipo, se usati senza supervisione e trasparenza, possano diventare un limite invece di una risorsa.

I rischi di affidare giudizi a calcoli automatici senza trasparenza

La vicenda di Lisa dimostra che, senza un controllo attento e norme precise, affidare scelte complesse a un algoritmo rischia di diventare una condanna definitiva. Le autorità spagnole, basandosi sul punteggio di Viogen, negarono una misura restrittiva all’autore dell’omicidio. La macchina decise, gli esseri umani si affidarono al suo verdetto senza mettere in discussione la valutazione. Un caso che ricorda esperienze simili in altri paesi, come l’uso di software giudiziari negli Stati Uniti con risultati discutibili, dove il “mathwashing” – cioè la giustificazione di decisioni attraverso numeri e codici – nasconde una mancanza di umanità e responsabilità.

Un algoritmo non può riconoscere la complessità delle emozioni, l’urlo silenzioso di chi teme per la propria vita, né mettere in relazione situazioni contestuali. Non ha etica, non commette errori, ma fa scelte basate su dati limitati. Questa assenza di sensibilità umana pone un problema cruciale a chi concepisce e utilizza questi strumenti: chi ha la responsabilità finale sulle vite coinvolte? Affidarsi a una tecnologia senza trasparenza significa abdicare a responsabilità fondamentali.

La lezione di lisa: un appello alla riflessione su tecnologia e umanità

La morte di Lisa rappresenta un monito concreto sull’uso delle tecnologie nel campo della sicurezza pubblica e giudiziaria. Guarda al futuro ma invita a non dimenticare che dietro ogni dato c’è una persona, una storia e un vissuto difficile da tradurre in numeri. Lo sappiamo già, l’algoritmo è uno strumento in più, ma non può sostituire il giudizio e l’etica di chi deve proteggere vite umane.

Il caso spagnolo mette in evidenza la necessità di norme chiare e di un controllo umano rigoroso, per evitare che sistemi opachi decidano letteralmente sulla vita e la morte. Altrimenti si rischia di creare un “far west digitale” dove l’unico valore è il codice migliore e la voce umana viene cancellata. La tecnologia dovrebbe servire alla società, non dominarla. Bisogna chiedersi se vogliamo davvero che il futuro si basi su sistemi che ignorano la complessità delle relazioni umane per consegnarsi a decisioni fredde e numeriche.