La diffusione di sistemi di sorveglianza basati su intelligenza artificiale sta cambiando il modo in cui vengono monitorati gli spazi pubblici come stazioni, aeroporti e centri commerciali in molte città. Queste tecnologie, capaci di riconoscere volti e tracciare individui in tempo reale, offrono strumenti nuovi alla sicurezza ma alzano questioni urgenti sulla tutela della privacy e sulla libertà personale. In Europa si è intervenuti con il recente AI Act che regola l’uso degli algoritmi ad alto rischio, incluso il riconoscimento facciale, ma i dubbi restano aperti.
Come funziona la sorveglianza basata su intelligenza artificiale negli spazi pubblici
In molte metropoli, telecamere collegate a sofisticati software di riconoscimento facciale osservano i volti delle persone in transito. I sistemi analizzano i tratti somatici e li confrontano con grandi database di immagini, foto di documenti e profili social, assegnando un punteggio che può variare da “normale” a “sospetto” o “pericoloso”. Questa tecnologia viene proposta come un mezzo per prevenire azioni criminali, contrastare il terrorismo e intervenire più rapidamente in caso di emergenze sanitarie o eventi di massa.
Il meccanismo non si limita solo al riconoscimento dei singoli; sistemi di predictive policing incorporano dati storici e modelli statistici per individuare quartieri, eventi o persone potenzialmente a rischio. Inoltre, sensori e dispositivi collegati all’Internet of Things trasformano le città in “laboratori” di raccolta dati continua, con algoritmi che elaborano informazioni provenienti da molteplici fonti.
Lo scenario è complesso: non è solo lo Stato ad osservare, ma un insieme di dispositivi e software che monitorano chiunque, senza distinzioni. Questa sorveglianza algoritmica può funzionare in modo istantaneo, producendo classificazioni e anticipazioni che si riflettono poi nella gestione real time degli spazi urbani.
I rischi concreti per la privacy e la libertà democratica
L’espansione di tecnologie di riconoscimento facciale e predictive policing espone a rischi significativi. Gli algoritmi si basano su dati che possono contenere pregiudizi o errori e questo produce discriminazioni: minoranze etniche possono finire sotto maggiore controllo, aree più popolari sono viste come “più pericolose” senza una reale base oggettiva, comportamenti comuni si possono trasformare in segnali di anomalie.
Lo spazio pubblico, tradizionalmente un luogo dove la persona gode di un certo anonimato, rischia di diventare un territorio di controllo soffocante. La consapevolezza di essere costantemente osservati porta all’“effetto chilling”: cambia il modo in cui le persone si comportano, si limita l’espressione spontanea e diffusa l’autocensura.
Un altro aspetto riguarda la capacità predittiva degli algoritmi. Non si guarda solo a cosa è stato fatto in passato ma a cosa qualcuno potrebbe fare in futuro. In pratica, si instaura una condizione di “sospetto permanente”, che può colpire interi gruppi o quartieri sulla base di correlazioni statistiche, non di fatti concreti.
Il rischio non è solo individuale ma collettivo: si rafforza lo stigma sociale e si intensifica un sistema di controllo che limita la libertà. Ci sono esempi globali che mostrano questo fenomeno, come la sorveglianza biometrica in Cina o le proteste negli Stati Uniti contro progetti di predictive policing giudicati discriminatori.
La risposta dell’Europa e le norme del nuovo ai act
Il 2 agosto 2025, l’Unione Europea ha messo in vigore l’AI Act, una delle prime regolamentazioni scritte con il fine di disciplinare l’uso dell’intelligenza artificiale soprattutto laddove influisce sui diritti fondamentali. L’atto vieta sistemi di sorveglianza sociale basati su IA considerati a rischio inaccettabile, come il riconoscimento facciale in spazi pubblici, ma permette alcune eccezioni per casi di terrorismo, ordine pubblico o emergenze.
Questa normativa introduce obblighi rigorosi per i sistemi ad alto rischio, imponendo trasparenza, audit periodici e misure di gestione dei rischi. Inoltre richiede che ogni Stato membro abbia autorità di vigilanza dedicata e un punto di contatto aperto al pubblico per monitorare l’uso delle tecnologie IA. Le sanzioni per chi viola le norme possono raggiungere 35 milioni di euro o il 7% del fatturato globale della società responsabile.
L’AI Act rappresenta un passo avanti per mettere limiti chiari e definire una governance pubblica, ma resta una sfida complessa l’applicazione concreta di queste regole. La distinzione tra sicurezza e controllo è sottile e la pressione per ampliare le eccezioni può indebolire le protezioni a favore della privacy.
Il dilemma politico e sociale dietro la sorveglianza algoritmica
Questo passaggio tecnologico segna una svolta importante nel rapporto tra cittadino e autorità. Non più solo uno Stato che vigila, ma un sistema automatizzato che osserva e valuta ogni persona. Alla base c’è un cambio di paradigma: la macchina determina chi è “normale” o “a rischio” senza mediazioni umane trasparenti.
La questione assume una dimensione politica perché impatta diritti fondamentali e il senso stesso della cittadinanza. Con un controllo costante e un sistema basato su sospetti predittivi, la libertà si trasforma in un bene concesso a chi rispetta criteri automatici. La gestione della sorveglianza diventa un problema di democrazia, dignità e giustizia sociale.
Il confronto europeo evidenzia la necessità di un equilibrio difficile da raggiungere. Il punto non è abbandonare la tecnologia, ma individuare modalità che salvaguardino la privacy e offrano strumenti di tutela e ricorso. Un confronto pubblico ampio, dove istituzioni, cittadini e operatori tecnologici discutano con trasparenza, appare ormai indispensabile.
Il tema resta aperto e incerto. La posta in gioco va oltre i confini della tecnologia: riguarda il tipo di società che vogliamo costruire e quali diritti siamo pronti a mettere da parte, forzati dal desiderio di sicurezza. Le leggi nascono per proteggere, ma devono impedire che la sorveglianza trasformi la vita sociale in una continua raccolta di dati senza controllo umano.
Ultimo aggiornamento il 31 Agosto 2025 da Serena Fontana