Negli ultimi tempi sempre più persone caricano esami clinici, radiografie e referti medici su piattaforme di intelligenza artificiale generativa, alla ricerca di interpretazioni o possibili diagnosi. Una pratica che però sta mettendo in allarme il Garante per la protezione dei dati personali. L’autorità richiama l’attenzione sui rischi legati alla gestione di informazioni sanitarie così delicate e sulle risposte spesso imprecise o incomplete fornite dagli algoritmi. Un tema diventato centrale nel 2025, con la diffusione crescente di queste tecnologie e il loro impatto sulla privacy e sulla salute dei cittadini.
Pericolo di perdere il controllo sui dati sanitari nelle piattaforme AI
Il Garante Privacy sottolinea un rischio concreto: gli utenti rischiano di perdere il controllo sulle proprie informazioni mediche caricate sulle piattaforme di intelligenza artificiale. Parliamo di dati molto sensibili, come esami clinici o immagini radiologiche, che hanno tutele specifiche. Molti servizi di IA generativa danno agli utenti la possibilità di scegliere se i documenti caricati vengano cancellati subito dopo l’uso o conservati per altri scopi, come l’addestramento degli algoritmi.
Questa differenza è fondamentale, perché la conservazione dei dati senza trasparenza può portare a usi impropri o alla diffusione non autorizzata. Il Garante invita dunque a leggere con attenzione le informative sulla privacy dei gestori, per capire come vengono trattati i dati sanitari e quali diritti si possono esercitare.
Quando l’intelligenza artificiale sbaglia: i limiti delle diagnosi automatiche
Un altro punto chiave evidenziato dall’Autorità riguarda l’affidabilità delle risposte fornite dalle piattaforme di IA quando si tratta di interpretare dati medici. Anche se questi sistemi riescono a elaborare grandi quantità di informazioni, possono fornire indicazioni sbagliate o parziali. E questo diventa pericoloso se le loro risposte vengono prese come verità assoluta, senza un controllo medico.
Il Garante ricorda che ogni risposta automatica deve essere sempre verificata da un medico esperto. L’intelligenza artificiale può aiutare, ma non può sostituire il giudizio clinico umano, soprattutto quando si parla di salute. Lo conferma anche il Regolamento europeo sull’IA e il parere del Consiglio Superiore di Sanità: serve sempre un passaggio umano.
Senza questo filtro, l’uso senza criterio delle diagnosi generate dall’IA può compromettere diagnosi e cure, con conseguenze serie per chi si affida a questi strumenti senza consultare un professionista.
Il Garante: come usare l’IA in modo consapevole e sicuro
Per proteggere la privacy e la salute di chi usa piattaforme di intelligenza artificiale, il Garante dà un messaggio chiaro: serve prudenza. Prima di condividere dati sanitari, bisogna pensare bene se vale la pena farlo e capire cosa succede alle informazioni inviate.
È importante controllare cosa dice il gestore del servizio sulle condizioni d’uso, soprattutto sulla possibilità di cancellare i dati o sul loro impiego per addestrare i modelli. Leggere le informative sulla privacy aiuta a evitare brutte sorprese su come vengono trattate le informazioni personali e sanitarie.
Il Garante consiglia inoltre di prendere le risposte dell’IA come un punto di partenza, mai come una diagnosi definitiva. Serve sempre il parere di un medico per una valutazione corretta, così da evitare rischi legati a errori o malintesi che possono nascere quando si usano questi strumenti senza un controllo umano.
Queste raccomandazioni puntano a difendere la salute pubblica, evitando che la diffusione veloce delle tecnologie digitali metta a rischio dati personali e diagnosi affidabili. Mentre l’intelligenza artificiale si fa strada in medicina, resta fondamentale mettere al centro i diritti e la sicurezza degli utenti.
Ultimo aggiornamento il 30 Luglio 2025 da Andrea Ricci