Un nuovo software di intelligenza artificiale adottato dalla Food and Drug Administration americana sta generando risposte inesatte e fuorvianti, secondo un’inchiesta della Cnn. Elsa, il chatbot in uso da poco, ha subito attirato sospetti tra i dipendenti dell’agenzia per via di errori gravi che potrebbero influenzare decisioni su farmaci e cure.
Elsa sbaglia: risposte imprecise e informazioni inventate
Lanciato il mese scorso, Elsa doveva aiutare a recuperare e riassumere dati su regolamenti e approvazioni di prodotti medici. Invece ha fornito informazioni errate sulle categorie di farmaci autorizzati per i bambini o su indicazioni specifiche. Non solo: in più occasioni ha citato studi scientifici in modo impreciso, arrivando perfino a inventare ricerche che non esistono.
Questi errori, noti come “allucinazioni” nel linguaggio dell’intelligenza artificiale, significano che il sistema crea contenuti non basati su fatti reali. Secondo gli esperti interni sentiti dalla Cnn, questi problemi rischiano di rallentare il lavoro di valutazione dei medicinali, costringendo a controlli manuali più lunghi e faticosi.
Dipendenti sotto pressione: il chatbot complica invece di aiutare
Le fonti interne raccontano di un impatto negativo sul lavoro quotidiano. Un operatore ha detto chiaramente: “Invece di farci risparmiare tempo, Elsa ci fa perdere ore a controllare ogni sua risposta”. La necessità di vigilare con attenzione ha aumentato lo stress del personale, che deve stare attento a non fidarsi ciecamente di informazioni potenzialmente sbagliate.
La situazione ha acceso un dibattito interno acceso tra chi crede ancora nell’utilità dell’innovazione e chi invece mette in dubbio gli attuali standard del sistema. Nessuno ha abbandonato il progetto, ma si chiede una revisione urgente per evitare che strumenti come Elsa creino confusione o addirittura danni nelle procedure dell’agenzia.
La Fda risponde e mette in discussione l’inchiesta della Cnn
Dopo la diffusione dell’inchiesta, la Fda ha precisato che Elsa è ancora in fase di prova e viene usato solo da pochi dipendenti che scelgono volontariamente di testarlo. Un portavoce ha anche contestato alcune affermazioni, parlando di informazioni “travisate e tolte dal contesto”.
In una nota ripresa da Engadget, l’agenzia ha sottolineato che molte testimonianze raccolte dalla Cnn arrivano da ex dipendenti o da persone che non usano la versione attuale del chatbot, mettendo così in discussione la completezza del quadro descritto. La Fda conferma che il lavoro sul software va avanti, con attenzione agli errori segnalati, per migliorarne accuratezza e affidabilità.
Esperti esterni e il futuro dell’intelligenza artificiale negli enti pubblici
Nonostante le rassicurazioni della Fda, il caso ha acceso un dibattito più ampio sul ruolo e i limiti degli assistenti basati su intelligenza artificiale nelle istituzioni pubbliche. Eliminare le “allucinazioni” nei programmi di generazione del linguaggio è ancora una sfida. Serve un controllo umano costante, soprattutto dove la precisione è fondamentale e può influire sulla salute pubblica.
La vicenda della Fda è un esempio delle difficoltà che molte istituzioni incontrano nel tentativo di usare l’intelligenza artificiale come supporto nelle analisi e nelle decisioni. Controllare i contenuti e aggiornare continuamente i modelli rimane essenziale per ridurre gli errori, senza però perdere di vista la cautela nell’adottare queste tecnologie.
Ultimo aggiornamento il 25 Luglio 2025 da Giulia Rinaldi