L’intelligenza artificiale sta modificando in modo significativo la scuola, la pubblica amministrazione e il modo in cui cittadini e istituzioni interagiscono. A San Cataldo, un convegno organizzato dall’associazione “Incontriamoci in Biblioteca Aps” ha messo a fuoco questi cambiamenti, coinvolgendo esperti di vari ambiti per discutere le implicazioni concrete di questa trasformazione.
Come l’IA modifica la scuola
Giovanni Marcello Li Vigni, dirigente dell’Ufficio Scolastico Regionale Sicilia per Caltanissetta ed Enna, ha sottolineato come l’IA stia già rimodellando profondamente il sistema educativo. Non si tratta solo di introdurre nuove tecnologie nelle classi ma di ripensare interamente il rapporto tra studenti, famiglie, insegnanti e dirigenti scolastici. Questo “nuovo paradigma” richiede attenzione particolare alla gestione dei dati personali degli studenti più giovani. Li Vigni ha evidenziato la necessità urgente di strumenti capaci di tutelare i minori da rischi legati alla privacy e all’uso improprio delle informazioni raccolte attraverso sistemi intelligenti.
Tutela dei dati e competenze digitali
Il tema della protezione dei dati è centrale perché l’adozione dell’IA nella didattica comporta una raccolta massiccia di informazioni sensibili che devono essere trattate con rigore per evitare discriminazioni o violazioni della riservatezza. L’evoluzione tecnologica spinge anche verso una revisione delle competenze richieste ai docenti; non basta più saper usare gli strumenti digitali ma serve comprendere le dinamiche che regolano i sistemi intelligenti per guidare gli studenti nel loro utilizzo consapevole.
Intelligenza artificiale nella pubblica amministrazione: opportunità e sfide
Nel settore pubblico italiano circa 1 milione 850 mila dipendenti sono interessati dall’influenza crescente dell’intelligenza artificiale. Giovanni Proietto, giornalista specializzato, ha citato uno studio presentato al Forum PA 2024 secondo cui oltre l’80% dei lavoratori pubblici potrebbe migliorare la propria produttività grazie all’impiego dell’IA nei processi quotidiani. Tuttavia esiste anche un rischio concreto: circa il 12% del personale impegnato in mansioni ripetitive potrebbe essere sostituito da sistemi automatizzati.
Formazione e consulenza esterna
Questa situazione pone al centro del dibattito la formazione professionale specifica ancora largamente insufficiente nel mondo pubblico; soltanto poco più del 20% dei dipendenti hanno ricevuto corsi base sull’utilizzo degli strumenti basati sull’intelligenza artificiale. Gli esperti presenti hanno segnalato come servano figure nuove dotate di competenze tecniche precise capaci non solo di gestire queste tecnologie ma anche garantire trasparenza ed equità nell’applicazione delle stesse.
Un altro punto critico riguarda l’aumento della consulenza esterna nella Pubblica Amministrazione che tra il 2020 e il 2023 è cresciuta del 30%. Questo fenomeno rischia infatti di indebolire le capacità interne rendendo meno autonoma ed efficace tutta la macchina burocratica.
Evoluzione tecnica dell’intelligenza artificiale
La professoressa Nicole Dalia Cilia, docente presso il Dipartimento d’Informatica alla Kore University of Enna, ha spiegato come si sia passati da modelli basati su regole esplicite a forme avanzate quali machine learning fino ad arrivare all’intelligenza generativa capace cioè d’imparare direttamente dai dati forniti durante l’esercizio quotidiano.
Criticità e opacità degli algoritmi
Questo processo però presenta criticità importanti soprattutto legate alla qualità delle informazioni usate dal sistema: se i dati sono distorti o incompleti, le risposte generate possono risultare errate o addirittura discriminatorie verso alcuni gruppi sociali o categorie professionali. L’esperta ha insistito sulla necessità d’intervenire con attenzione nella pulizia dei dati senza però alterarne troppo la realtà sottostante così da mantenere attendibilità alle decisioni prese dall’algoritmo.
Un ulteriore problema riguarda ciò che viene definita “opacità” dei modelli, ovvero situazioni in cui nemmeno chi progetta questi sistemi riesce sempre a spiegare perché certe risposte vengano prodotte. A questo si aggiungono fenomeni noti come “allucinazioni”, cioè errori nei contenuti generati dall’IA, che obbligano ad una supervisione costante da parte degli operatori umani.
Questioni etiche e normative nell’uso dell’intelligenza artificiale
Durante gli interventi è stato ricordato che dietro ogni algoritmo c’è sempre un rischio insito: “se vengono alimentati con dati sbagliati, anche le decisioni prese saranno distorte”. Il caso emblematico riportato dal giornalista Giovanni Proietto riguarda circa ventiseimila famiglie olandesi accusate ingannevolmente tra il 2005 e il 2019 dalla Agenzia fiscale locale, per presunte frodi sui sussidi infantili causata proprio da un algoritmo difettoso.
Sul piano normativo negli ultimi mesi sono stati fatti passi rilevanti sia a livello europeo sia nazionale. Dal primo agosto scorso è entrata ufficialmente in vigore la regolamentazione europea nota come AI Act, mentre lo scorso maggio l’Italia ha approvato una legge nazionale pensata appositamente per adattarne principi fondamentali al contesto interno ponendo particolare attenzione ai temi della trasparenza, della tutela diritti individuali e collettivi.
Questi provvedimenti rappresentano tentativi concreti volti ad evitare derive incontrollabili nell’impiego diffuso delle tecnologie artificiali in ambiti delicatissimi quali quelli educativi, amministrativi e sociali in generale.
Riflessioni dalla storia informatica italiana
Elio Cirrito, figura storica della pubblica amministrazione italiana presente al convegno, ha ricordato la fase iniziale dell’informatizzazione negli anni ’80 caratterizzata dalla diffidenza generalizzata accompagnata però dalla scarsa organizzazione e formazione adeguata e conseguente inefficacia operativa.
Ha sottolineato che oggi non bisogna ripetere quegli errori sottovalutandone impatto sociale, culturale e politico. Serve invece costruire consapevolezza collettiva, coinvolgere tutti gli attori, prevedere strategie chiare, orientate e dare priorità assoluta alla formazione continua affinché il ruolo umano resti in primo piano pur accogliendo innovazioni tecnologiche ormai inevitabili.
Gianfranco Cammarata, presidente associazione promotrice, ha ribadito l’importanza politica prima ancora che tecnica della sfida posta dall’intelligenza artificiale: essa non sostituirà completamente l’uomo ma cambierà profondamente le sue funzioni, eliminando compiti ripetitivi e moltiplicando quelli relazionali ad alta interazione sociale e culturale.