Home Tecnologia I limiti dei modelli linguistici e il rischio per l’intelligenza umana nell’era dell’AI generativa
Tecnologia

I limiti dei modelli linguistici e il rischio per l’intelligenza umana nell’era dell’AI generativa

Condividi
Condividi

L’uso crescente di sistemi di intelligenza artificiale basati su modelli linguistici ha aperto un dibattito acceso sulla loro affidabilità e sulle conseguenze cognitive per chi li impiega. Questi strumenti, pur capaci di produrre testi coerenti e formalmente corretti, nascondono limiti strutturali che mettono in discussione la possibilità di delegare loro compiti intellettuali complessi senza rischi. La questione riguarda non solo la tecnologia ma anche il modo in cui le persone interagiscono con essa, soprattutto nel campo educativo e professionale.

Come funzionano i large language models e perché non sono affidabili

I large language models come quelli alla base delle più recenti applicazioni AI sono sistemi che prevedono la parola successiva più probabile in una sequenza testuale basandosi su enormi quantità di dati raccolti da fonti scritte. Non si tratta quindi di macchine che ragionano o valutano informazioni: calcolano probabilità senza memoria né responsabilità.

Errori intrinseci dei LLM

Questa caratteristica implica che gli errori — chiamati hallucination — sono parte integrante del sistema. Si manifestano come risposte sbagliate presentate con sicurezza, difficili da distinguere dall’informazione corretta senza un controllo umano attento. Il modello non conosce realmente ciò che produce: esegue calcoli statistici su dati preesistenti.

La riduzione degli errori sotto una soglia minima accettabile appare oggi irraggiungibile. Nessun principio matematico o fisico garantisce un miglioramento automatico legato all’aumento della dimensione del modello o della potenza computazionale impiegata.

Inoltre, ogni tentativo tecnico per aumentare l’affidabilità introduce ulteriori complessità: architetture a catena, filtri epistemici dinamici o meccanismi di citazione vincolata cercano infatti solo di mascherare questo limite fondamentale senza eliminarlo davvero.

Le sfide infrastrutturali ed economiche nella crescita dell’intelligenza artificiale

Lo sviluppo dei modelli AI incontra ostacoli concreti sul piano hardware e delle risorse disponibili. I chip più avanzati provengono da filiere limitate e fragili; i data center raggiungono saturazioni nelle reti; il consumo energetico cresce rapidamente rispetto ai benefici ottenuti dalla qualità dei risultati prodotti.

Limitazioni delle fonti dati

Il problema si aggrava perché i dati utili a migliorare questi sistemi stanno finendo: quelli già utilizzati rappresentano quasi tutto ciò che è disponibile in forma valida mentre nuove fonti contengono spesso duplicazioni o contenuti sintetici poco affidabili.

In Europa la situazione è complicata dal fatto che mentre alcuni paesi cercano investimenti sovrani per colmare il divario tecnologico con altre aree mondiali, si discute principalmente sull’AI Act — una regolamentazione ambiziosa ma distaccata dalle reali capacità tecniche attuali degli strumenti AI sviluppati altrove.

Questa discrepanza evidenzia quanto sia difficile regolamentare efficacemente qualcosa ancora poco compreso nei suoi meccanismi fondamentali.

Ragionamento artificiale? ingegneria esterna ai modelli linguistici

Alcuni esperimenti hanno cercato modi per far apparire i LLM capaci di “ragionare” attraverso tecniche come chain-of-thought oppure combinando questi modelli con motori simbolici esterni o ambienti strutturati dove spezzare il processo decisionale in passaggi intermedi controllabili meglio dall’uomo.

Tuttavia questa capacità non nasce dal nucleo stesso del modello ma deriva da un insieme complesso d’interventi esterni progettati dagli ingegneri per compensarne le carenze intrinseche. Questa rete articolata può dare risultati promettenti su certuni compiti specifiche ma manca ancora qualsiasi prova della sua sostenibilità generale nel tempo né della possibilità d’estendere queste soluzioni a tutti gli usi previsti dall’intelligenza artificiale generale .

Fino a quando non sarà possibile identificare chiaramente quali parti del procedimento siano realmente affidabili sarà improprio parlare davvero di “ragionamento” nei LLM; piuttosto si tratta d’una serie coordinata d’interventì pensati fuori dal modello stesso.

Delega cognitiva all’intelligenza artificiale tra aspettative irrealistiche e rischî concreti

Molte narrative economiche, politiche ed industriale danno ormai quasi scontato che l’IA generativa possa sostituire funzioni cognitive umane complesse quali sintetizzare informazioni complesse, valutare scenari incerti oppure prendere decisionì importanti autonomamente. Ma nessuna verifica rigorosa ha confermato questa capacità fino ad oggi né sembra possibile farlo presto viste le caratteristiche strutturali degli attuali sistemi.

Finché gli errorî restaranno frequenti ed elevatì , finché mancherà uno standard condiviso capace distinguere verità da apparenze convincentì , continuera ad essere illusorio assegnar loro ruoli decisionali rilevanti.

Eppure molte strategie aziendali puntano proprio su questa presunta trasformazione digitale spingendo investimenti significativi basandosi su ipotesì mai dimostrate concretamente.

Etica dell’intelligenza artificiale tra discussioni premature e fraintendimenti tecnologiçi

Nel dibattito pubblico abbondan linee guida morali , comitati eticî , manifestî dedicatì al futuro rapporto tra esseri umani ed IA. Spesso però queste riflessionï parton prima ancora d’avere accertato se sia sensatò parlare veramente dì delega cognitiva automatizzata.

Discuterè cosa farà l’IA all’umanitá prima dì capire cosa riesce effettivamente fare significa cadere nella trappola dì una “teologia laica” : attribuire valore morale a entitá incomprese.

Nessuno affideré mai interventì medichè critichè ad oracoli statistichi prividi dì memoria responsabile. Eppure questo avviene implicitamente quando si ignora la natura probabilistica priva dí coscienza dei LLM.

L’impatto sugli studenti: perdita silenziosa della comprensione critica

Chi insegna materie scientifiche osserva spesso studenti usare questi strumenti durante esercitazioni pratiche : codificano commentando dati , sintetizzando articoli scientificí . I testi prodotti risultan formalmemte corretti – ben organizzatii – ma concettualmente vuoti.

Quando viene chiesto agli studenti perché abbiano scelto determinate soluzioni raramente sanno rispondere ; sembrerà strano ma è così : hanno perso punti fondamentali nella catena logica perché il modello ha fornito tutto già pronto.

Questo fenomeno segnala uno spostamento inquietante :la comprensione passa fuori dalla consapevolezza diretta dello studente ; egli perde segnali vitalí necessari riconoscere lacune proprie nelle conoscenze.

Non riguarda solo competenze specifiche ; coinvolge direttamente quella capacità metacognitiva indispensabilé alla formazione critica.

Prospettive future tra narrazioni infondate e necessità concrete

Se entro due anni non verranno contemporaneamente raggiunti tre parametri precisi – errore sotto 5% sui compiti aperti , costo verificabile inferiore a 0,01 euro per token prodotto , raddoppio sostenibile ogni sei mesi delle risorse computazionali utilmente impiegate – allora nessuna svolta epocale avverrà realmente.

Sarà semplicemente svanita una narrazione costruita sopra aspettative troppo ottimistiche riguardo al progresso tecnologico automatico.

Il rischio maggiore resta tuttavia quello meno visibile : confondere coerenzà apparente con vera conoscenza ; lasciare spazio alle risposte immediate inveceche alla riflessione profonda ; sostituire processï cognitivi umani fondamentali con simulazioni fluide prive dí coscienza critica.

La sfida reale sta nel preservarel’intelletto umano davanti alle nuove tecnologie inveceche inseguire illusionid’intelligènzâ artificale generalizzata.

Walter Quattrociocchi è professore ordinario all’università Sapienza di Roma

Written by
Serena Fontana

Serena Fontana è una blogger e redattrice digitale specializzata in cronaca, attualità, spettacolo, politica, cultura e salute. Con uno sguardo attento e una scrittura diretta, racconta ogni giorno ciò che accade in Italia e nel mondo, offrendo contenuti informativi pensati per chi vuole capire davvero ciò che succede.

Unita.tv è un sito d’informazione generalista che offre aggiornamenti su cronaca, politica, spettacolo, gossip, sport e altri temi d’attualità, con uno stile dinamico e accessibile.

Info & Comunicati

Per info e comunicati stampa inviare email a: info@unita.tv

Questo blog non è una testata giornalistica, in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 07.03.2001.