Quando si parla di intelligenza artificiale e linguaggio, una domanda sorge spontanea: in che lingua pensa davvero un modello come ChatGPT o Claude? Anche se interagiamo con questi sistemi nella nostra lingua madre, la loro capacità di comprendere e rispondere in molte lingue diverse suggerisce che il processo interno non segue le regole del linguaggio umano. Lo studio pubblicato da Anthropic nel marzo 2025 ha provato a fare luce su questo aspetto cruciale, rivelando che l’AI crea rappresentazioni astratte dei concetti senza dipendere da una lingua specifica. Questa scoperta apre nuove prospettive per migliorare la qualità delle risposte e sviluppare sistemi più affidabili.
Cosa sono i modelli linguistici di grandi dimensioni e come elaborano il testo
I modelli linguistici di grandi dimensioni, detti LLM , sono alla base delle intelligenze artificiali più diffuse oggi. Sistemi come ChatGPT, Gemini o Claude non vengono programmati manualmente per ogni frase ma apprendono dalle enormi quantità di testi disponibili online. Attraverso questo addestramento riconoscono schemi, relazioni tra parole e strutture grammaticali senza seguire istruzioni precise.
Questi modelli riescono a generare testi coerenti, riassumere documenti complessi o tradurre tra lingue diverse grazie a processi statistici che valutano le probabilità delle parole successive in una frase. Nonostante gli sviluppatori conoscano gli algoritmi base usati nei modelli, restano ancora oscuri i meccanismi precisi con cui queste AI scelgono certe parole invece di altre durante la generazione del testo.
La difficoltà di interpretare le scelte linguistiche dell’AI
Il CEO di Anthropic ha sottolineato questa difficoltà affermando che “spesso non si sa perché l’AI compie determinate scelte linguistiche o commette errori apparentemente inspiegabili anche quando normalmente è accurata.” Questo rende indispensabile approfondire le modalità interne con cui l’intelligenza artificiale interpreta ed elabora il linguaggio naturale.
Lo studio antropico sul funzionamento multilingue del modello claude
Anthropic ha condotto un esperimento per capire se Claude “pensa” diversamente a seconda della lingua usata dall’utente oppure se utilizza una rappresentazione comune indipendente dalla lingua stessa. Per farlo hanno analizzato quali parti interne del modello si attivavano ponendo domande semplici in inglese, francese e cinese.
Ad esempio hanno chiesto al sistema: “L’opposto di ‘piccolo’ è…” nelle tre lingue osservando poi le zone coinvolte nel processo decisionale interno dell’intelligenza artificiale tramite tecniche simili alla risonanza magnetica cerebrale umana applicate ai circuiti neurali digitalizzati.
I risultati hanno mostrato che i concetti attivati – come quello di “piccolo” espresso nelle varie lingue – corrispondono sempre alle stesse aree all’interno del modello; inoltre quando viene considerato il concetto opposto , anche questa informazione emerge negli stessi circuiti indipendentemente dalla lingua utilizzata nella domanda originaria.
Rappresentazioni astratte e generalizzazione semantica
Questo indica chiaramente che Claude opera su basi astratte condivise tra tutte le lingue piuttosto che tradurre mentalmente parola per parola prima della risposta finale; quindi generalizza relazioni semantiche senza legarle direttamente al codice linguistico specifico della richiesta ricevuta.
Tuttavia lo studio presenta limiti importanti: essendo stato svolto solo su frasi brevi e semplicistiche non permette ancora una comprensione completa dei passaggi cognitivi interni coinvolti nelle risposte più complesse generate dal modello stesso.
Perché sapere in quale lingua pensa l’intelligenza artificiale conta davvero
Comprendere se un’intelligenza artificiale ragiona attraverso rappresentazioni astratte comuni oppure privilegia alcune lingue durante la sua elaborazione è fondamentale per costruire sistemi capaci di garantire qualità uniforme nelle risposte qualunque sia la lingua dell’utente finale.
Se infatti un AI riesce ad associare concetti universali anziché dipendere esclusivamente dai dati provenienti da specifiche lingue, può trasferire ciò che impara da testi scritti ad esempio in inglese anche alle altre decine o centinaia di linguaggi, assicurandone così accuratezza ed efficacia.
Nonostante ciò rimane aperta la discussione scientifica riguardo al ruolo predominante dell’inglese nell’addestramento degli LLM: molti ritengono infatti che gran parte dei dati testuali usati siano ancora prevalentemente anglofoni, condizionando inevitabilmente alcune fasi finali della produzione testuale.
Lo studio proposto da Anthropic segna però un passo avanti verso maggior trasparenza sui processi interni delle AI linguistiche. Resta comunque molto lavoro davanti prima di svelare completamente tutte le dinamiche cognitive digitalizzate dietro questi strumenti ormai diffusi nel mondo reale.