L’imprenditore Elon Musk torna a far parlare di sé con una proposta che riguarda il futuro dell’intelligenza artificiale. Musk ha annunciato l’intenzione di utilizzare Grok 3.5, un modello con capacità avanzate di ragionamento, per rielaborare completamente il patrimonio informativo umano. L’obiettivo è correggere errori e integrare dati mancanti prima di riaddestrare il sistema su queste nuove basi più solide.
La critica ai dati utilizzati per addestrare le intelligenze artificiali generative
Secondo Musk, uno dei problemi principali delle intelligenze artificiali generative deriva dalla qualità dei dati usati durante l’addestramento. Questi dati provengono in gran parte da contenuti online che spesso contengono informazioni imprecise o distorte, definiti dallo stesso imprenditore come “spazzatura”. La sua osservazione si concentra sulla difficoltà nel garantire la correttezza e la veridicità delle fonti disponibili sul web.
Nel caso specifico del modello Grok, sviluppato da Musk stesso e collegato al social network X , i contenuti provenienti da questa piattaforma rappresentano una parte rilevante del materiale utilizzato per insegnare all’IA a rispondere agli utenti. Tuttavia, Elon sottolinea come questi post non siano sempre affidabili perché spesso contaminati da opinioni personali o interpretazioni parziali dei fatti.
La proposta consiste nel creare un archivio nuovo e più rigoroso di informazioni ritenute “fattualmente vere”, anche se politicamente scorrette o divisive. Questo database dovrebbe servire a fornire un terreno più solido su cui allenare Grok 3.5 evitando così gli errori legati alla confusione tra fatti e opinioni presenti nei materiali originali.
Le polemiche sulle interferenze umane nelle risposte delle ia
Le dichiarazioni di Elon arrivano in un momento delicato per le IA conversazionali come ChatGPT, accusate da alcuni critici – incluso lo stesso Musk – di essere influenzate da bias culturali legati a ideologie woke o politicamente corrette imposte dall’establishment tecnologico.
Oltre alle critiche sui dati errati usati nell’addestramento, c’è anche chi sospetta che alcune risposte fornite dalle IA siano state modificate manualmente su temi sensibili quali elezioni americane o questioni internazionali controverse come il presunto genocidio bianco in Sudafrica.
Queste modifiche avrebbero lo scopo dichiarato – secondo alcuni osservatori – di limitare certi discorsi ritenuti troppo divisivi o controversi ma sollevano dubbi sull’autenticità delle interazioni generate dall’intelligenza artificiale stessa.
Il dibattito mette così in luce i rischi legati al controllo umano sulle macchine intelligenti quando si tratta della gestione dell’informazione pubblica attraverso algoritmi apparentemente neutrali ma potenzialmente manipolabili dietro le quinte.
Reazioni degli esperti alla proposta di musk: tra distopia orwelliana e preoccupazioni etiche
Tra coloro che hanno commentato la mossa annunciata dal fondatore Tesla spicca Gary Marcus, professore emerito alla New York University esperto nel campo dell’intelligenza artificiale. Marcus ha definito l’idea una sorta di “distopia orwelliana”, richiamando direttamente al romanzo 1984 dove il controllo totale sulla storia serve ad allinearla alle convinzioni del potere dominante.
Secondo Marcus l’approccio proposto rischia infatti non solo di falsificare fatti storici ma anche limitare gravemente la libertà d’espressione attraverso una selezione arbitraria delle informazioni considerate accettabili per addestrare i modelli IA.
Il confronto tra visioni diverse evidenzia quanto sia complesso bilanciare accuratezza scientifica ed etica nella costruzione degli strumenti basati sull’intelligenza artificiale soprattutto quando questi vengono utilizzati nella comunicazione pubblica globale con milioni di utenti coinvolti ogni giorno su piattaforme digitali diffuse ovunque nel mondo.