Un gruppo di ricerca dell’università di Zurigo ha realizzato un esperimento su Reddit per misurare la capacità delle intelligenze artificiali di influenzare le opinioni degli utenti. I risultati preliminari hanno mostrato che le AI possono essere molto più persuasive degli esseri umani, fino a sei volte tanto. Lo studio, però, è stato interrotto dopo le forti critiche sollevate dagli utenti e dagli amministratori della piattaforma, che non erano stati informati della sperimentazione in corso.
L’esperimento condotto su reddit per valutare la persuasione delle intelligenze artificiali
Tra novembre 2024 e marzo 2025 il team dell’università di Zurigo ha scelto Reddit come ambiente naturale per testare l’efficacia persuasiva delle AI in un contesto reale. La piattaforma è formata da numerose comunità tematiche chiamate subreddit; i ricercatori hanno focalizzato la loro attenzione sul subreddit r/ChangeMyView, dedicato al confronto tra opinioni divergenti dove gli utenti premiano con “punti” i commenti capaci di farli cambiare idea.
Per realizzare l’esperimento sono stati inseriti diversi bot programmati per scrivere testi simili a quelli prodotti da esseri umani. Ogni bot aveva una “personalità” differente: alcuni rispondevano in modo standard mentre altri personalizzavano i messaggi adattandoli alle caratteristiche del singolo utente. Un’ulteriore AI analizzava gli ultimi 100 post pubblicati da ogni persona coinvolta per dedurre dati come età, genere, orientamento politico o posizione geografica e calibrare così il tono e il contenuto della risposta.
Questa metodologia ha permesso ai ricercatori di osservare come si comportano le persone quando interagiscono con un’intelligenza artificiale senza sapere che stanno partecipando a uno studio scientifico.
Risultati preliminari: le ai si dimostrano molto più convincenti degli esseri umani
I dati raccolti indicano che anche i bot meno sofisticati ottenevano tre volte più punti rispetto agli utenti normali nel far cambiare opinione chi leggeva i commenti. Quando invece venivano utilizzate risposte personalizzate sulla base del profilo dell’interlocutore l’efficacia cresceva fino a sei volte quella degli esseri umani.
Va sottolineato che questi risultati sono ancora preliminari e non hanno superato alcun processo di revisione scientifica indipendente . Nel momento in cui lo staff universitario ha comunicato la natura dello studio agli amministratori di Reddit è scoppiata una forte polemica: molti membri della community hanno reagito male alla mancanza d’informazione preventiva e alcuni hanno addirittura minacciato gli autori dello studio.
L’uso nascosto dei bot infrangeva inoltre le regole interne del subreddit r/ChangeMyView ed è stato questo uno dei motivi principali che ha portato all’interruzione immediata delle sperimentazioni successive alla diffusione dei primi dati.
Nonostante tutto queste evidenze confermano quanto emerso da precedenti studi: maggiore è la somiglianza tra linguaggio umano e quello prodotto dall’intelligenza artificiale – soprattutto se questa riesce ad esprimere valori condivisi – più alto sarà il grado di fiducia accordata all’AI dagli interlocutori con conseguente cambiamento d’opinione.
Questioni etiche emerse dall’uso dell’intelligenza artificiale negli studi social
Il caso zurighese fa riemergere dubbi importanti sull’utilizzo delle AI nei contesti social soprattutto quando si tratta di manipolare o influenzare convinzioni personali. L’aspetto cruciale riguarda proprio la personalizzazione estrema ottenuta grazie all’elaborazione dettagliata dei profili individuali estratti dai contenuti pubblicati online senza consenso esplicito degli interessati.
Esistono applicazioni positive legate alla capacità persuasiva delle AI; ad esempio chatbot progettati per dialogare con gruppi complottisti cercando d’indirizzare verso informazioni verificate oppure strumenti utilissimi nelle campagne vaccinali dove convincere gli scettici può salvare vite umane. Ma questa stessa potenza può trasformarsi in arma controversa se impiegata nella diffusione mirata disinformativa durante periodiche consultazioni elettorali o campagne politiche aggressive create apposta per ingannare il pubblico tramite messaggi taroccati calibrati sulle paure individuale.
Aspetti legali e difficoltà tecniche
Oltre al rischio legale relativo alla violazione del consenso informato emerge anche una riflessione sulla difficoltà crescente nel distinguere contenuti generati automaticamente rispetto a quelli autenticamente prodotti da persone reali online; fenomeno destinato probabilmente ad amplificarsi negli anni futuri data l’evoluzione tecnologica costante nel campo dell’intelligenza artificiale conversazionale integrata nei social network globalmente frequentatissimi oggi giorno.
L’esempio zurighese dimostra quindi quanto sia delicato bilanciare innovazione tecnologica ed etica nella ricerca sociale digitale mantenendo trasparenza verso tutti coloro coinvolti direttamente o indirettamente nelle sperimentazioni scientifiche condotte sul web pubblico internazionale ormai sempre più abituale scenario d’indagine contemporanea.