Home Tecnologia Attacchi informatici e propaganda globale: come ChatGPT viene sfruttato da gruppi malevoli nel 2025
Tecnologia

Attacchi informatici e propaganda globale: come ChatGPT viene sfruttato da gruppi malevoli nel 2025

Condividi
Condividi

L’intelligenza artificiale, e in particolare modelli come ChatGPT, non sono più solo strumenti di supporto o intrattenimento. Nel 2025, emergono casi concreti in cui queste tecnologie vengono impiegate per attività illecite su scala mondiale. OpenAI ha pubblicato un report dettagliato che documenta come attori con intenti criminali o politici stiano usando l’IA per orchestrare truffe, campagne di disinformazione e attacchi informatici complessi. Questi episodi mostrano un salto significativo nell’abuso dell’IA generativa.

Le nuove frontiere della criminalità digitale con l’intelligenza artificiale

Il rapporto “Disrupting Malicious Uses of AI: June 2025” di OpenAI descrive una serie di operazioni malevole scoperte negli ultimi mesi. Queste attività vanno ben oltre i tradizionali crimini digitali; includono sofisticate tecniche di ingegneria sociale e manipolazioni politiche occulte. Ad esempio, in Corea del Nord sono stati creati curriculum falsificati usando ChatGPT per ottenere lavori da remoto presso aziende estere, soprattutto statunitensi. Alcuni contratti prevedevano la consegna a domicilio di dispositivi aziendali controllabili a distanza, aprendo potenziali varchi nelle infrastrutture digitali sensibili.

Parallelamente si registrano campagne filo-governative coordinate dalla Cina su piattaforme social come TikTok e Reddit con l’obiettivo di influenzare il dibattito pubblico sulla questione Taiwan. Anche nelle Filippine l’IA alimenta una campagna elettorale pro-Marcos attraverso account falsi che diffondono messaggi positivi tramite emoji e like automatizzati.

Questi esempi evidenziano quanto sia facile replicare azioni complesse grazie all’automazione offerta dall’IA generativa: scrivere malware riga per riga o creare botnet capaci di amplificare messaggi propagandistici diventa alla portata anche dei gruppi meno strutturati.

Disinformazione mirata ed espionaggio digitale attraverso profili fasulli

Tra le operazioni più sofisticate c’è “VAGue Focus”, attribuita a presunti gruppi legati alla Cina che hanno usato ChatGPT per impersonare giornalisti freelance o analisti inesistenti contattando accademici ed esperti occidentali. L’obiettivo era raccogliere informazioni riservate su temi delicati quali le politiche USA verso Taiwan o questioni europee interne.

L’intelligenza artificiale ha permesso la creazione rapida e credibile di identità false complete di biografie dettagliate scritte in modo convincente. I messaggi inviati simulavano uno stile giornalistico realistico mentre la traduzione automatica facilitava comunicazioni multilingue senza errori evidenti.

In alcuni casi venivano offerte piccole somme agli interlocutori in cambio d’interviste o documentazione scritta; altre volte si richiedeva accesso diretto a materiali sensibili utilizzabili poi per analisi strategiche o campagne controinformative mirate ad alterare percezioni pubbliche nei paesi coinvolti.

Elezioni tedesche nel mirino: propaganda assistita dall’intelligenza artificiale

Un’altra campagna segnalata dal report riguarda le elezioni federali tedesche del 2025 dove reti sospettate filorusse hanno diffuso contenuti volti a sostenere il partito AfD e delegittimare Berlino criticando apertamente la NATO tramite canali Telegram ma anche siti web pseudogiornalistici come Pravda DE.

L’utilizzo dell’IA generativa è stato cruciale nella produzione veloce ed efficace dei testi propagandistici adattandoli perfettamente al linguaggio naturale tedesco evitando errori culturali che avrebbero potuto smascherarne subito l’origine straniera.

Questa capacità rende molto più insidiosi i tentativi d’influenzamento politico perché i contenuti appaiono autentici agli occhi degli utenti comuni mentre dietro ci sono strategie orchestrate da operatori esterni interessati a destabilizzare scenari democratici consolidati.

Sviluppo avanzato di malware con assistenza dell’intelligenza artificiale

Non solo propaganda ma anche cybercriminalità tecnica vede oggi l’impiego massiccio dell’IA nella creazione degli strumenti d’attacco stessi. Il caso “ScopeCreep”, riconducibile probabilmente ad hacker russi secondo OpenAI, mostra come ChatGPT abbia scritto codice maligno multi-stadio mascherato da software legittimo rivolto ai gamer online.

Il malware è stato sviluppato principalmente in Go — linguaggio noto per velocità ed efficienza — integrando script PowerShell utilissimi ad automatizzare azioni sui sistemi Windows compromessi. L’assistenza fornita dall’intelligenza artificiale non si è limitata alla semplice scrittura del codice ma ha incluso il debug automatico migliorando funzionalità nascoste atte ad aggirare sistemi antivirus quali Windows Defender.

Questo episodio dimostra concretamente quanto gli strumenti IA possano diventare complicatori delle difese informatiche aumentando la rapidità con cui nuovi virus vengono progettati testati ed evoluti senza bisogno della supervisione umana costante.

Segnali digitali e contrasto alle minacce basato sull’intelligenza artificiale

Nonostante questi abusi gravi, ogni uso illecito lascia tracce precise nei sistemi digitali e genera pattern riconoscibili dai team dedicati alla sicurezza. Le interazioni anomale, richieste ripetute fuori norma, comportamenti inconsueti nei log lasciano dietro sé indizi preziosi.

Gli esperti possono così intercettarli tempestivamente bloccando account sospetti prima che causino danni permanenti. Questo processo consente un controllo continuo delle piattaforme basato in parte proprio sulle capacità predittive offerte dagli stessi modelli IA usati per gli attacchi.

Le sfide restano alte poiché chi sfrutta queste tecnologie migliora continuamente tattiche, modalità d’inganno ed evasione. Ma proprio grazie all’analisi puntuale delle tracce generate dalle interazioni con i modelli AI diventa possibile individuare l’attività malevola prima ancora che si manifesti in pieno danno.

Nel panorama globale odierno, l’equilibrio tra uso responsabile dell’intelligenza artificiale e prevenzione dei rischi dipende dalla continua vigilanza tecnologica insieme alla collaborazione internazionale tra enti pubblici e privati e specialisti della sicurezza digitale.

Written by
Serena Fontana

Serena Fontana è una blogger e redattrice digitale specializzata in cronaca, attualità, spettacolo, politica, cultura e salute. Con uno sguardo attento e una scrittura diretta, racconta ogni giorno ciò che accade in Italia e nel mondo, offrendo contenuti informativi pensati per chi vuole capire davvero ciò che succede.

Unita.tv è un sito d’informazione generalista che offre aggiornamenti su cronaca, politica, spettacolo, gossip, sport e altri temi d’attualità, con uno stile dinamico e accessibile.

Info & Comunicati

Per info e comunicati stampa inviare email a: info@unita.tv

Questo blog non è una testata giornalistica, in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 07.03.2001.