Negli ultimi anni l’intelligenza artificiale ha cambiato profondamente la sicurezza informatica. Oggi, nel 2025, si registra un salto di qualità nei modi in cui AI viene sfruttata sia da chi attacca che da chi difende sistemi digitali. Le minacce diventano iper-tecnologiche, capaci di adattarsi e ingannare, mentre i sistemi difensivi puntano su analisi avanzate e automazione per riconoscere e neutralizzare ogni rischio. Questo equilibrio mutevole tra offensive e difensive segna una fase decisiva per la cybersecurity globale.
La crescita degli attacchi ai danni delle email aziendali grazie all’AI generativa
Le campagne di Business Email Compromise si sono evolute con l’arrivo dei modelli linguistici di grandi dimensioni. I criminali informatici utilizzano intelligenza artificiale per studiare profili pubblici, stili comunicativi e abitudini linguistiche delle vittime. In questo modo sono in grado di inviare email di phishing che replicano in modo quasi perfetto la voce e il modo di scrivere di colleghi o superiori, rendendo difficilissimo riconoscere i messaggi fraudolenti.
Questi messaggi si adattano in tempo reale, modificando contenuti e toni per aggirare i filtri antispam più evoluti. Inoltre l’AI consente di gestire campagne su larga scala, permettendo a gruppi criminali di aumentare drasticamente il numero di target con risorse limitate. Altrettanto preoccupante è la capacità di questi attacchi di superare facilmente i controlli tradizionali, che faticano a riconoscere la natura generativa e personalizzata dei messaggi.
Il risultato è un aumento costante delle perdite per BEC, stimate oltre i 2,95 miliardi di dollari. I sistemi di difesa convenzionali, basati principalmente su regole statica e firme note, non riescono a contrastare queste minacce in tempo reale, lasciando aperte falle da sfruttare per furti di dati, fondi o compromissioni aziendali. L’AI offensiva ha trasformato il phishing da tecnica artigianale a strumento di attacco industriale e sofisticato.
Malware che si adattano all’ambiente e cambiano comportamento grazie al machine learning
Oltre agli attacchi via email, cresce il pericolo portato da malware autoevolutivi. Questi software dannosi integrano algoritmi che apprendono l’ambiente in cui si trovano e modificano le proprie azioni per evitare il rilevamento. Per esempio possono modificare la loro presenza nella rete, cambiare il modo di muoversi tra sistemi o generare varianti di codice diverse e difficili da identificare tramite software antivirus tradizionali.
Questa capacità adattativa si basa su tecniche come reinforcement learning per ottimizzare le strategie di attacco e morphic code generation per produrre nuove versioni di malware indistinguibili dalle precedenti. Inoltre il malware valuta se è all’interno di un ambiente controllato da strumenti di sicurezza e modifica il suo comportamento per sembrare innocuo o dormiente quando necessario.
Questo rende molto complessa la protezione da questi attacchi, poiché i pattern si modificano dinamicamente e non corrispondono a firme riconosciute. Per contrastarli sono necessari sistemi evoluti di rilevazione, capaci di individuare anomalie nei comportamenti e correlare eventi sospetti al di là dei tradizionali metodi basati su blacklist o firme statiche.
Deepfake e sintesi vocale: nuove frontiere della manipolazione dell’identità digitale
Il 2025 vede un aumento importante dei rischi dovuti a deepfake realizzati con AI avanzata. Questi strumenti generano video e audio sintetici che replicano con precisione volti, movimenti e voci di persone reali. Questa tecnologia mette in crisi i sistemi di autenticazione biometrica e i processi di verifica dell’identità.
Gli attacchi comprendono clonazione vocale per superare controlli di sicurezza basati sulla voce, produzioni video falsi usati per campagne di disinformazione o per truffe sofisticate di social engineering. La generazione in real-time di contenuti deepfake permette scenari pericolosi, come chiamate e videochiamate contraffatte per ingannare interlocutori e far compiere azioni dannose.
Questo sviluppo pone sfide rilevanti per organizzazioni che gestiscono dati sensibili, orderi pubblici e identità personali. Sono necessari strumenti in grado di rilevare sintesi video e audio falsificate, oltre a protocolli di verifica multipli e cross-check con fonti indipendenti.
Difese basate su intelligenza artificiale per rilevare anomalie e comportamenti sospetti
Sul fronte della protezione, molti sistemi adottano AI e machine learning per analizzare dati di rete, log e comportamenti degli utenti con lo scopo di scoprire minacce nascoste. Le tecnologie più diffuse includono User and Entity Behavior Analytics , che crea una linea base delle azioni normali di ogni utente e sistema per poi segnalare deviazioni anomale.
L’analisi del traffico di rete oggi sfrutta algoritmi come Isolation Forest, One-Class SVM e DBSCAN per rilevare outlier o attività che non rispettano le regole tipiche. Questi metodi individuano attacchi DDoS, intrusioni o comportamenti anomali difficili da identificare con sistemi tradizionali.
Inoltre l’AI incorpora correlazioni in tempo reale tra eventi disparati per ridurre falsi allarmi e reagire più velocemente. Sistemi automatizzati di threat intelligence estraggono indicatori da malware, osservano pattern comportamentali e predicono tattiche future dei gruppi criminali. Questa offensiva difensiva accelera la risposta agli incidenti e aiuta a contenere danni potenziali prima che crescano.
Problemi di trasparenza nei modelli AI e soluzioni per spiegare le decisioni automatiche
Una criticità crescente riguarda la trasparenza dei modelli AI usati in cybersecurity. Molti algoritmi complessi, come le reti neurali profonde, agiscono come “scatole nere” dove le decisioni sono difficili da interpretare. Ciò limita la fiducia degli analisti e complica la soddisfazione di normative che richiedono spiegazioni sull’uso dei dati e sull’affidabilità dei sistemi.
Questo problema spinge allo sviluppo di Explainable AI , che offre strumenti per capire e giustificare le scelte degli algoritmi. Metodi come LIME e SHAP analizzano l’impatto di ciascun dato di input sull’output, mentre il ragionamento controfattuale genera scenari alternativi per valutare cosa cambierebbe la decisione.
Il ricorso a modelli ibridi combina algoritmi interpretabili con sistemi più complessi per mantenere un buon equilibrio tra trasparenza e accuratezza. Visualizzazioni grafiche e spiegazioni personalizzate aiutano diversi livelli di responsabili a comprendere gli allarmi e migliorano la gestione dei rischi.
Evoluzione di standard, framework e formazione per affrontare le sfide AI nella cybersecurity
Organizzazioni come il NIST stanno definendo nuove linee guida che integrano la sicurezza informatica con la gestione del rischio AI. Tra queste ci sono framework per classificare rischi specifici, sviluppare controlli mirati e creare profili condivisi per la gestione sicura dell’AI in ambito cybersecurity. Il NIST ha già messo a punto un AI Risk Management Framework pensato per adattarsi a contesti di diversa complessità e dimensione.
La formazione professionale evolve per includere competenze specifiche sull’interazione tra AI e sicurezza digitale. Nuovi ruoli come “AI security ethicist” e “machine learning defense specialist” si affiancano alle figure tradizionali, e vengono aggiornati gli standard per corsi e certificazioni. Il rafforzamento delle conoscenze tecnico-etiche sul funzionamento e i rischi dell’AI diventa priorità nelle organizzazioni.
Questo approccio socio-tecnico coinvolge non solo aspetti tecnologici ma anche gli elementi legali, sociali ed etici legati all’impiego dell’AI in ambito cyber, per assicurare un utilizzo responsabile e controllato.
Strategie multilivello e investimenti mirati per contrastare minacce AI-driven
La complessità delle minacce impone un modello di difesa stratificato e coordinato. L’adozione di architetture zero trust limita l’accesso in base a verifiche continue, riducendo la superficie esposta. L’inserimento dell’AI all’interno di sistemi SIEM potenzia la capacità di gestione e correlazione degli eventi di sicurezza.
L’applicazione di analisi comportamentali approfondite e l’automazione dei workflow di risposta alle minacce velocizzano il contenimento degli incidenti. Le piattaforme di threat intelligence automatizzate integrano dati da fonti molteplici per anticipare attacchi emergenti.
I settori più sensibili, come quello sanitario, stanno aumentando gli investimenti in queste tecnologie per far fronte alla crescita esponenziale degli attacchi. Le priorità includono sistemi adattativi in grado di evolvere con le tattiche degli aggressori e meccanismi robusti di monitoraggio 24 ore su 24.
Parallelamente, molte organizzazioni si trovano a dover definire politiche di governance AI specifiche e a formare squadre con competenze aggiornate per aggiornare la postura difensiva in modo continuo rispetto alle novità tecnologiche.
La cybersecurity nel 2025 è profondamente segnata dalla presenza pervasiva dell’intelligenza artificiale, che assume un ruolo cruciale sia nella nascita di nuove forme di attacco che nella costruzione di contromisure complesse. Il cammino verso un equilibrio efficace tra automazione e supervisione umana risulta imprescindibile per affrontare una minaccia in continua trasformazione.
Ultimo aggiornamento il 23 Luglio 2025 da Matteo Bernardi