Questo blog fa parte di una serie in cui mettiamo in evidenza minacce nuove o in rapida evoluzione nella sicurezza dei consumatori. Questo articolo si concentra su come l'intelligenza artificiale viene utilizzata per progettare campagne più realistiche, accelerare l'ingegneria sociale e su come gli agenti di intelligenza artificiale possono essere utilizzati per prendere di mira gli individui.
La maggior parte dei criminali informatici si attiene a ciò che funziona. Tuttavia, quando un nuovo metodo si dimostra efficace, si diffonde rapidamente e ne conseguono nuove tendenze e nuovi tipi di campagne.
Nel 2025, il rapido sviluppo dell'intelligenza artificiale(IA) e il suo utilizzo nella criminalità informatica sono andati di pari passo. In generale, l'IA consente ai criminali di migliorare la portata, la velocità e la personalizzazione dell'ingegneria sociale attraverso testi, voci e video realistici. Le vittime subiscono non solo perdite finanziarie, ma anche un'erosione della fiducia nella comunicazione digitale e nelle istituzioni.
Ingegneria sociale
Clonazione vocale
Uno dei principali ambiti in cui l'IA ha registrato miglioramenti è stato quello della clonazione vocale, che è stato immediatamente sfruttato dai truffatori. In passato, questi ultimi si limitavano principalmente a impersonare amici e parenti. Nel 2025, invece, sono arrivati al punto di impersonare alti funzionari statunitensi. Gli obiettivi erano prevalentemente funzionari governativi federali o statali statunitensi in carica o in pensione e i loro contatti.
Nel corso di queste campagne, i criminali informatici hanno utilizzato messaggi di prova e messaggi vocali generati dall'intelligenza artificiale. Allo stesso tempo, non hanno abbandonato la strategia della famiglia in difficoltà. Una donna in Florida è stata indotta con l'inganno a consegnare migliaia di dollari a un truffatore dopo che la voce di sua figlia è stata clonata dall'intelligenza artificiale e utilizzata in una truffa.
agenti AI
Il termine "IA agentica" indica agenti IA personalizzati progettati per svolgere compiti in modo autonomo. Uno di questi compiti potrebbe essere quello di cercare informazioni disponibili pubblicamente o rubate su un individuo e utilizzarle per creare un'esca di phishing molto convincente.
Questi agenti potrebbero anche essere utilizzati per estorcere denaro alle vittime, abbinando i dati rubati agli indirizzi e-mail o agli account dei social media noti al pubblico, componendo messaggi e intrattenendo conversazioni con persone che credono che un aggressore umano abbia accesso diretto al loro numero di previdenza sociale, indirizzo fisico, dettagli della carta di credito e altro ancora.
Un altro utilizzo frequente è l'individuazione delle vulnerabilità assistita dall'intelligenza artificiale. Questi strumenti sono utilizzati sia dagli aggressori che dai difensori. Ad esempio, Google utilizza un progetto chiamato Big Sleep, che ha individuato diverse vulnerabilità nel Chrome .
I social media
Come accennato nella sezione dedicata agli agenti di intelligenza artificiale, combinare i dati pubblicati sui social media con quelli rubati durante le violazioni è una tattica comune. Questi dati forniti liberamente sono anche un terreno fertile per truffe romantiche, sextortion e truffe durante le vacanze.
Le piattaforme dei social media sono anche ampiamente utilizzate per vendere prodotti contraffatti, disinformazione generata dall'intelligenza artificiale, merci pericolose e merci spedite in drop shipping.
Iniezione immediata
E poi ci sono le vulnerabilità delle piattaforme di IA pubbliche come ChatGPT, Perplexity, Claude e molte altre. Ricercatori e criminali stanno ancora esplorando modi per aggirare le misure di sicurezza volte a limitare gli abusi.
L'iniezione di prompt è il termine generico che indica l'inserimento di input accuratamente elaborati, sotto forma di conversazioni o dati ordinari, per spingere o costringere un'intelligenza artificiale a compiere azioni non previste.
Campagne malware
In alcuni casi, gli aggressori hanno utilizzato piattaforme di intelligenza artificiale per scrivere e diffondere malware. I ricercatori hanno documentato campagne in cui gli aggressori hanno sfruttato Claude AI per automatizzare l'intero ciclo di vita dell'attacco, dalla compromissione iniziale del sistema alla generazione della richiesta di riscatto, prendendo di mira settori quali la pubblica amministrazione, la sanità e i servizi di emergenza.
Dall'inizio del 2024, OpenAI afferma di aver interrotto più di 20 campagne in tutto il mondo che tentavano di abusare della sua piattaforma di intelligenza artificiale per operazioni criminali e campagne ingannevoli.
Guardando al futuro
L'intelligenza artificiale sta amplificando le capacità sia dei difensori che degli aggressori. I team di sicurezza possono utilizzarla per automatizzare il rilevamento, individuare più rapidamente i modelli e scalare la protezione. I criminali informatici, dal canto loro, la utilizzano per affinare le tecniche di ingegneria sociale, individuare più rapidamente le vulnerabilità e costruire campagne end-to-end con il minimo sforzo.
Guardando al 2026, il cambiamento più significativo potrebbe non essere di natura tecnica, ma psicologica. Man mano che i contenuti generati dall'intelligenza artificiale diventano sempre più difficili da distinguere da quelli reali, la verifica delle voci, dei messaggi e delle identità assumerà un'importanza sempre maggiore.
Non ci limitiamo a segnalare le minacce, ma le eliminiamo.
I rischi per la sicurezza informatica non dovrebbero mai diffondersi al di là di un titolo di giornale. Tenete le minacce lontane dai vostri dispositivi scaricando Malwarebytes oggi stesso.




