Successivo
L'intelligenza artificiale può prevedere il futuro leggendo il passato

News | Security

L’intelligenza artificiale è diventata un business anche per il crimine

Redazione | 12 Febbraio 2026

ai Cybersecurity news

I cybercriminali non inseguono più la novità, ma perfezionano le tecniche, riducono i costi e migliorano l’affidabilità di attacchi basati su frodi, malware e deepfake

La criminalità informatica basata sull’intelligenza artificiale ha superato il periodo di sperimentazione ed è entrata in una fase più stabile e professionale, che rispecchia l’evoluzione di altri mercati clandestini ormai maturi. Il dato emerge da “They Don’t Build the Gun, They Sell the Bullets. An Update on the State of Criminal AI”, l’ultimo studio di TrendAI.

Gli attacchi si basano sull’AI

La ricerca ha analizzato servizi clandestini, malware e campagne di attacco basati sull’intelligenza artificiale a fine 2025. I risultati mostrano che i cybercriminali non inseguono più la novità, ma perfezionano le tecniche, riducono i costi e migliorano l’affidabilità degli attacchi basati su frodi, malware e deepfake.

I precedenti studi di TrendAI avevano evidenziato l’utilizzo di chatbot jailbroken, truffe deepfake e attacchi isolati di tipo proof-of-concept. Gli ultimi risultati mostrano che queste idee si sono trasformate in servizi che possono essere noleggiati, riutilizzati e adottati su larga scala, anche senza competenze tecniche.

La ricerca identifica le tre fasi che definiscono lo scenario dell’intelligenza artificiale criminale. La prima fase è quella del consolidamento. Nuovi strumenti di intelligenza artificiale “non censurati” continuano ad apparire sui forum underground, ma la maggior parte scompare rapidamente. I servizi che persistono sono quelli che offrono jailbreak e la possibilità di violare le principali piattaforme di intelligenza artificiale tramite prompt, piuttosto che modelli realmente indipendenti. I criminali sfruttano la portata e gli investimenti dei provider commerciali di AI invece di creare dal nulla.

La seconda fase è la comparsa dei primi malware in grado di generare o modificare codice maligno tramite query AI integrate o remote. Questi campioni rimangono limitati da vincoli pratici, ma segnalano uno spostamento verso progetti di malware più adattivi che possono variare da un attacco all’altro.


La terza fase vede la rapida diffusione della tecnologia deepfake nell’utilizzo criminale quotidiano. Strumenti per la sostituzione di volti, la clonazione della voce e la manipolazione delle immagini sono ora ampiamente disponibili a un costo minimo o nullo. Questo permette nuove ondate di frodi, tra cui truffe di impersonificazione, infiltrazioni all’interno di aziende, rapimenti virtuali e la diffusione di immagini sintetiche non consensuali, con gravi implicazioni per individui, organizzazioni e la fiducia generale nell’identità digitale.

L’analisi di TrendAI mostra che le capacità di difesa attualmente rimangono in vantaggio, grazie al rilevamento basato sull’intelligenza artificiale, all’intelligence sulle minacce e agli strumenti di indagine automatizzata. Tuttavia, questo vantaggio si sta riducendo man mano che i criminali imparano a estrarre più valore dalle stesse tecnologie, spesso più velocemente di quanto possano essere applicate le contromisure. 

Lo studio conclude che il rischio più grave non è un incredibile miglioramento delle capacità cybercriminali, ma la normalizzazione della criminalità basata sull’intelligenza artificiale. Man mano che queste tecniche diventeranno più economiche e facili da utilizzare, si diffonderanno in tutto l’ecosistema del crimine informatico e vi rimarranno.