L’intelligenza artificiale è ormai di uso quotidiano. Sempre più realtà si stanno affidando all’uso dell’IA, sicuri che possa migliorare, in maniera sensibile, ogni aspetto della nostra vita. Il problema è che l’IA è uno strumento che può essere impiegato anche dai cybercriminali.
Le ultime analisi di Cisco Talos
Cisco Talos monitora da tempo l’uso che i criminali informatici fanno dell’intelligenza artificiale. Analisi recenti indicano che anche gruppi di cybercriminali sostenuti da Stati stanno iniziando a sperimentare queste tecnologie, pur con un ruolo umano ancora centrale. Sono stati registrati tentativi di usare l’IA per rendere i software malevoli più difficili da individuare o per ostacolare le attività di difesa. Molte tecniche, per fortuna, sono ancora poco efficaci, ma la tendenza è chiara: l’uso dell’intelligenza artificiale in ambito criminale è destinato a crescere.
L’impatto più evidente riguarda oggi le comunicazioni, con email di phishing e messaggi ingannevoli sempre più credibili. Se inizialmente queste tecnologie erano limitate a gruppi molto strutturati, la maggiore accessibilità degli strumenti ne ha ampliato la diffusione. Guardando al futuro, strumenti sempre più potenti e facili da usare potrebbero offrire un vantaggio temporaneo agli attaccanti, rendendo essenziale l’evoluzione delle difese.
Alla ricerca delle vulnerabilità
L’intelligenza artificiale generativa è sempre più usata per individuare punti deboli nei software. Può servire sia a difendere i sistemi, aiutando i ricercatori a scoprire e correggere problemi, sia a favorire gli attacchi, permettendo ai criminali informatici di individuare nuove falle.
Con software sempre più complessi e in costante evoluzione, la “caccia alle vulnerabilità” è uno degli ambiti in cui l’IA generativa si dimostra più efficace, aiutando a individuare i problemi in anticipo e a ridurre i rischi per aziende e utenti.
Al di là della tecnologia, il vero fattore decisivo resta quello umano. L’intelligenza artificiale generativa può aumentare velocità ed efficienza, ma il suo valore dipende dalle competenze di chi la utilizza: senza una conoscenza adeguata, il rischio è ottenere risultati difficili da gestire. Anche i sistemi più avanzati hanno ancora bisogno dell’intervento umano. La GenAI è quindi un potente alleato, ma non sostituisce esperienza e giudizio: il suo vero potenziale emerge quando viene usata in modo consapevole e responsabile, mettendo le persone al centro della sicurezza digitale.