Negli ultimi giorni, OpenClaw, un assistente personale AI open source, ha guadagnato grande popolarità. Questo agente AI può funzionare direttamente sul computer dell’utente e occuparsi di attività quotidiane, come prenotare voli, gestire il calendario o inviare messaggi tramite WhatsApp e iMessage.
Serve un controllo efficace
Concedere a un agente AI accesso illimitato ai propri dati locali può comportare pericoli rilevanti se il tutto non viene gestito con attenzione.
Nel dicembre 2025, Anthropic ha presentato Claude Skills, collezioni organizzate di istruzioni, script e risorse pensate per potenziare i flussi di lavoro degli agenti AI, aggiungendo capacità specifiche per ogni compito. Queste skill non sono solo guide: possono influenzare il comportamento degli agenti, eseguire codice e collegarsi a file esterni. Preoccupati dalle possibili vulnerabilità che Claude Skills avrebbe potuto produrre, il team Cisco AI Threat and Security Research ha sviluppato uno strumento in grado di analizzare le skill di Claude Skills e OpenAI Codex, individuando comportamenti sospetti o rischiosi nascosti in descrizioni, metadati o implementazioni, ed anzi evidenziando che circa un quarto delle skill analizzate presentava almeno una vulnerabilità.
Ecco perché, di pari passo con la crescita esplosiva di OpenClaw AI, Cisco presenta Skill Scanner, un nuovo strumento open source pensato per aiutare sviluppatori e utenti a usare le skill in sicurezza, senza sorprese indesiderate.
Durante i test su una delle skill disponibili, Skill Scanner ha rilevato diversi problemi di sicurezza. Tra questi, la possibilità di inviare dati a server esterni senza il consenso dell’utente e di aggirare i controlli di sicurezza interni. Altri rischi significativi includono comandi malevoli incorporati, esecuzione di script non autorizzati e compromissione di strumenti locali.
Lo Skill Scanner di Cisco aiuta sviluppatori e team di sicurezza a verificare la sicurezza delle skill, combinando analisi statica, comportamentale e semantica assistita da AI, con indicazioni chiare su gravità, file coinvolti e azioni correttive. Con questo strumento, le aziende possono adottare, correggere o rifiutare skill AI rischiose, proteggendo dati e sistemi senza limitare l’innovazione offerta dagli agenti personali.