Successivo
Armate virtuali per la guerra informatica

Editoriale | Magazine

Armate virtuali per la guerra informatica

Dario Orlandi | 7 Maggio 2018

Editoriale

L’impatto crescente dei bot sui social media e sulla comunicazione online, dal crollo dell’affidabilità agli attacchi ADoS.

Un interessante articolo di Nicholas Diakopoulos, pubblicato dal Columbia Journalism Review (www.cjr.org), ha analizzato l’impatto crescente degli agenti automatici sui social media e sulla comunicazione online. Il primo effetto, ma non il più importante, dell’influenza degli algoritmi è il crollo dell’affidabilità – e perciò del valore – di concetti come i trend e la popolarità. L’interazione tra i bot può promuovere qualsiasi genere di informazione o notizia al rango di trending topic, a prescindere dal reale livello di interesse, importanza o (ancor più grave) verosimiglianza. In maniera analoga, i bot e gli utenti generati automaticamente possono raggiungere una percentuale significativa tra i follower e gli amici di ogni account registrato sui social media.

Gli strumenti automatici possono rappresentare una minaccia ben più insidiosa se non sono utilizzati soltanto per incrementare le statistiche e la popolarità percepita: una campagna ben orchestrata può influire sulla credibilità di un soggetto, per esempio garantendogli una visibilità superiore al normale. Viceversa, un attacco portato contro un tema specifico può modificare l’indirizzo della discussione o diluire la concentrazione delle informazioni rilevanti (si pensi, per esempio, ai meccanismi di categorizzazione automatica come gli hashtag) fino al punto da renderle invisibili.

Negli ultimi mesi si sono viste all’opera varie strategie di Attention Denial of Service: un po’ come accade con i tradizionali attacchi Dos, che rendono irraggiungibile un servizio Internet bombardandolo di richieste d’accesso, alcune categorie di utenti (o addirittura soggetti specifici) sono stati sopraffatti da un enorme numero di contenuti, quasi sempre irrilevanti, fino al punto da rendere irraggiungibili le informazioni significative.

Strategie simili sono utilizzate per influenzare l’opinione pubblica (in particolare durante le campagne elettorali o in periodi di disordine sociale) e per colpire singole personalità: chi controlla un numero sufficiente di bot, per esempio, può segnalare un utente come spammer e provocarne la sospensione; queste misure disciplinari sono temporanee e possono essere revocate, ma l’utente colpito deve attivarsi per ripristinare l’accesso e seguire una specifica procedura per dimostrare la sua innocenza. Il blocco potrebbe durare soltanto qualche ora o pochi giorni, ma un colpo sferrato nel momento giusto può avere un impatto determinante. 

I social media possono e devono fare di più: esistono infatti strumenti di analisi che consentono di individuare con buona precisione gli agenti della guerra virtuale. I comportamenti e i dati di questi algoritmi mostrano pattern specifici, che sono stati utilizzati da terze parti per effettuare screening su larga scala. Una possibile svolta, in entrambi i campi, potrebbe venire dall’applicazione più avanzata di strumenti di machine learning:i sistemi autonomi sono in grado di individuare i comportamenti sospetti con un’efficacia eccezionale, ma d’altro canto possono essere utilizzati anche per creare bot sempre più “umani” e difficili da individuare.