Successivo
facebook-intelligenza-artificiale-contro-bufale

Software

Facebook: l’intelligenza artificiale contro le bufale?

Davide Micheli | 17 Novembre 2016

Social

La società  di Mark Zuckerberg ha deciso di puntare sull’intelligenza artificiale per cercare di contrastare in maniera ottimale il fenomeno delle bufale su Facebook?

Dopo le ultime elezioni americane, si è acceso un vero e proprio dibattito attorno a Facebook – e altri social – relativamente al ruolo di questa piattaforma nel favorire o meno l’ascesa di Donald Trump alla Casa Bianca, secondo alcuni osservatori anche tramite un mancato contrasto attivo alle bufale – o comunque notizie ritenute tali dai commentatori – trasmesse sul social.

Al di là  della sua azione di contrasto alle notizie infondate attraverso le segnalazioni ricevute dagli utenti, l’azienda di Mark Zuckerberg ha deciso di puntare anche sull’intelligenza artificiale, tramite l’utilizzo di algoritmi e machine learning per identificare in maniera più incisiva la presenza di bufale all’interno di questo social network.

Dopo aver introdotto un aggiornamento pensato per andare a colpire le bufale presenti nei news feed, penalizzando i link a quelle notizie segnalate come infondate dagli utenti, Menlo Park ha quindi puntato su un meccanismo atto a contrastare il fenomeno del clickbait, addestrando un algoritmo ad hoc per trovare subito i titoli e i commenti che sono tipici di questi contenuti trash.

I test condotti nei due sensi – secondo quanto ha fatto sapere Facebook – hanno messo in evidenza come il sistema che sfrutta il machine learning si è rivelato essere più efficiente, giacché ha generato un minor numero di falsi positivi e falsi negativi, un aspetto che ha spinto Menlo Park a ritenere una soluzione migliore puntare sull’AI anziché sulle persone.

Il motivo di questa preferenza, è presto detto: un intervento umano nell’eliminare determinate bufale, o comunque notizie che possono sembrare infondate, potrebbe essere “distorto” dalle convinzioni personali dell’individuo, ponendo in questo senso dei seri problemi di giudizio da parte dell’utenza, che potrebbe ritenere una decisione “sgradita” come parziale.

In effetti, Menlo Park – dopo un report sulla presunta parzialità  del suo team di persone che si occupano di individuare i trend, ai quali era stata rimproverata la tendenza ad eliminare maggiormente contenuti di tipo “conservatore” – aveva deciso di sostituire alle persone l’intelligenza artificiale.

Ma dopo questo episodio, il NYT era insorto giacché il sistema non era riuscito – in alcune occasioni – a filtrare in maniera corretta le bufale, un aspetto che aveva messo a dura prova la fiducia nei confronti dell’obiettività  del social. Eppure, ancora oggi, al quesito sembra non esservi risposta: chi è l’arbitro della verità  e della autenticità  delle notizie?