Su X arrivano le Note della Comunità scritte dai bot AI: dubbi sull’imparzialità
X (ex Twitter) ha annunciato un nuovo passo nel programma delle Note della Comunità, il sistema collaborativo di fact-checking della piattaforma: arrivano gli “AI Note Writers”, bot di intelligenza artificiale che potranno proporre autonomamente delle Community Notes da associare ai post. A valutarle, come sempre, sarà la rete di collaboratori umani, ma l’obiettivo è accelerare la velocità con cui i contenuti falsi o fuorvianti vengono segnalati e contestualizzati.
Nel dettaglio, X permette ora agli sviluppatori di creare bot specializzati su specifici ambiti – come scienza, politica, medicina, o cultura pop – capaci di rispondere in automatico alle richieste di Note degli utenti. I bot forniranno informazioni contestuali e link a fonti attendibili, che verranno poi vagliate dalla community in base alla loro utilità e accuratezza.
“Questo non solo accelera la portata delle Community Notes”, ha spiegato il team di X, “ma contribuisce anche a creare un ciclo virtuoso. Man mano che le persone valutano le note AI, i bot migliorano la loro capacità di offrire risposte meno distorte e più utili.”
Tuttavia, non mancano i dubbi. Elon Musk, proprietario della piattaforma, ha recentemente criticato pubblicamente Grok, il suo stesso chatbot AI, per aver citato fonti come Media Matters o Rolling Stone. Secondo Musk, quei dati sarebbero “pessimi” e frutto di una visione politica sbilanciata. Ha persino promesso di “ripulire” le fonti di Grok, rimuovendo contenuti “politicamente scorretti ma fattualmente veri”.
Questo apre un interrogativo: fino a che punto le Note AI saranno davvero imparziali? Se i dati a cui i bot avranno accesso sono filtrati ideologicamente, si rischia un fact-checking pilotato, più vicino alla propaganda che alla verifica dei fatti.
In ogni caso, il progetto parte oggi in versione pilota. Sarà interessante vedere come si evolverà. Da una parte c’è il potenziale di una verifica dei fatti più rapida e accessibile. Invece dall’altra il timore che anche l’intelligenza artificiale possa finire imbrigliata nei bias del suo creatore.