L’intelligenza artificiale non è in grado di riconoscere video creati… dall’intelligenza artificiale. Non è uno scherzo ma il risultato di un’analisi portata avanti da NewsGuard.
Percentuale d’errore piuttosto alta
Secondo la nota piattaforma che monitora la disinformazione online, le chatbox sarebbero “colpevoli” di diversi errori. ChatGpt di OpenAI, Gemini di Google e Grok di xAI hanno avuto diversi problemi a riconoscere video generati da AI. Le tre piattaforme, nel 78-95% dei casi, non sono state in grado di capire la reale origine dei video che hanno analizzato.
In un video fornito da NewsGuard, Gemini e ChatGpt non hanno indicato come falso un video di Sora senza filigrana che mostrava un presunto agente dell’Ice degli Stati Uniti arrestare un bambino immigrato di sei anni. Le due chatbot hanno “confermato” la coerenza del fatto, arrivando anche a certificarlo con “fonti giornalistiche”.
Insomma, qualcosa non sembra funzionare al meglio ma, soprattutto, la questione dell’informazione “certa e sicura” pare in alto mare. In generale, sempre secondo NewsGuard, rivela che i chatbot ripetono notizie false in un terzo dei casi (il 35% per l’esattezza). Houston, abbiamo un problema…