Organismo di Vigilanza di Meta governato che la società ha correttamente consentito che un video manipolato rimanesse su Facebook, raffigurante una protesta serba avvenuta nei Paesi Bassi a sostegno dell’ex presidente filippino Rodrigo Duterte. Il video è emerso pochi giorni dopo l’estradizione di Duterte alla Corte penale internazionale dei Paesi Bassi, nel marzo 2025. Il video manipolato ha avuto origine dalle riprese di una protesta in Serbia. Gli editori hanno aggiunto elementi audio, inclusi i canti di “Duterte” e la canzone tagalog Bayan Ko. Questa canzone è servita come accompagnamento comune durante le proteste filippine contro la legge antimarziale negli anni ’80. Sono state inserite anche delle didascalie per rafforzare la narrazione alterata, suggerendo che l’evento ha appoggiato Duterte nel corso dei suoi procedimenti legali. Il video ha raggiunto circa 100.000 utenti e ha ricevuto condivisioni da centinaia di account. I sistemi di rilevamento automatizzato di Meta lo hanno identificato come potenziale disinformazione. In risposta, la piattaforma ha ridotto la propria visibilità specificamente per gli utenti non statunitensi. Sebbene inserito nella coda di verifica dei fatti, l’articolo è sfuggito alla revisione a causa dell’enorme volume di post simili che richiedono attenzione. I fact-checker che operano nelle Filippine avevano precedentemente esaminato video virali comparabili. Hanno determinato che quei casi erano falsi e li hanno etichettati di conseguenza. Questo precedente ha evidenziato gli sforzi in corso per affrontare i contenuti ingannevoli che circolano nella regione, in particolare legati a figure politiche come Duterte. Un altro utente di Facebook ha segnalato il video manipolato e ha fatto appello alla decisione iniziale di Meta di mantenerlo online. Questa azione ha comportato il coinvolgimento dell’Organismo di Vigilanza, un organismo indipendente che esamina le scelte di moderazione dei contenuti. L’esame del Comitato si è concentrato sull’equilibrio tra la libertà di espressione e la prevenzione della disinformazione. L’Organismo di Vigilanza ha concordato con la determinazione di Meta di mantenere la disponibilità pubblica del video. Si specificava però che Meta avrebbe dovuto assegnare al contenuto l’etichetta “Alto rischio”. Questa designazione è stata applicata perché il video presentava elementi fotorealistici alterati digitalmente che comportavano un alto rischio di ingannare il pubblico, soprattutto durante un importante evento pubblico legato all’estradizione di Duterte. Il Consiglio ha sottolineato le carenze nel processo di definizione delle priorità di Meta per il controllo dei fatti. Video di questo tipo, che coinvolgono manipolazione digitale e sensibilità politica, meritavano una revisione rapida. Per colmare tali lacune, il Consiglio ha raccomandato di istituire una coda dedicata al controllo dei fatti per contenuti simili già controllati in mercati specifici. Ulteriori raccomandazioni includevano la dotazione di strumenti avanzati per i verificatori dei fatti. Questi strumenti consentirebbero un’identificazione più rapida dei media virali fuorvianti. Inoltre, il Consiglio ha consigliato a Meta di fornire descrizioni più dettagliate delle sue etichette relative ai media manipolati. Criteri più chiari aiuterebbero gli utenti a comprendere il ragionamento alla base degli adeguamenti della visibilità e delle valutazioni del rischio. A gennaio Meta ha interrotto il suo programma di verifica dei fatti negli Stati Uniti. L’azienda ha introdotto Community Notes in sostituzione, attingendo alle annotazioni generate dagli utenti per verificare le informazioni. Meta sta attualmente valutando l’espansione delle Community Notes ad altri paesi e ha sollecitato il contributo dell’Oversight Board sui luoghi appropriati per l’implementazione.





