L’Organismo di Vigilanza di Meta ha suggerito che un video falso di Joe Biden chiaramente fabbricato non dovrebbe essere rimosso da Facebook, sottolineando la necessità per Meta di rivisitare e potenzialmente ampliare la sua politica alquanto restrittiva sui media manipolati. Questo video, che non utilizzava strumenti di editing basati sull’intelligenza artificiale né ritraeva il presidente Biden mentre pronunciava dichiarazioni che non aveva mai fatto, è stato giudicato evidentemente alterato e quindi improbabile che inganni il pubblico, in linea con le linee guida esistenti di Meta.
Qual è la storia dietro il falso video di Joe Biden?
Il controverso video, apparso su Facebook nel maggio 2023, ha avuto origine da una clip pubblicata nell’ottobre precedente. Ha catturato un momento tra il Presidente e sua nipote, una votante per la prima volta, mentre si scambiavano gli adesivi con la scritta “Ho votato”.

Il filmato originale mostra Biden che posiziona affettuosamente un adesivo sopra il petto di sua nipote e le dà un bacio sulla guancia. Tuttavia, il falso video di Joe Biden ha alterato questo scambio innocente per insinuare falsamente una condotta inappropriata da parte di Biden, ripetendosi per oltre sette secondi con un testo esplicito di “Simon Says” di Pharoahe Monch, e accompagnato da una didascalia che etichetta Biden come un “pedofilo malato” e criticando i suoi sostenitori.
Inizialmente rimosso automaticamente al momento della pubblicazione, la rimozione del video è stata impugnata da chi l’ha caricato, portando alla valutazione di un revisore umano che non contravveniva alle politiche stabilite da Meta, con conseguente reintegrazione del video su Facebook.
L’Organismo di Vigilanza, pur consentendo che il video rimanga accessibile, ha criticato le attuali linee guida per i media manipolati ritenendole eccessivamente restrittive. Le politiche attualmente vietano solo l’alterazione dei video per rappresentare persone che dicono cose che non hanno mai detto, senza affrontare la manipolazione visiva delle azioni, e sono limitate ai contenuti generati dall’intelligenza artificiale. Il Consiglio ha evidenziato la mancanza di una chiara logica della politica, la sua natura sconcertante e ambigua per gli utenti e la sua incapacità di identificare e mitigare adeguatamente i potenziali danni, raccomandando una revisione approfondita della politica.
Mentre Meta contempla le raccomandazioni dell’Oversight Board, promettendo una risposta pubblica entro 60 giorni, le implicazioni più ampie per la governance dei contenuti e gli aggiustamenti politici in vista delle elezioni del 2024 rimangono incerte.
La questione relativa al falso video di Joe Biden su Facebook ha acceso un dibattito critico sulla linea sottile tra libertà di espressione e potenziale danno negli spazi digitali. Questo incidente non solo mostra le complessità legate alla moderazione dei contenuti sulle piattaforme di social media, ma evidenzia anche le sfide che le aziende tecnologiche devono affrontare nell’affrontare i media manipolati. La decisione del comitato di vigilanza di Meta di consentire la permanenza del video, nonostante le sue ingannevoli alterazioni, sottolinea un momento cruciale per la governance digitale e le considerazioni etiche in essa contenute.

Al centro di questa controversia c’è la questione più ampia della responsabilità. I giganti dei social media come Meta hanno il compito colossale di salvaguardare la piazza pubblica digitale dalla disinformazione e dai contenuti dannosi, il tutto sostenendo i principi della libertà di parola. La critica dell’Osservatorio all’attuale politica manipolata dei media di Meta come “troppo ristretta” suggerisce un bisogno urgente di politiche che siano allo stesso tempo complete e adattabili al panorama in evoluzione della creazione e distribuzione di contenuti digitali.
Il deepfake creato dall’intelligenza artificiale Biden chiama gli elettori target
La natura ricca di sfumature di questo specifico caso video di Joe Biden falso solleva importanti considerazioni sul discernimento degli utenti e sul ruolo delle piattaforme nella cura dei contenuti. Tuttavia, la decisione rischia anche di creare un precedente in cui il limite per ciò che costituisce una manipolazione dannosa potrebbe diventare ambiguamente elevato, consentendo potenzialmente la proliferazione di contenuti fuorvianti sotto le spoglie di evidente falsità.

La richiesta del Consiglio di revisione delle politiche riflette un crescente consenso sul fatto che le attuali linee guida non sono sufficienti per affrontare la sofisticata gamma di tecnologie di manipolazione dei contenuti, inclusa ma non limitata all’intelligenza artificiale. Man mano che i video manipolati diventano sempre più convincenti e diffusi, la necessità di politiche chiare ed efficaci che proteggano gli individui dalla diffamazione e proteggano il pubblico dalla disinformazione diventa sempre più imperativa.
Mentre Meta esamina le raccomandazioni dell’Osservatorio, l’esito di questa delibera avrà senza dubbio implicazioni significative per le pratiche di moderazione dei contenuti a livello di settore. Il caso video del falso Joe Biden esemplifica le sfide cruciali all’intersezione tra tecnologia, etica e governance nell’era digitale, sollecitando una rivalutazione di come le piattaforme di social media possono navigare meglio nel delicato equilibrio tra la protezione della libertà di espressione e la prevenzione dei danni.
Credito immagine in primo piano: Markus Spike/Unsplash




