Adam Mosseri di Meta sottolinea l’importanza di esaminare attentamente i contenuti generati dall’intelligenza artificiale sulle piattaforme di social media. Poiché i falsi profondi diventano sempre più sofisticati, la capacità di discernere la realtà dalla fabbricazione è essenziale per gli utenti.
Mosseri di Meta sottolinea la necessità di esaminare attentamente i contenuti generati dall’intelligenza artificiale
I commenti di Mosseri arrivano in un contesto in cui crescono le preoccupazioni sui deep fake, che utilizzano reti generative avversarie (GAN) e modelli di diffusione come DALL-E 2 per creare immagini e video falsi difficili da differenziare dai contenuti autentici. Il responsabile di Instagram ritiene che i social media possano aiutare a combattere la disinformazione segnalando i contenuti falsi, anche se riconosce che non tutte le falsità possono essere individuate o adeguatamente etichettate. “Il nostro ruolo come piattaforme Internet è quello di etichettare i contenuti generati come intelligenza artificiale nel miglior modo possibile”, ha affermato.
I deep fake si sono evoluti in modo significativo negli ultimi anni. Il processo prevede che un modello di intelligenza artificiale generi un falso mentre un altro lo identifica, perfezionandone continuamente la precisione. Ciò si traduce in contenuti che possono essere convincenti in modo allarmante.
Mentre i deep fake guadagnano terreno, Mosseri mette in guardia gli utenti dal fidarsi ciecamente delle immagini e dei video online. In una serie di post su Threads, ha esortato gli utenti a considerare la fonte dei contenuti condivisi, rafforzando l’idea che il contesto è cruciale nell’era digitale. Ha spiegato: “Sembra che ora stiamo apprezzando collettivamente che è diventato più importante considerare chi sta dicendo una cosa piuttosto che cosa sta dicendo”. Questa prospettiva è in linea con l’evoluzione dell’alfabetizzazione digitale, dove la credibilità del fornitore di contenuti è vitale quanto il contenuto stesso.
Nel panorama dei social media, la capacità di discernere l’autenticità dei contenuti visivi è più urgente che mai. Mosseri ha sottolineato la necessità che le piattaforme forniscano un contesto sull’origine del materiale condiviso, facendo eco alle iniziative di moderazione guidate dagli utenti viste su altre piattaforme. Ha sottolineato che mentre alcune forme di disinformazione generata dall’intelligenza artificiale possono essere identificate, altre inevitabilmente passano inosservate.
L’urgenza di questo problema è ulteriormente sottolineata dal rapido progresso della tecnologia dell’intelligenza artificiale. Gli strumenti odierni producono facilmente contenuti che sembrano reali e possono essere distribuiti su larga scala, spesso superando le capacità dei moderatori di rispondere in modo efficace. Mentre gli utenti navigano in un flusso quotidiano di informazioni, sono incoraggiati a coltivare un occhio perspicace, considerando chi condivide le informazioni e le implicazioni dietro di esse.
L’indagine sul modo in cui le piattaforme etichettano e moderano i contenuti generati dall’intelligenza artificiale rimane in corso. Il riconoscimento da parte di Mosseri dei limiti delle attuali pratiche di etichettatura suggerisce la necessità di strategie più robuste per combattere la disinformazione. Considerati i progressi tecnologici nella generazione dei media basati sull’intelligenza artificiale, il modo in cui le piattaforme si adattano a questi cambiamenti e continuano a promuovere la consapevolezza degli utenti rimane una questione aperta.
Mentre Meta accenna a cambiamenti futuri nelle sue strategie di moderazione dei contenuti, non è chiaro quanto velocemente questi cambiamenti verranno implementati o la loro efficacia nel contrastare le manipolazioni tecnologicamente avanzate viste oggi. Le complessità introdotte dall’intelligenza artificiale generano sfide che richiedono un pubblico proattivo e informato, in grado di valutare criticamente i contenuti che consuma online.
Credito immagine in primo piano: Hartono Creative Studio/Unsplash