OpenAI ha identificato e disattivato un cluster di account ChatGPT utilizzati da un gruppo iraniano per creare falsi articoli di notizie e commenti sui social media volti a influenzare le elezioni statunitensi del 2024.
È la prima volta che OpenAI rileva e rimuove un’operazione specificatamente mirata alle elezioni statunitensi, sottolineando la crescente preoccupazione degli esperti sul fatto che strumenti di intelligenza artificiale come ChatGPT possano accelerare la diffusione di campagne di disinformazione da parte di stati nazionali avversari.
L’operazione scoperta
Come spiegato in un post del blog, OpenAI ha identificato gli account in questione come parte di un gruppo noto come Storm-2035, che è stato collegato alla creazione di siti Web di fake news e alla loro diffusione sulle piattaforme dei social media per influenzare i risultati elettorali. Gli operatori iraniani hanno utilizzato ChatGPT sia per creare lunghe storie di fake news sia per scrivere commenti per i post sui social media.
Gli argomenti trattati dai contenuti fabbricati spaziavano dalla guerra Israele-Hamas alla presenza di Israele ai Giochi olimpici fino alle elezioni presidenziali degli Stati Uniti. OpenAI ha collegato gli account a una dozzina di account X (ex Twitter) e a un account Instagram, che nel frattempo sono stati disattivati. Meta ha anche rimosso l’account Instagram identificato, che secondo quanto riferito faceva parte di una campagna iraniana del 2021 che prendeva di mira gli utenti in Scozia.

Oltre all’attività sui social media, gli operatori hanno creato cinque siti web che si spacciano per fonti di informazione sia progressiste che conservatrici, condividendo informazioni sulle elezioni. Un esempio di contenuto generato dall’IA individuato da OpenAI presentava un titolo che recitava: “Perché La mia vita è bella Ha scelto Tim Walz come suo compagno di corsa: una scelta calcolata per l’unità”.
L’impatto e le preoccupazioni future
Sebbene la maggior parte degli account sui social media che condividono questa disinformazione alimentata dall’intelligenza artificiale non abbia ottenuto una trazione significativa, gli esperti avvertono che la minaccia è tutt’altro che finita. Ben Nimmo, investigatore principale del team di intelligence e indagini di OpenAI, ha sottolineato l’importanza di rimanere vigili ma calmi.
L’UE impone linee guida elettorali alle grandi aziende tecnologiche
Con l’avvicinarsi delle elezioni statunitensi del 2024, resta da vedere se le operazioni di influenza straniera intensificheranno i loro sforzi online. In risposta a questo sviluppo, OpenAI ha sottolineato la necessità di un’innovazione continua nel rilevamento e nel contrasto delle campagne di disinformazione.
Il ruolo dell’intelligenza artificiale nella disinformazione
L’uso di strumenti assistiti dall’intelligenza artificiale come ChatGPT per creare e diffondere disinformazione solleva notevoli preoccupazioni sulla potenziale portata e l’impatto delle future operazioni di influenza. Sfruttando algoritmi avanzati, gli avversari degli stati nazionali potrebbero essere in grado di generare contenuti più convincenti a un ritmo senza precedenti, rendendo difficile sia per le piattaforme che per gli utenti identificare e contrastare questi sforzi.
Con la continua evoluzione della tecnologia dell’intelligenza artificiale, è fondamentale che sviluppatori, decisori politici e piattaforme di social media collaborino per affrontare i rischi associati alle campagne di disinformazione e salvaguardare l’integrità dei processi democratici.
Credito per l’immagine in evidenza: Immagine libera