La Commissione Europea, facendo leva sui poteri concessi dalla nuova attuazione Legge sui servizi digitali, ha chiamato sulle piattaforme digitali per intensificare gli sforzi volti a proteggere i processi elettorali dalle ingerenze e per attuare azioni mirate contro i rischi posti dalle tecnologie di intelligenza artificiale generativa.
Bruxelles ha pubblicato una serie di linee guida per le principali piattaforme online e motori di ricerca, tra cui X, Meta, Google, TikTok, Snapchat e altri, avvertendo che la mancata conformità potrebbe innescare l’applicazione completa della DSA, con conseguenti sanzioni sostanziali.
Le piattaforme che non aderiscono a queste raccomandazioni, o che non presentano alternative praticabili, potrebbero essere soggette ad azioni normative, rischiando multe che potrebbero ammontare fino al 6% delle loro entrate globali.
Queste raccomandazioni sono state formulate nel contesto in cui il governo britannico esprimeva preoccupazione per i tentativi cinesi di interrompere le sue istituzioni democratiche, citando casi di attacchi informatici alla Commissione elettorale britannica e agli account di posta elettronica dei legislatori come azioni legate a entità associate al governo cinese.

Le direttive dell’UE evidenziano le “migliori pratiche” rivolte alle piattaforme con oltre 45 milioni di utenti. Ciò comprende il rafforzamento delle procedure interne e la formazione di team dedicati ad affrontare i “rischi specifici del contesto locale”. Le piattaforme devono adottare misure per mettere in atto “misure di mitigazione del rischio specifiche per le elezioni”, aumentare la visibilità di informazioni elettorali verificate e affidabili e adattare i propri algoritmi di suggerimento dei contenuti per dare maggiore potere agli utenti e frenare la “monetizzazione e viralità” del materiale compromettente le elezioni.
Nel periodo precedente alle elezioni, le piattaforme hanno il compito di stabilire strategie su misura, compresi protocolli per una risposta rapida agli incidenti per ridurre gli effetti delle sfide dell’ultimo minuto come la diffusione di informazioni false. Inoltre, è necessario condurre analisi approfondite dopo tali eventi, collaborare con organismi sia europei che nazionali, nonché con organizzazioni non governative, con aspettative di revisioni dopo le elezioni.
Inoltre, l’UE sostiene “misure di mitigazione specifiche” nel contesto dell’intelligenza artificiale generativa. Ciò comporta l’identificazione trasparente dei materiali creati dall’intelligenza artificiale, compresi i deepfake, e la rigorosa applicazione e miglioramento degli accordi e delle politiche con gli utenti.
Sebbene definite “linee guida”, un funzionario della commissione ha sottolineato che “l’integrità elettorale è una priorità fondamentale per l’applicazione dei DSA”. C’è una sostanziale preoccupazione per il potenziale impatto sulle elezioni da vari punti di vista, tra cui falsi profondi, sfruttamento di algoritmi di raccomandazione, campagne di disinformazione estera e sforzi per incitare alla divisione all’interno delle comunità europee. “Questo non è banale.”
L’attenzione non è solo sui falsi profondi e sulle implicazioni dell’intelligenza artificiale; la commissione esamina inoltre l’adeguatezza della moderazione dei contenuti e delle risorse impiegate dalle piattaforme di verifica dei fatti, le loro competenze locali e la portata della loro collaborazione con enti governativi e di altro tipo.

Le autorità di regolamentazione riconoscono l’impossibilità di eliminare completamente i contenuti controversi, ma sottolineano l’importanza di disporre di strategie per individuarne e frenarne la diffusione. Un funzionario ha sottolineato la posizione unica del Digital Services Act (DSA) negli sforzi per l’integrità elettorale globale, sottolineandone l’applicabilità e la capacità di supervisione sulla conformità delle piattaforme, sull’efficacia delle misure implementate e sulla possibilità di richiedere dati e valutazioni dalle piattaforme.
“La DSA contiene l’obbligo giuridicamente vincolante di mettere in atto misure di mitigazione efficaci”, ha affermato il funzionario. Ci si aspetta che le piattaforme che divergono da queste linee guida forniscano una “spiegazione seria” per le azioni scelte. La mancata osservanza potrebbe portare ad “azioni esecutive che possono includere multe fino al 6% del fatturato annuo globale o sanzioni giornaliere fino al 5% del fatturato giornaliero annuo globale”.
L’UE colpisce con una frusta la grande tecnologia: Apple, Meta e Google affrontano le indagini DMA
In preparazione alle elezioni europee di maggio, la commissione ha avviato indagini con le piattaforme e ha programmato uno stress test ad aprile. Considerata la portata continentale delle elezioni del Parlamento europeo, si prevede una maggiore pressione sulle risorse di moderazione, che richiederà adeguamenti specifici da parte delle piattaforme.
Evidenziando un caso di particolare interesse, i funzionari hanno rivelato un’indagine formale in corso su X (precedentemente noto come Twitter) per la sua non conformità ai DSA, in particolare dopo che la piattaforma ha ridotto i suoi sforzi di moderazione nel tentativo di assolutizzare la libertà di parola.
Credito immagine in primo piano: Christian Lue/Unsplash