Il centro della vita sociale per molti giovani non è più Instagram o Tiktok. Una migrazione tranquilla ma significativa ha spostato autentico interazione sociale a piattaforme di gioco come Discord, Roblox e Steam. Mentre l’attenzione pubblica e politica rimane fissata su app mainstream, gli spazi incentrati sul gioco sono diventati gli hub primari per la conversazione non filtrata. Questo spostamento ha anche creato un ambiente pericoloso, in gran parte non monitorato in cui l’estremismo e lo sfruttamento possono diventare non rilevati.
Un diverso tipo di spazio sociale
Le piattaforme di gioco sono fondamentalmente diverse dai social media rivolti al pubblico. App come Tiktok sono costruite per la trasmissione di massa e il contenuto virale, ma piattaforme come Discord sono strutturate attorno a comunità più piccole e chiuse. Funzionano più come club club digitali che fasi pubbliche. Questo design incoraggia un diverso tipo di interazione, che dà la priorità alla discussione di gruppo sulla creazione di un marchio personale. L’anonimato è fondamentale per questo ambiente. Gli utenti operano sotto la pseudo-identità, che rimuove molte delle conseguenze del mondo reale dell’espressione di idee radicali o tabù. Ciò ha reso queste piattaforme un forte pareggio per i giovani in cerca di connessioni senza controllo pubblico.
Un terreno riproduttivo non monitorato per danni
La privacy che attira gli utenti fornisce anche un santuario per predatori e gruppi estremisti che sono stati vietati dai siti tradizionali. Mariana Olaizola Rosenblat, consulente politica presso la New York University, afferma che questi gruppi si rivolgono specificamente a piattaforme di gioco per trovare e influenzare i giovani.
“Gli estremisti e i predatori vanno in questi spazi di gioco per trovare giovani altamente coinvolti e sensibili, molti dei quali desiderosi di connessione.”
Questa attività dannosa è estremamente difficile da tracciare. Le conversazioni si verificano in migliaia di piccole chat room private che sono inaccessibili ai ricercatori. Gli utenti mascherano spesso le ideologie pericolose con “Gamespeak” o in-battute, rendendo difficile la moderazione. “La maggior parte dei ricercatori è fondamentalmente cieca a tutto questo”, afferma Rosenblat. “Non puoi entrare in queste stanze.”
Un modello documentato di conseguenze del mondo reale
Mentre la maggior parte dell’attività dell’utente su queste piattaforme è innocua, un modello di radicalizzazione e sfruttamento ha portato a tragedie documentate del mondo reale. I rischi teorici sono ora fatti comprovati.
- Discordia È stato utilizzato per organizzare la manifestazione “Unite the Right” del 2017 a Charlottesville ed è stato il luogo in cui il tiratore di Buffalo del 2022 ha documentato i suoi piani per mesi in una chat privata. Anche il sospettato nel recente omicidio dell’attivista Charlie Kirk sembrava confessare in una chat di discordia.
- Roblox sta affrontando molteplici azioni legali per non aver protetto i bambini dai predatori. Una causa di una famiglia dello Iowa sostiene che la figlia di 13 anni è stata rapita e trafficata da un uomo che ha incontrato sulla piattaforma. Roblox ha detto ad axios “investi[s] Risorse significative nella tecnologia di sicurezza avanzata. “
- Contrazione E Vapore sono stati anche identificati come piattaforme in cui l’estremismo ha trovato un punto d’appoggio. La sparatoria di Buffalo è stata trasmessa in streaming su Twitch e i ricercatori hanno documentato come Steam sia diventato un hub per i gruppi di estrema destra da connettersi.
Come la moderazione lotta per scalare
Le aziende dietro queste piattaforme affrontano un problema strutturale. I loro sistemi sono costruiti per l’interazione rapida e peer-to-peer, non per la supervisione dall’alto verso il basso. Discord ospita milioni di server privati, molti creati e abbandonati in giorni o settimane. Roblox genera grandi quantità di contenuti creati dall’utente ogni ora. Strumenti di moderazione tradizionali – filtri della parola key, report reattivi e piccoli team di sicurezza – Cannot tengono il passo con la scala o la velocità con cui si evolvono le comunità dannose. Diverse aziende hanno introdotto strumenti di rilevamento e linee guida per la comunità, ma questi sforzi sono frammentati e opachi. I ricercatori di sicurezza notano che le aziende raramente rivelano quanti moderatori impiegano, come vengono sintonizzati gli algoritmi o come appaiono i risultati dell’applicazione. Questa mancanza di trasparenza rende difficile per i legislatori, i genitori o gli accademici valutare se gli interventi funzionano.
Colmare il divario di ricerca
A differenza di Facebook o X (precedentemente Twitter), dove i post pubblici possono essere raschiati e analizzati, la natura privata delle piattaforme di gioco blocca gli audit esterni. I ricercatori indipendenti spesso non possono studiare interazioni reali, lasciando dibattiti di sicurezza dipendenti da perdite, cause o informatori. Senza un maggiore accesso aperto, i politici rischiano di agire aneddoto piuttosto che prova. Alcuni esperti propongono di creare portali di dati che preservano la privacy che consentono ai ricercatori controllati di studiare tendenze dannose senza esporre identità degli utenti. Altri sostengono che i rapporti obbligatori sulla sicurezza-simili agli standard di sicurezza alimentare o di sicurezza del lavoro-che richiederebbero alle aziende di pubblicare metriche su report di abuso, personale del moderatore e risultati della protezione dei bambini.
Costruire comuni sociali più sicuri
È improbabile che i giovani abbandonino questi spazi. Offrono appartenenza, espressione creativa e vere amicizie che le reti tradizionali non riescono sempre più a fornire. La sfida non è quella di chiuderli, ma di trattarli come i nuovi beni sociali che sono diventati: spazi che richiedono regole, amministrazione e responsabilità. I passaggi pratici potrebbero includere standard di progettazione adatti all’età, controlli parentali più forti, percorsi più chiari per richieste di forze dell’ordine e audit indipendenti di strumenti di sicurezza. Le piattaforme di gioco potrebbero anche collaborare a database di minacce condivise o protocolli a risposta rapida per i contenuti estremisti, proprio in quanto le istituzioni finanziarie condividono i dati per combattere le frodi.
Una svolta per la sicurezza online
Le udienze dell’8 ottobre verificheranno se i legislatori comprendono la portata del problema e possano andare oltre l’interrogatorio simbolico dei dirigenti tecnologici. Senza standard più forti, gli stessi fattori che rendono allettanti piattaforme di gioco – comunità, anonimato e libertà creativa – continueranno a renderli attraenti per coloro che cercano di danneggiare. Riconoscendo questi spazi come il veri centri sociali della gioventù di oggi è il primo passo verso il governo con la gravità che richiedono.
