X è stata accusata di usare dati di utenti UE senza il dovuto consenso per addestrare i suoi modelli di intelligenza artificiale. Questa pratica è stata rivelata quando un utente ha scoperto che X stava elaborando i suoi post per migliorare i suoi Chatbot AI GrokPuoi anche controllare le tue impostazioni e vederlo con i tuoi occhi cliccando quiLa rivelazione ha portato a molteplici denunce contro X per presunta violazione del Regolamento generale sulla protezione dei dati (GDPR) dell’UE.
Twitter ha appena attivato un’impostazione predefinita per tutti che dà loro il diritto di usare i tuoi dati per addestrare grok. Non l’hanno mai annunciato. Puoi disattivarla tramite il web ma è nascosta. Non puoi disattivarla tramite l’app mobile
Collegamento diretto: Italiano: https://t.co/lvinBlQoHC foto.twitter.com/LqiO0tyvZG
— Kimmy Bestie di Bunzy, Co-CEO di Execubetch
(@EasyBakedOven) 26 luglio 2024
Un breve promemoria: Il GDPR è una legge completa sulla protezione dei dati nell’UE che disciplina il modo in cui i dati personali devono essere gestiti. Richiede che qualsiasi utilizzo di dati personali, incluso l’addestramento all’intelligenza artificiale, debba avere una chiara base giuridica. Il consenso dell’individuo i cui dati vengono utilizzati è una componente cruciale di questa base giuridica. Il mancato ottenimento del consenso può comportare sanzioni significative.
Puoi impedire a Grok AI di usare i tuoi tweet per addestrarsi
Di cosa si lamentano?
I reclami, presentati alle autorità per la protezione dei dati in nove paesi dell’UE, sostengono che X non ha ottenuto il consenso esplicito dei suoi utenti prima di utilizzare i loro dati per l’addestramento dell’IA. X si sarebbe basata su una giustificazione di “interesse legittimo”, che gli esperti di privacy ritengono non sufficiente ai sensi del GDPR per questo tipo di utilizzo dei dati. Tuttavia, Grok ora è comunque timido riguardo ai suoi dati di addestramento:
Cosa è stato fatto finora?
Il DPC ha avviato un procedimento legale per impedire a X di utilizzare i dati, ma il processo è in corso. X ha aggiunto un’impostazione alla sua piattaforma che consente agli utenti di rinunciare all’elaborazione dei dati per l’addestramento AI, ma questa opzione è stata introdotta solo dopo che il problema è venuto alla luce, lasciando molti utenti all’oscuro dell’utilizzo dei dati in anticipo.
Perché è importante?
Il GDPR è progettato per proteggere i dati personali degli individui e garantire la trasparenza su come vengono utilizzati. L’approccio di X di utilizzare i dati senza un chiaro consenso mina queste protezioni e mette in luce una preoccupazione più ampia su come le aziende tecnologiche gestiscono i dati degli utenti.
Cosa succederà ora?
Mentre i procedimenti legali proseguono, X deve occuparsi di queste denunce e garantire che le sue pratiche sui dati siano conformi al GDPR. Questo caso sottolinea le sfide che le aziende tecnologiche devono affrontare nel bilanciare l’innovazione con le normative sulla privacy e mette in evidenza il continuo controllo delle pratiche sui dati nell’era digitale.
Immagine in evidenza generata da Eray Eliacık/Bing