Ashley St. Clair, madre di uno dei figli di Elon Musk, giovedì ha citato in giudizio xAI presso il tribunale dello stato di New York, accusando negligenza e disagio emotivo da parte dello strumento di intelligenza artificiale Grok che ha consentito di scattare foto sessualmente esplicite di lei, nonostante le sue precedenti denunce alla società. IL causa descrive in dettaglio come gli utenti di Grok hanno creato immagini deepfake raffiguranti St. Clair da bambina in bikini e da adulta in pose sessualmente esplicite. St. Clair ha informato xAI di queste foto deepfake illecite e ha richiesto che il servizio impedisse la creazione di tali immagini non consensuali. Questa notifica ha preceduto la causa di un periodo durante il quale il problema persisteva. Grok opera consentendo agli utenti di caricare foto di persone, dopodiché l'intelligenza artificiale rimuove gli indumenti da quelli raffigurati e spesso li sostituisce con bikini o biancheria intima, generando deepfake non consensuali. La denuncia di St. Clair afferma che xAI ha risposto alla sua notifica confermando che le sue immagini non sarebbero state utilizzate o alterate senza il consenso esplicito in nessuna generazione o risposta futura.
I gruppi di difesa criticano Apple e Google per aver ospitato le app Grok e X
Nonostante questa assicurazione, xAI ha consentito la creazione continua di immagini di St. Clair generate dall'intelligenza artificiale più esplicite. La causa sostiene inoltre che xAI si è vendicata contro di lei demonetizzando il suo account X. xAI ha richiesto il trasferimento del caso dal tribunale dello stato di New York al distretto federale meridionale di New York, dove ora procede. X e xAI non hanno risposto immediatamente alle richieste di commento sulla causa o su questioni correlate. Nella settimana precedente alla presentazione della domanda, X ha implementato delle limitazioni sul bot di risposta @Grok, impedendogli di generare immagini che collocano senza consenso persone identificabili in costumi da bagno o biancheria intima rivelatori. Queste restrizioni non si estendevano ad altre piattaforme al momento della segnalazione. L'app Grok autonoma, il sito Web Grok e la scheda Grok su X hanno mantenuto la capacità di produrre tali immagini. I ricercatori hanno osservato Grok generare migliaia di immagini sessualizzate generate dall’intelligenza artificiale all’ora durante la settimana precedente. Molte di queste immagini sono apparse pubblicamente su X, contribuendo ad un'ampia diffusione. Il volume e la natura di queste immagini sessualizzate non consensuali hanno suscitato una risposta mondiale, comprese molteplici indagini governative. Le autorità hanno chiesto ai marketplace di app per smartphone di vietare o limitare X su queste funzionalità. La California ha avviato un’indagine “Chuck” sulla questione. Il governatore Gavin Newsom ha pubblicato su X una dichiarazione in cui condanna la situazione: “La decisione di xAI di creare e ospitare un terreno fertile per i predatori per diffondere deepfake IA sessualmente espliciti non consensuali, comprese immagini che spogliano digitalmente i bambini, è vile”. Questa critica pubblica ha evidenziato le preoccupazioni sul ruolo della piattaforma nel facilitare tali contenuti. La causa di St. Clair definisce la caratteristica di Grok di creare deepfake non consensuali come un difetto di progettazione. Afferma che xAI avrebbe potuto prevedere l'utilizzo della funzionalità per molestare le persone con immagini illegali. Le persone raffigurate, inclusa St. Clair, hanno sperimentato estrema angoscia a causa dei deepfake generati. La denuncia accusa xAI di condotta estrema e oltraggiosa. Si afferma testualmente: “L’imputato si è impegnato in una condotta estrema e oltraggiosa, che supera ogni limite di decenza e assolutamente intollerabile in una società civile”. Queste accuse costituiscono la base delle accuse di negligenza e inflizione intenzionale di disagio emotivo.





