La recente rivelazione sulla possibilità che l’intelligenza artificiale Gemini di Google acceda e riepiloghi i documenti privati archiviati su Google Drive ha suscitato preoccupazione tra gli utenti.
La situazione è venuta alla luce quando Kevin Bankstonun importante esperto di politica tecnologica, ha condiviso la sua esperienza sui social media. Bankston ha riferito che Gemelli avevo ha riepilogato automaticamente il suo documento di dichiarazione dei redditiche aveva aperto in Google Docs, senza la sua esplicita richiesta o autorizzazione.
Ho appena ritirato la mia dichiarazione dei redditi @Google Docs e, senza che nessuno lo chiedesse, Gemini lo ha riassunto. Quindi… Gemini sta automaticamente ingerendo anche i documenti privati che apro in Google Docs? WTF, ragazzi. Non l’ho chiesto io. Ora devo andare a cercare nuove impostazioni di cui non mi hanno mai parlato per disattivare questa roba.
— Kevin Bankston (@KevinBankston) 10 luglio 2024
Poiché i sistemi di intelligenza artificiale diventano sempre più integrati negli strumenti e nei servizi quotidiani, è fondamentale comprendere come interagiscono con i nostri dati personaliIl recente incidente di Gemini serve a ricordare l’importanza della trasparenza e del controllo dell’utente quando si tratta di funzionalità basate sull’intelligenza artificiale nelle piattaforme di archiviazione cloud e di gestione dei documenti.
AI qui, AI lì
L’incidente di Gemini ha rivelato diversi livelli di complessità nel modo in cui i sistemi di intelligenza artificiale interagiscono con i dati degli utenti sulle piattaforme cloud. Uno dei problemi chiave emersi dall’esperienza di Bankston è stato l’apparente mancanza di impostazioni o controlli chiari per gestire l’accesso di Gemini ai documenti personali.
Bankston ha segnalato difficoltà nel trovare le impostazioni appropriate per disattivare la funzione di riepilogo automatico di Gemini. Quando ha chiesto indicazioni a Gemini stessa, l’IA ha fornito istruzioni che si sono rivelate inaccurate o inesistenti.
Ulteriori indagini hanno rivelato che il comportamento di Gemini potrebbe essere collegato a un’impostazione “sticky”. Se un utente attiva Gemini per un documento di un tipo particolare (ad esempio, un PDF), l’IA potrebbe continuare a elaborare automaticamente tutti i documenti di quel tipo finché non vengono disabilitati esplicitamenteQuesto comportamento predefinito potrebbe portare all’elaborazione indesiderata di documenti sensibili se gli utenti non sono a conoscenza del funzionamento della funzionalità.

Conservazione dei dati è un altro problema qui. Anche se i riassunti di Gemini non vengono utilizzati per addestrare il modello AI, potrebbero essere ancora memorizzati nei registri delle chatcreando potenziali rischi per la privacy se questi registri vengono compromessi o vi si accede senza autorizzazione.
L’esplorazione del problema da parte di Bankston ha portato alla luce aspetti più sconcertanti. Ha scoperto che l’impostazione per disattivare l’integrazione di Gemini con Google Workspace era già disattivata nel suo account, ma l’IA continuava a riassumere i documenti. Questa discrepanza tra le impostazioni dichiarate e il comportamento effettivo del sistema solleva seri interrogativi sull’efficacia dei controlli utente e sulla trasparenza delle operazioni dell’IA all’interno dell’ecosistema di Google.
Inoltre, Bankston ha scoperto che diversi tipi di contenuto (Musica di Youtube, Video di Youtubevoli, hotel e mappe) avevano diverse impostazioni predefinite per l’integrazione di Gemini. La logica dietro queste impostazioni predefinite non era immediatamente evidente, aggiungendo confusione generale su come Gemini interagisce con diversi tipi di dati utente nei servizi di Google.
In precedenza Gemini è stato colto in flagrante su Gmail di qualcuno pure.
Il paradosso della privacy nei servizi potenziati dall’intelligenza artificiale
L’incidente Gemini mette in luce una tensione fondamentale nello sviluppo e nell’implementazione di servizi cloud potenziati dall’intelligenza artificiale: Il paradosso della privacy.
Da un lato, queste funzionalità AI offrono vantaggi significativi in termini di produttività e facilità d’uso. Riepilogo automatico, analisi dei contenuti e suggerimenti intelligenti possono migliorare notevolmente l’esperienza utente e far risparmiare tempo.
D’altro canto, queste funzionalità richiedono l’accesso ai dati utente in modi che potrebbero non essere immediatamente evidenti o pienamente compresi dall’utente medio. Più dati può accedere un sistema AI, più utile può essere potenzialmente. Tuttavia, questo aumenta anche il rischio di violazioni della privacy, uso improprio dei datiO divulgazione involontaria di informazioni.
Hai il diritto di opporti a Meta AI
L’esperienza di Bankston evidenzia la necessità di un’attenta equilibrio tra funzionalità e privacy. Solleva anche interrogativi circa la impostazioni predefinite scelte dai fornitori di servizi.
Le funzionalità AI dovrebbero essere opt-in di default, richiedendo agli utenti di abilitarle esplicitamente per ogni tipo di contenuto? Oppure è accettabile averle abilitate di default, lasciando agli utenti l’onere di scoprire e modificare queste impostazioni se lo desiderano?
L’incidente sottolinea anche l’importanza dei controlli granulari. Gli utenti dovrebbero avere la possibilità di specificare facilmente e chiaramente quali tipi di documenti o dati sono disposti a far elaborare dall’IA e in quali circostanze. L’implementazione attuale, come descritta da Bankston, sembra mancare di questo livello di controllo sfumato.
Come si dice “No” ai Gemelli?
Per impedire a Gemini di elaborare automaticamente i tuoi documenti, puoi procedere come segue:
Disattivare l’integrazione Gemini
- Vai al tuo Impostazioni dell’account Google.
- Vai alla sezione “Dati e privacy”.
- Cerca “App e servizi Gemini”.
- Disattiva gli interruttori per i diversi servizi Google come Drive, Documenti, ecc.
Disattiva il comportamento appiccicoso
Dopo aver utilizzato Gemini in un documento, chiudere la barra laterale di Gemini.
Ciò impedisce l’attivazione automatica per documenti simili.
Rivedi le impostazioni sulla privacy
Controlla le impostazioni di Google Workspace.
- Se non vuoi che le funzionalità di intelligenza artificiale siano disattivate, assicurati che siano disattivate.
- Cerca le opzioni relative a “Assistenza AI” o “Funzioni intelligenti”.
Usa la modalità di navigazione in incognito
Quando apri documenti sensibili, utilizza la modalità di navigazione in incognito/privata del tuo browser.
Ciò può impedire alcune elaborazioni automatiche dell’intelligenza artificiale.
Controllare le impostazioni delle singole app
- In Google Drive, Documenti, ecc. cerca le impostazioni relative all’intelligenza artificiale.
- Disattivare le opzioni per i riepiloghi automatici o l’assistenza AI.
Opt-out dalla raccolta dei dati
- Nel tuo Account Google, trova impostazioni di raccolta dati.
- Disattiva le opzioni che consentono a Google di utilizzare i tuoi dati per migliorare i servizi.
Così quello che ora?
Una delle conclusioni chiave dell’incidente Gemini è la necessità critica di trasparenza nei servizi cloud potenziati dall’intelligenza artificiale. Gli utenti dovrebbero essere informati in modo chiaro su quali funzionalità di intelligenza artificiale sono attive, quali dati stanno elaborando e come controllare queste funzionalità.

La confusione sperimentata da Bankston nel tentativo di individuare e comprendere le impostazioni rilevanti evidenzia una lacuna significativa nella comunicazione con l’utente e nella progettazione dell’interfaccia.
I fornitori di servizi come Google devono dare priorità a informazioni chiare, accessibili e accurate sulle funzionalità dell’intelligenza artificiale.
Ciò comprende:
- Notifiche esplicite quando le funzionalità dell’intelligenza artificiale vengono attivate o modificate.
- Impostazioni chiare e facili da trovare per controllare l’accesso dell’IA a diversi tipi di dati.
- Documentazione accurata e aggiornata sulle funzionalità dell’intelligenza artificiale e sulle loro implicazioni.
- Controlli regolari per garantire che il comportamento dell’IA sia in linea con le policy dichiarate e le impostazioni dell’utente.
Inoltre, gli utenti dovrebbero essere dotati degli strumenti necessari per comprendere e controllare il modo in cui l’intelligenza artificiale interagisce con i propri dati.
Ciò potrebbe includere caratteristiche come:
- Registri dettagliati delle interazioni dell’IA con i dati degli utenti.
- La possibilità di rivedere ed eliminare facilmente riepiloghi o analisi generati dall’intelligenza artificiale.
- Opzioni per disattivare temporaneamente o permanentemente le funzionalità di intelligenza artificiale per documenti o tipologie di documenti specifici.
- Controlli regolari della privacy che aiutano gli utenti a rivedere e aggiornare le proprie impostazioni relative all’intelligenza artificiale.
Poiché l’intelligenza artificiale continua a evolversi e a integrarsi sempre più profondamente nei servizi cloud, incidenti come questo probabilmente diventeranno più comuniImparando da queste esperienze e dando priorità alla privacy e al controllo degli utenti, possiamo lavorare verso un futuro in cui l’intelligenza artificiale migliora le nostre vite digitali senza compromettere la nostra privacy o autonomia.
Credito per l’immagine in evidenza: Emre Citak/Creatore di immagini Bing