Google ha confermato una vulnerabilità di sicurezza che coinvolge un nuovo attacco guidato dall’IA che può compromettere gli account Gmail. La società ha osservato che la minaccia “non è specifica per Google” ed evidenzia la necessità di difese più forti contro gli attacchi di iniezione tempestivi.
Come funziona il rapido attacco di iniezione
L’attacco utilizza istruzioni dannose nascoste all’interno di articoli apparentemente innocui come e -mail, allegati o inviti di calendario. Mentre queste istruzioni sono invisibili a un utente umano, un assistente di intelligenza artificiale può leggerle ed eseguirle. Ricercatore Eito Miyamura ha dimostrato la vulnerabilità in un video pubblicato su X.
Abbiamo chatgpt per perdere i tuoi dati e -mail privati. Tutto ciò di cui hai bisogno? L’indirizzo e -mail della vittima. Agenti AI come Chatgpt seguono i tuoi comandi, non il tuo buon senso … Con solo la tua e -mail, siamo riusciti a esfiltrarci tutte le tue informazioni private.
https://twitter.com/eito_miyamura/status/1966541235306237985 L’attacco può essere attivato da un invito del calendario appositamente realizzato che l’utente non ha nemmeno bisogno di accettare. Quando l’utente chiede al proprio assistente di intelligenza artificiale di eseguire un’attività di routine come controllare il calendario, l’IA legge il comando nascosto nell’invito. Il comando dannoso indica quindi l’intelligenza artificiale di cercare le e -mail private dell’utente e di inviare i dati all’attaccante.
Come proteggere il tuo account e la risposta di Google
Google ha precedentemente avvertito di questo tipo di minaccia a giugno, affermando che le istruzioni incorporate nei documenti o negli inviti del calendario potrebbero istruire l’IA a “esfiltrarsi i dati degli utenti o eseguire altre azioni canaglia”. La società sta ora implementando le difese e consiglia agli utenti su come proteggersi.
- Abilita l’impostazione di “mittenti conosciuti” in Google Calendar: Google afferma che questo è un modo efficace per impedire agli inviti dannosi di apparire automaticamente sul tuo calendario. L’attacco ha meno probabilità di funzionare a meno che l’utente non abbia precedentemente interagito con l’attaccante o modificato questa impostazione predefinita.
- Google sta allenando i suoi modelli AI per resistere a questi attacchi: La società afferma che la sua formazione con i dati contraddittori ha “significativamente migliorato le nostre difese contro gli attacchi di iniezione tempestivi indiretti nei modelli Gemini 2.5”.
- Vengono distribuiti nuovi modelli di rilevamento: Google sta lanciando modelli proprietari di apprendimento automatico in grado di rilevare e neutralizzare i prompt dannosi all’interno di e -mail e file prima di essere eseguiti.
RicordareL’IA potrebbe essere super intelligente, ma può essere ingannata e phishing in modi incredibilmente stupidi per perdere i tuoi dati.





