Non edulcoriamolo: ogni volta che chatti con un modello linguistico, metti in gioco i tuoi dati personali. Ma secondo a CABLATO articolo, è diventato molto più rischioso. Un gruppo di ricercatori dell’Università della California, San Diego (UCSD) e della Nanyang Technological University di Singapore ha scoperto un nuovo attacco che potrebbe trasformare una conversazione casuale in un tesoro per gli hacker.
Incontra Improvvisatore
Questo nuovo attacco, sinistramente chiamato Imprompter, non si limita a curiosare tra i tuoi messaggi: si intrufola, ruba tutto, dal tuo nome ai dettagli di pagamento, e lo invia direttamente a un hacker senza che tu te ne accorga. Come? Mascherando istruzioni dannose come incomprensibili che sembrano innocue agli occhi umani ma agiscono come un faro per i dati sensibili. Consideralo il cugino molto più astuto del malware.
Secondo CABLATOi ricercatori sono riusciti a testare questo attacco su due principali modelli linguistici: LeChat by Maestrale AI e ChatGLM dalla Cina e hanno scoperto che potevano estrarre dati personali con un tasso di successo di quasi l’80%. Non è solo un problema tecnico; è una vulnerabilità totale.

Come funziona Impromper?
Imprompter funziona trasformando semplici istruzioni inglesi in una stringa indecifrabile di caratteri casuali che dice all’IA di scovare le tue informazioni personali. Quindi restituisce di nascosto questi dati al server dell’aggressore, impacchettati in un URL e mascherati dietro un pixel trasparente 1×1, completamente invisibile per te.
Come ha affermato Xiaohan Fu, l’autore principale della ricerca: “Nascondiamo l’obiettivo dell’attacco in bella vista”. L’intelligenza artificiale risponde al prompt nascosto senza mai avvisare l’utente. È come dare il codice del caveau di una banca a un ladro senza nemmeno rendersi conto di aver aperto bocca.
Non facciamo finta che si tratti di un problema isolato. Da quando il ChatGPT di OpenAI è entrato in scena, la corsa per sfruttare le vulnerabilità nei sistemi di intelligenza artificiale è stata incessante. Dai jailbreak alle iniezioni tempestive, gli hacker sono sempre un passo avanti e trovano modi per indurre le IA a divulgare informazioni sensibili. L’improvvisatore è solo l’ultima arma nel loro arsenale e, sfortunatamente, è particolarmente efficace.
Mistral AI ha dichiarato a WIRED di aver già risolto la vulnerabilità e i ricercatori hanno confermato che la società ha disabilitato la funzionalità di chat che ha consentito l’exploit. Ma anche con questa soluzione rapida, rimane la domanda più ampia: quanto sono realmente sicuri questi sistemi?

L’intelligenza artificiale ascolta e impara
Esperti di sicurezza come Dan McInerney, di Protect AI, stanno sventolando la bandiera rossa. Sottolinea che man mano che gli agenti di intelligenza artificiale diventano sempre più integrati nelle attività quotidiane, come prenotare voli o accedere a database esterni, la portata di questi attacchi non potrà che aumentare. “Il rilascio di un agente LLM che accetta l’input arbitrario dell’utente dovrebbe essere considerata un’attività ad alto rischio”, avverte McInerney. In altre parole, maggiore è la libertà che diamo all’IA di agire per nostro conto, maggiore è la scommessa sulla sicurezza.
Ogni volta che chatti con un modello linguistico, impara qualcosa su di te. Certo, aiuta a perfezionare le risposte, ma cosa succede quando il sistema viene indotto con l’inganno a utilizzare quei dati come un’arma? Attacchi come Imprompter evidenziano una debolezza evidente nel mondo dell’intelligenza artificiale: questi modelli sono progettati per seguire le istruzioni, senza fare domande. È fin troppo facile per gli attori malintenzionati insinuarsi inosservati, dirottando la conversazione senza mai far scattare un campanello d’allarme.
Dobbiamo smettere di chiederci se l’intelligenza artificiale sia conveniente e iniziare a chiederci se sia sicura. Perché in questo momento la più grande debolezza dell’intelligenza artificiale non è la mancanza di innovazione.
Come dice perfettamente gli Architects nella loro canzone: “Abbiamo dato ai vampiri le chiavi della banca del sangue”.
Crediti immagine: Kerem Gülen/Metà viaggio