Il Threat Intelligence Group (GTIG) di Google ha identificato una significativa escalation nell’uso dannoso dell’intelligenza artificiale. Gli avversari non utilizzano più l’intelligenza artificiale solo per attività di produttività come la redazione di e-mail di phishing; ora stanno distribuendo nuovi malware che utilizzano attivamente l’intelligenza artificiale durante un attacco per alterarne dinamicamente il comportamento. Questa nuova fase di abuso dell’IA coinvolge ciò che Google chiama AI “Just-in-Time”. Per la prima volta, GTIG ha identificato famiglie di malware che utilizzano Large Language Models (LLM) a metà esecuzione. Questi strumenti possono generare dinamicamente script dannosi o offuscare al volo il proprio codice per eludere il rilevamento, anziché fare affidamento su funzioni codificate. Il rapporto descrive in dettaglio diverse novità malware famiglie che utilizzano questa tecnica. “PROMPTSTEAL”, osservato nelle operazioni attive, è un data miner che interroga un’API Hugging Face su un LLM per generare comandi Windows per la raccolta di informazioni di sistema. “QUIETVAULT”, anch’esso diffuso in circolazione, è un ladro di credenziali che utilizza gli strumenti AI CLI installati sul computer della vittima per cercare ulteriori segreti. Un altro malware, “FRUITSHELL”, contiene istruzioni codificate specificatamente progettate per aggirare l’analisi da parte dei sistemi di sicurezza basati su LLM. Google ha anche identificato malware sperimentali, tra cui “PROMPTFLUX”, un dropper che utilizza l’API di Google Gemini per riscrivere ripetutamente il proprio codice sorgente per rimanere nascosto, e “PROMPTLOCK”, un ransomware proof-of-concept che genera dinamicamente script dannosi in fase di esecuzione. Il rapporto GTIG ha inoltre rilevato che gli autori delle minacce stanno adattando tecniche di “ingegneria sociale” per aggirare le barriere di sicurezza dell’IA. Google ha osservato alcuni attori che si spacciavano per studenti in una competizione “cattura la bandiera” o come ricercatori di sicurezza informatica per convincere Gemini a fornire informazioni, come aiuto per lo sviluppo di strumenti, che altrimenti sarebbero state bloccate. Gli attori sponsorizzati dallo Stato, compresi quelli della Corea del Nord, dell’Iran e della Repubblica popolare cinese (RPC), continuano a utilizzare l’intelligenza artificiale come Gemini per migliorare tutte le fasi delle loro operazioni, dalla ricognizione e creazione di esche di phishing allo sviluppo di infrastrutture di comando e controllo (C2). Inoltre, Google rileva che il mercato clandestino per gli strumenti illeciti di intelligenza artificiale è maturato nel 2025, offrendo strumenti multifunzionali che abbassano la barriera all’ingresso per gli aggressori meno sofisticati. Google ha dichiarato che sta attivamente interrompendo questa attività disabilitando progetti e account associati a questi attori. La società ha sottolineato che sta migliorando continuamente i suoi modelli, incluso Gemini, per renderli meno suscettibili ad abusi e sta applicando l’intelligence per rafforzare i suoi classificatori di sicurezza.





