Un rapporto allarmante da Kela Research and Strategy Ltd. oggi documenta un aumento del 200% delle menzioni di strumenti di intelligenza artificiale dannosa nei forum di criminalità informatica fino al 2024, illustrando come i criminali cyberdamente cyber stanno adottando strumenti e tattiche di intelligenza artificiale. I risultati sono stati delineati nel rapporto sulle minacce AI del 2025 di Kela: come i criminali informatici stanno armando la tecnologia AI.
Il rapporto si basa sui dati della piattaforma di raccolta dell’intelligence di Kela, che analizza l’attività del crimine informatico attraverso forum Web oscuri, canali di telegramma e attraverso il monitoraggio del comportamento dell’attore delle minacce.
Oltre all’aumento delle menzioni di strumenti di intelligenza artificiale dannosi, il rapporto rileva un aumento del 52% delle discussioni sui jailbreak dell’IA nell’ultimo anno. Si dice che gli attori del crimine informatico perfezionano continuamente le tecniche di jailbreak di AI per aggirare le restrizioni di sicurezza nei sistemi pubblici di intelligenza artificiale.
Gli attori delle minacce stanno distribuendo e monetizzando in modo proattivo ciò che Kela definisce come “strumenti Dark AI”, che comprendono modelli di jailbreak e applicazioni maliziose specializzate, come WORMGPT e FRAUDGPT. Questi strumenti sono progettati per eseguire azioni di criminalità informatica come il phishing, la formazione di malware e frodi finanziarie, quali strumenti sono generalmente eseguiti su larga scala.
I sistemi AI sono progettati per rimuovere le restrizioni di sicurezza e aggiungere funzionalità personalizzate, abbattendo la barriera per gli aggressori inesperti per eseguire attacchi sofisticati su vasta scala.
Nel regno del phishing, gli esperti notano che gli attori delle minacce stanno sfruttando l’intelligenza artificiale generativa per creare forti contenuti di ingegneria sociale, migliorando tali schemi con audio e video DeepFake. Ciò migliora la capacità dei criminali informatici di impersonare i dirigenti e indurre in errore i dipendenti nell’approvazione di transazioni fraudolente.
Kela ha anche osservato che l’IA ha accelerato lo sviluppo del malware, consentendo la creazione di ransomware e infostealer altamente evasivi. Questo sviluppo pone difficoltà per i metodi tradizionali di rilevamento e risposta.
“Stiamo assistendo a un cambiamento sismico nel panorama delle minacce informatiche”, ha affermato Yael Kishon, prodotto AI e responsabile della ricerca a Kela. “I criminali informatici non stanno solo usando l’intelligenza artificiale, ma stanno costruendo intere sezioni nell’ecosistema sotterraneo dedicato al crimine informatico basato sull’intelligenza artificiale.” Ha sottolineato che “le organizzazioni devono adottare difese basate sull’intelligenza artificiale per combattere questa crescente minaccia”. Per stare al passo con l’aumento delle minacce informatiche alimentate dall’intelligenza artificiale, Kela consiglia di investire nella formazione dei dipendenti.
Kela raccomanda di monitorare le minacce e le tattiche emergenti di intelligenza artificiale e l’implementazione di misure di sicurezza basate sull’intelligenza artificiale come il teaming rosso automatico basato sull’intelligence ed emulazioni contraddittorie per modelli di intelligenza artificiale generativi.
Questo rapporto chiarisce che la corsa agli armamenti tra innovatori di criminalità informatica e esperti di sicurezza impone un coinvolgimento sfumato e proattivo. Se le organizzazioni devono utilizzare l’intelligenza artificiale generativa per contrastare l’intelligenza artificiale generativa nel phishing, così sia, ma è preoccupante di come saranno superati i metodi convenzionali se gli attori cattivi rimarranno incontrollati.
Il salto allarmante nelle chiacchiere online focalizzate sull’intelligenza artificiale rivela che i criminali informatici non stanno semplicemente adottando l’IA ma perfezionando i loro metodi di hacking dell’IA. Questo è anche peggio che armare il codice esterno, perché ora i nemici sono effettivamente misure di sicurezza dell’ingegneria. Questo è un gioco lungo, ma i criminali informatici stanno sfruttando un obiettivo aperto al momento e ora richiedono un’azione.
L’aumento del numero di metodi di jailbreak citato supera significativamente il contro-interventi.
Aiutati da strumenti mirati che mostrano applicazioni sofisticate in aree come la tecnologia DeepFake e lo sviluppo di malware, questi criminali informatici aggiungono un altro livello di complessità per le società di applicazione e sicurezza.
L’avvertimento di Kela non può essere ignorato per molto più tempo in cui gli sviluppatori, buoni o cattivi, si stanno concentrando sulla creazione di kit di strumenti per sfruttare il software di intelligenza artificiale e affrontare significativi problemi di sicurezza informatica. Per ora, l’ecosistema sotterraneo si è concentrato sul crimine informatico basato sull’intelligenza artificiale.
Nonostante il fatto che più di queste tattiche si affidano all’ingegneria sociale, i dipendenti – che sono noti per essere il legame di sicurezza informatica più debole – non investono ancora in strumenti di intelligenza artificiale nel modo più frequente che dovrebbero. Questo problema sarà intensificato quando i dirigenti dell’azienda devono accedere a tali meccanismi.