Un sondaggio sui leader della sicurezza informatica mostra che il 62 % ha registrato attacchi guidati dall’IA contro il personale nell’ultimo anno. Questi incidenti, che coinvolgono l’audio o il video di iniezione e DeepFake, hanno causato significative interruzioni delle imprese, tra cui perdite di proprietà finanziaria e intellettuale. Il vettore di attacco più comune è stato DeepFake Audio Calls con i dipendenti, con il 44 percento delle aziende che hanno riportato almeno un incidente. Il sei percento di queste occorrenze ha portato a interruzioni commerciali, perdita finanziaria o perdita di proprietà intellettuale. I dati hanno indicato che l’implementazione di un servizio di screening audio era correlata a una riduzione di questi tassi di perdita al due percento. Gli incidenti che coinvolgono video profondi sono stati segnalati dal 36 percento delle organizzazioni intervistate. Tra questi casi, il cinque percento è stato classificato come causato un grave problema per l’azienda. Ciò rappresenta una minaccia persistente, sebbene meno frequente, rispetto ai tentativi di imitazione audio. Chester Wisniewski, Global Field CISO della società di sicurezza Sophos, ha spiegato che Deepfake Audio sta diventando altamente convincente ed economico. “Con l’audio puoi generare queste chiamate in tempo reale a questo punto”, ha affermato, notando che può ingannare un collega che uno interagisce occasionalmente. Wisniewski ritiene che le cifre audio DeepFake possano sottovalutare il problema e ha trovato le cifre video più alte del previsto, dato che un falso video in tempo reale di un individuo specifico può costare milioni di dollari per produrre. Sophos ha osservato tattiche in cui un truffatore utilizza brevemente un CEO o un video CFO DeepFake su una chiamata WhatsApp prima di rivendicare problemi di connettività, eliminare il feed e passare al testo per continuare un attacco di ingegneria sociale. I falsi video generici vengono anche utilizzati per nascondere un’identità piuttosto che rubarne una. È stato riferito che la Corea del Nord guadagna milioni facendo in modo che il proprio personale usasse un convincente AI Fakery a guadagnare lavoro con le società occidentali. Un’altra minaccia in aumento è l’attacco di iniezione rapida, in cui le istruzioni dannose sono incorporate in contenuto elaborato da un sistema di intelligenza artificiale. Ciò può ingannare l’intelligenza artificiale nel rivelare informazioni sensibili o strumenti di uso improprio, portando potenzialmente all’esecuzione del codice se le integrazioni lo consentono. Secondo un sondaggio di Gartner, il 32 percento degli intervistati ha riportato tali attacchi contro le loro applicazioni. Esempi recenti illustrano queste vulnerabilità. I ricercatori hanno dimostrato che il chatbot Gemini di Google è stato utilizzato per indirizzare i sistemi e-mail e smart-home di un utente. Anche il modello di lingua claude di Antropico ha riscontrato problemi con iniezione rapida. In altre ricerche, CHATGPT è stato ingannato con successo a risolvere i captcha, che sono progettati per differenziare gli utenti umani e delle macchine e nella generazione di traffico che poteva essere utilizzato per gli attacchi in stile negazione contro i siti Web.