Dataconomy IT
  • News
  • Industry
Subscribe
No Result
View All Result
Dataconomy IT
  • News
  • Industry
Subscribe
No Result
View All Result
Dataconomy IT
No Result
View All Result

Sophos: AI DeepFakes ha colpito il 62% delle aziende l’anno scorso

byAytun Çelebi
24 Settembre 2025
in Research
Home Research

Un sondaggio sui leader della sicurezza informatica mostra che il 62 % ha registrato attacchi guidati dall’IA contro il personale nell’ultimo anno. Questi incidenti, che coinvolgono l’audio o il video di iniezione e DeepFake, hanno causato significative interruzioni delle imprese, tra cui perdite di proprietà finanziaria e intellettuale. Il vettore di attacco più comune è stato DeepFake Audio Calls con i dipendenti, con il 44 percento delle aziende che hanno riportato almeno un incidente. Il sei percento di queste occorrenze ha portato a interruzioni commerciali, perdita finanziaria o perdita di proprietà intellettuale. I dati hanno indicato che l’implementazione di un servizio di screening audio era correlata a una riduzione di questi tassi di perdita al due percento. Gli incidenti che coinvolgono video profondi sono stati segnalati dal 36 percento delle organizzazioni intervistate. Tra questi casi, il cinque percento è stato classificato come causato un grave problema per l’azienda. Ciò rappresenta una minaccia persistente, sebbene meno frequente, rispetto ai tentativi di imitazione audio. Chester Wisniewski, Global Field CISO della società di sicurezza Sophos, ha spiegato che Deepfake Audio sta diventando altamente convincente ed economico. “Con l’audio puoi generare queste chiamate in tempo reale a questo punto”, ha affermato, notando che può ingannare un collega che uno interagisce occasionalmente. Wisniewski ritiene che le cifre audio DeepFake possano sottovalutare il problema e ha trovato le cifre video più alte del previsto, dato che un falso video in tempo reale di un individuo specifico può costare milioni di dollari per produrre. Sophos ha osservato tattiche in cui un truffatore utilizza brevemente un CEO o un video CFO DeepFake su una chiamata WhatsApp prima di rivendicare problemi di connettività, eliminare il feed e passare al testo per continuare un attacco di ingegneria sociale. I falsi video generici vengono anche utilizzati per nascondere un’identità piuttosto che rubarne una. È stato riferito che la Corea del Nord guadagna milioni facendo in modo che il proprio personale usasse un convincente AI Fakery a guadagnare lavoro con le società occidentali. Un’altra minaccia in aumento è l’attacco di iniezione rapida, in cui le istruzioni dannose sono incorporate in contenuto elaborato da un sistema di intelligenza artificiale. Ciò può ingannare l’intelligenza artificiale nel rivelare informazioni sensibili o strumenti di uso improprio, portando potenzialmente all’esecuzione del codice se le integrazioni lo consentono. Secondo un sondaggio di Gartner, il 32 percento degli intervistati ha riportato tali attacchi contro le loro applicazioni. Esempi recenti illustrano queste vulnerabilità. I ricercatori hanno dimostrato che il chatbot Gemini di Google è stato utilizzato per indirizzare i sistemi e-mail e smart-home di un utente. Anche il modello di lingua claude di Antropico ha riscontrato problemi con iniezione rapida. In altre ricerche, CHATGPT è stato ingannato con successo a risolvere i captcha, che sono progettati per differenziare gli utenti umani e delle macchine e nella generazione di traffico che poteva essere utilizzato per gli attacchi in stile negazione contro i siti Web.


Credito d’immagine in primo piano

Tags: DeepfakeIn primo pianoRicerca

Related Posts

Faccia abbracciare: l’uso dell’energia video AI scale in modo non lineare

Faccia abbracciare: l’uso dell’energia video AI scale in modo non lineare

26 Settembre 2025
Openi: GDPVal Framework Test AI su lavori nel mondo reale

Openi: GDPVal Framework Test AI su lavori nel mondo reale

26 Settembre 2025
Il kaist crea memristor auto-correttore per chips AI

Il kaist crea memristor auto-correttore per chips AI

24 Settembre 2025
Delphi-2M AI prevede 1000+ malattie utilizzando oltre 400k cartelle cliniche

Delphi-2M AI prevede 1000+ malattie utilizzando oltre 400k cartelle cliniche

23 Settembre 2025
DeepMind Dettagli AGI Sicurezza tramite Frontier Safety Framework

DeepMind Dettagli AGI Sicurezza tramite Frontier Safety Framework

23 Settembre 2025
RadWare inganna la profonda ricerca di Chatgpt sulla perdita di dati Gmail

RadWare inganna la profonda ricerca di Chatgpt sulla perdita di dati Gmail

19 Settembre 2025

Recent Posts

  • Salesforce AgentForce Hit da Noma "Forza forzata" impresa
  • L’ID digitale del portafoglio Apple si espande nel Nord Dakota
  • Faccia abbracciare: l’uso dell’energia video AI scale in modo non lineare
  • Openi: GDPVal Framework Test AI su lavori nel mondo reale
  • Asus Rog Ally, Ally X Preorder aperti; navi 16 ottobre

Recent Comments

Nessun commento da mostrare.
Dataconomy IT

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • News
  • Industry
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.