Man mano che la tecnologia DeepFake avanza, le preoccupazioni per la disinformazione e il furto di identità sono in aumento, evidenziate da un recente studio IPROOV che rivela che la maggior parte degli individui lotta per distinguere tra contenuti reali e generati dall’IA.
IL studio ha coinvolto 2.000 partecipanti in tutto il Regno Unito e negli Stati Uniti, esponendoli a un mix di immagini e video autentici e profondi. In modo allarmante, solo lo 0,1% dei partecipanti, per un totale di due persone, potrebbe distinguere accuratamente tra gli stimoli reali e profondi.
Gli adulti più anziani sono emersi come particolarmente vulnerabili all’inganno generato dall’IA. Circa il 30% dei partecipanti di età compresa tra 55-64 e il 39% di quelli oltre 65 hanno riferito di non aver mai sentito parlare di DeepFakes prima dello studio. Sebbene i partecipanti più giovani (dai 18 ai 34 anni) abbiano mostrato una maggiore fiducia nella loro capacità di rilevare i profondi, le loro prestazioni effettive non hanno riflettuto sul miglioramento.
Sfide di rilevamento di DeepFake
Lo studio ha indicato che il rilevamento di video DeepFake è stato significativamente più impegnativo rispetto all’identificazione delle immagini. I partecipanti avevano il 36% in meno di probabilità di identificare accuratamente un video sintetico rispetto a un’immagine sintetica, sollevando preoccupazioni per quanto riguarda il potenziale di frode basata su video, come l’impersone durante le videochiamate.
Le piattaforme di social media sono state identificate come principali fonti di contenuti DeepFake. Quasi la metà dei partecipanti (49%) ha citato le meta piattaforme, tra cui Facebook e Instagram, come i siti più comuni per DeepFakes, mentre il 47% ha indicato Tiktok.
Andrew Bud, fondatore e CEO di IProov, ha commentato i risultati, rilevando l’accresciuta vulnerabilità delle organizzazioni e dei consumatori a frode di identità nell’era di Deepfake. Ha dichiarato: “I criminali stanno sfruttando l’incapacità dei consumatori di distinguere le immagini reali dalle immagini false, mettendo a rischio informazioni personali e sicurezza finanziaria”. Nonostante i risultati allarmanti, lo studio ha scoperto che solo il 20% degli intervistati avrebbe riportato un sospetto DeepFake online.
Man mano che i piatti profondi diventano sempre più sofisticati, IProov suggerisce che la sola percezione umana è insufficiente per un rilevamento affidabile. Bud ha sottolineato la necessità di soluzioni di sicurezza biometriche con rilevamento di vivaci per combattere la minaccia rappresentata dal convincere il materiale Deepfake.
La ricerca di IPROOV mette in mostra un’esigenza urgente per le organizzazioni per proteggere i propri clienti integrando solide misure di sicurezza. Bud ritiene che l’uso della biometria facciale con il rilevamento della vivacità offra un fattore di autenticazione affidabile che dà la priorità sia alla sicurezza che al controllo individuale.
Secondo lo studio, solo il 22% dei consumatori aveva sentito parlare di DeepFakes prima di partecipare. Inoltre, molte persone hanno mostrato una significativa fiducia in merito alle loro capacità di rilevamento, con oltre il 60% che crede di poter identificare i profondi, nonostante la maggioranza si sia esibita male. Tra gli adulti più giovani, questo falso senso di sicurezza era particolarmente diffuso.
I risultati hanno anche indicato un calo della fiducia nei confronti delle piattaforme di social media dopo che gli utenti sono venuti a conoscenza di DeepFakes, con il 49% che ha riportato una diminuzione della fiducia. Nel frattempo, il 74% dei partecipanti ha espresso preoccupazione per le ramificazioni sociali dei profondi, in particolare la diffusione della disinformazione, che è stata una delle principali preoccupazioni per il 68% degli intervistati. Questa apprensione era notevolmente forte tra le generazioni più anziane, dove fino all’82% delle persone di età pari o superiore a 55 anni espresse paure in merito alla diffusione delle informazioni false.
Meno di un terzo degli intervistati (29%) ha indicato che non avrebbe intrapreso alcuna azione per aver incontrato un sospetto profondo. La mancanza di coinvolgimento è in parte dovuta al 48% degli intervistati che afferma di non sapere come segnalare DeepFakes, mentre un quarto ha ammesso l’indifferenza verso sospetti profondi. Solo l’11% analizza criticamente le fonti e il contesto per determinare l’autenticità delle informazioni, creando un panorama in cui molte persone rimangono altamente suscettibili all’inganno.
Il professor Edgar Whitley, un esperto di identità digitale, ha avvertito che le organizzazioni non possono fare affidamento esclusivamente sul giudizio umano per rilevare DeepFakes e devono esplorare metodi alternativi di autenticazione degli utenti.
La crescente prevalenza di DeepFakes pone sfide significative nel panorama digitale. Il rapporto sull’intelligence delle minacce del 2024 di IPROOV ha indicato un incredibile aumento del 704% degli swap sul volto, sottolineando il loro ruolo di strumenti per i criminali informatici che cercano un accesso non autorizzato a dati sensibili. Questa tendenza evidenzia l’urgente necessità di una maggiore consapevolezza e soluzioni tecnologiche per contrastare le minacce legate a DeepFake.
Credito immagine in primo piano: Kerem Gülen/ideogramma