L’FBI ha emesso un servizio pubblico annuncio esortando gli utenti di smartphone a creare una parola in codice segreto per combattere le truffe generate dall’intelligenza artificiale. Questa raccomandazione arriva quando i rapporti rivelano un aumento delle frodi informatiche che sfruttano l’intelligenza artificiale generativa per potenziare tattiche ingannevoli. Gli esperti di sicurezza affermano che questi strumenti possono manipolare le tattiche di comunicazione, rendendo difficile distinguere i messaggi autentici da quelli contraffatti. A titolo precauzionale, l’FBI ha inoltre consigliato agli utenti di smettere di utilizzare Rich Communication Services (RCS) per i testi multipiattaforma, poiché questi non offrono la crittografia end-to-end.
L’FBI avverte gli utenti di smartphone dell’aumento delle truffe generate dall’intelligenza artificiale
Nell’allarme di servizio pubblico numero I-120324-PSA, l’FBI ha riferito che i criminali informatici utilizzano sempre più l’intelligenza artificiale generativa negli schemi di phishing. Questi progressi consentono agli aggressori di produrre e-mail e messaggi realistici, riducendo così la possibilità che le potenziali vittime li riconoscano come fraudolenti. In un esempio, l’intelligenza artificiale può generare correttamente contenuti che normalmente potrebbero contenere errori di ortografia o grammatica, che un tempo erano segni rivelatori di truffe. Di conseguenza, le vittime potrebbero diventare sempre più vulnerabili alla rivelazione di informazioni sensibili.
L’FBI ha delineato diversi modi allarmanti in cui l’intelligenza artificiale generativa può facilitare gli attacchi informatici. Questi includono la generazione di foto che creano un’identità convincente, l’utilizzo di immagini di celebrità per promuovere attività fraudolente e la generazione di clip audio che imitano i propri cari che richiedono aiuto finanziario. Inoltre, la tecnologia AI è in grado di produrre chat video in tempo reale con individui che affermano di essere dirigenti aziendali o personale delle forze dell’ordine, confondendo ulteriormente il confine tra realtà e inganno.
Le forze dell’ordine devono affrontare sfide legate al riavvio automatico degli iPhone
Per salvaguardarsi da queste minacce, l’FBI sottolinea l’importanza della verifica. Si consiglia agli utenti di riagganciare se ricevono chiamate sospette e di verificare in modo indipendente l’identità del chiamante cercando e utilizzando informazioni di contatto verificate. La creazione di una parola segreta concordata dai membri della famiglia può fungere da misura protettiva contro le chiamate di emergenza fraudolente. Questa semplice precauzione può garantire che qualsiasi terribile richiesta di assistenza possa essere convalidata.
Rapporti in continua evoluzione indicano che l’intelligenza artificiale generativa viene sempre più utilizzata in diverse truffe informatiche, dalle frodi relative al supporto tecnico alle frodi bancarie. Gli investigatori hanno notato una tendenza nelle tattiche basate sull’intelligenza artificiale che si orientano verso comportamenti manipolativi nelle comunicazioni, soprattutto tramite smartphone. Ciò indica un cambiamento significativo nel panorama delle minacce alla sicurezza informatica.
L’intelligenza artificiale genetica sta anche offuscando i confini dell’autenticità attraverso le piattaforme di comunicazione più popolari. A causa delle vulnerabilità intrinseche di sistemi come RCS, gli utenti Apple e Android devono prestare particolare attenzione quando si tratta di messaggi di testo multipiattaforma, che ora non dispongono di una crittografia sicura garantita. Di conseguenza, l’utilizzo di servizi di messaggistica crittografati, come WhatsApp, è diventato più importante che mai.
- Testo generato dall’intelligenza artificiale:
I criminali sfruttano il testo generato dall’intelligenza artificiale per convincere gli schemi di frode, tra cui ingegneria sociale, phishing, truffe sugli investimenti e frodi relative alle criptovalute. Utilizzano strumenti di intelligenza artificiale per comunicazioni più veloci e prive di errori, creando profili falsi, siti Web fraudolenti e incorporando chatbot.
- Immagini generate dall’intelligenza artificiale:
L’intelligenza artificiale generativa crea immagini realistiche per profili di social media falsi, ID fraudolenti e imitazioni. Viene utilizzato per truffe di beneficenza, manipolazione del mercato e sextortion, oltre ad altri schemi fraudolenti.
- Audio generato dall’intelligenza artificiale:
La clonazione vocale consente ai truffatori di impersonare persone care o personaggi pubblici, ingannando le vittime per ottenere assistenza finanziaria, pagamento di riscatto o accesso non autorizzato a conti bancari.
- Video generati dall’intelligenza artificiale:
I video generati dall’intelligenza artificiale aiutano i truffatori a impersonare figure autoritarie o materiali promozionali falsi, dimostrando “autenticità” nelle truffe online e nelle tattiche di ingegneria sociale.
- Suggerimenti per la protezione:
Usa parole segrete con la famiglia, analizza i media per individuare incoerenze, limita i contenuti personali online, verifica le identità in modo indipendente e non condividere mai informazioni sensibili o inviare denaro a persone non verificate. Le vittime dovrebbero segnalare le truffe al sito web IC3 dell’FBI con informazioni dettagliate.
Credito immagine in primo piano: David Trinks