La società di sicurezza Radware ha scoperto una vulnerabilità a clic zero, “Shadowleak”, nel profondo agente di ricerca di Chatgpt. Il difetto consente il furto di dati dai server di Openi in quanto le aziende usano sempre più l’intelligenza artificiale per analizzare e -mail sensibili e report interni. L’adozione di queste piattaforme di intelligenza artificiale introduce nuovi rischi per la sicurezza durante la gestione delle informazioni commerciali riservate. Shadowleak è un exploit sul lato server, il che significa che un attacco esegue interamente sui server di Openi. Questo meccanismo consente agli aggressori di esfiltrarsi dati sensibili senza richiedere alcuna interazione dell’utente, operando completamente segretamente. David Aviv, Chief Technology Officer di Radware, lo ha classificato come “The Quintessential Zero-Click Attack”. Ha dichiarato: “Non è richiesta alcuna azione dell’utente, nessun segnale visibile e nessun modo per le vittime di sapere che i loro dati sono stati compromessi. Tutto accade interamente dietro le quinte attraverso le azioni degli agenti autonomi sui server cloud di Openai”. Questo exploit funziona indipendentemente da endpoint utente o reti aziendali, il che rende estremamente difficile il rilevamento da parte dei team di sicurezza delle imprese. I ricercatori di Radware hanno dimostrato che l’invio di un’e -mail con istruzioni nascoste potrebbe innescare l’agente di ricerca profondo, causando la perdita di informazioni autonomamente a conoscenza dell’utente. Pascal Geenens, direttore dell’intelligence delle minacce informatiche di Radware, ha avvertito che le protezioni interne sono insufficienti. “Le aziende che adottano l’IA non possono fare affidamento su garanzie integrate da sole per prevenire gli abusi”, ha detto Geenens. “I flussi di lavoro guidati dall’IA possono essere manipolati in modi non ancora previsti e questi vettori di attacco spesso aggirano le capacità di visibilità e rilevamento delle tradizionali soluzioni di sicurezza.” Shadowleak rappresenta il primo attacco di esfiltrazione di dati a zero clic sul lato server che non lascia quasi prove forensi dal punto di vista aziendale. Con CHATGPT che segnala oltre 5 milioni di utenti aziendali paganti, la potenziale scala di esposizione è sostanziale. Questa mancanza di prove complica gli sforzi di risposta agli incidenti. Gli esperti sottolineano che la supervisione umana e i rigorosi controlli di accesso sono fondamentali quando si collegano agenti AI autonomi a dati sensibili. Si consiglia alle organizzazioni di valutare continuamente le lacune di sicurezza e combinare la tecnologia con le pratiche operative. Le misure di protezione consigliate includono:
- Implementazione delle difese di sicurezza informatica a strati.
- Monitoraggio regolarmente dei flussi di lavoro basati sull’integrità per perdite insolite o perdite di dati.
- Distribuzione di soluzioni antivirus per proteggere dal malware tradizionale.
- Mantenere una solida protezione da ransomware per salvaguardare le informazioni.
- Applicazione di rigorosi controlli di accesso e autorizzazioni utente per gli strumenti di intelligenza artificiale.
- Garantire la supervisione umana quando gli agenti AI autonomi elaborano informazioni sensibili.
- Implementazione della registrazione e dell’auditing dell’attività degli agenti AI per identificare presto le anomalie.
- Integrazione di ulteriori strumenti di intelligenza artificiale per il rilevamento di anomalie e avvisi di sicurezza automatizzati.
- Educare i dipendenti su minacce legate all’IA e rischi di agenti autonomi.
- Combinando difese del software, pratiche operative e vigilanza continua.