Consumer Reports rivela che diversi strumenti di clonazione vocale popolari mancano di adeguate garanzie contro frodi o abusi, evidenziando potenziali rischi associati alla tecnologia vocale di intelligenza artificiale. Lo studio ha esaminato i prodotti di sei aziende: Descript, Elevenlabs, Lovo, PlayHT, assomiglia all’IA e Speciafy.
L’indagine ha rilevato che solo Descript e assomigliano all’IA hanno implementato misure significative per prevenire l’abuso. Altri strumenti richiedono semplicemente agli utenti di confermare di avere il diritto legale di clonare una voce, spesso attraverso l’autoassistenza. Grace Gedye, analista politico di Rapporti di consumoha avvertito che senza adeguati meccanismi di sicurezza, gli strumenti di clonazione vocale di intelligenza artificiale potrebbero “potenziare” le truffe di imitazione.
La tecnologia di clonazione vocale AI è avanzata in modo significativo, in grado di imitare il discorso di una persona con campioni audio minimi. Un incidente notevole si è verificato durante le primarie democratiche dell’anno scorso, in cui Robocalls con un falso Joe Biden ha ingannato gli elettori. Ciò ha comportato una multa di $ 6 milioni per il consulente politico alla base del regime e la Federal Communications Commission ha successivamente vietato i Robocall generati dall’IA.
L’analisi dei sei strumenti di clonazione vocale AI ha indicato che cinque hanno garanzie bypabili, rendendo facile clonare voci senza consenso. Il software di rilevamento audio DeepFake spesso fatica a distinguere tra voci autentiche e sintetiche, complicando il problema. L’intelligenza artificiale generativa, che imita le caratteristiche umane come la voce, ha una regolamentazione federale limitata, con la maggior parte delle pratiche etiche guidate dalle società stesse. Un ordine esecutivo firmato dal presidente Biden nel 2023 includeva richieste di sicurezza per l’IA, ma una successiva revoca dell’ex presidente Trump ha smantellato tali disposizioni.
La voce AI di Sesame è così reale, è inquietante
La tecnologia di clonazione vocale utilizza campioni audio da individui per creare voci sintetiche. Senza garanzie, chiunque può caricare audio da varie piattaforme, come Tiktok o YouTube, e far replicare il servizio a tale voce. Quattro dei servizi esaminati – Elevenlabs, Speekify, PlayHT e Lovo – richiedono che gli utenti controllano una casella che affermano l’autorizzazione per il clone vocale. Sommare l’IA, pur insistendo sulla registrazione audio in tempo reale, è stato aggirato dai rapporti di consumo, che ha riprodotto l’audio registrato durante la verifica.
Solo Descript ha offerto una salvaguardia in qualche modo efficace, che impone agli utenti di registrare una specifica dichiarazione di consenso. Questo metodo è difficile da falsificare, tranne quando si utilizza un altro servizio per clonare la voce. Tutti e sei i servizi sono accessibili al pubblico sui rispettivi siti Web, con undici e assomigliano alle commissioni di ricarica di AI di $ 5 e $ 1, rispettivamente, per la creazione di cloni vocali personalizzati, mentre gli altri sono gratuiti. Alcune aziende hanno riconosciuto il potenziale per gli abusi e hanno riferito di aver implementato garanzie più forti per prevenire la creazione di DeepFake e la rappresentazione vocale.
Esistono applicazioni legittime per la clonazione vocale AI, come aiutare le persone con disabilità e fornire traduzioni audio. Tuttavia, i rischi rimangono significativi. Sarah Myers West, co-esecutiva direttrice dell’IA ora Institute, ha osservato che questa tecnologia potrebbe facilitare frodi, truffe e disinformazione, inclusa l’impersonazione di figure influenti.
La ricerca sulla prevalenza dell’IA nelle truffe audio è limitata. La Federal Trade Commission ha indicato Quell’intelligenza artificiale può essere impiegata in “truffe dei nonni”, in cui i criminali impersonano i familiari in difficoltà. Inoltre, alcuni musicisti hanno affrontato sfide a causa delle voci clonate utilizzate per la produzione musicale non autorizzata, come esemplificato da una canzone virale del 2023 attribuita falsamente a Drake e The Weeknd.
Credito d’immagine in primo piano: Bruno Cervera/Unsplash