Dataconomy IT
  • News
  • Industry
Social icon element need JNews Essential plugin to be activated.
Subscribe
No Result
View All Result
Dataconomy IT
  • News
  • Industry
Social icon element need JNews Essential plugin to be activated.
Subscribe
No Result
View All Result
Dataconomy IT
No Result
View All Result

Consumer Reports: gli strumenti di clonazione vocale AI non hanno quasi alcun controllo di sicurezza

byKerem Gülen
11 Marzo 2025
in Artificial Intelligence, Cybersecurity, News
Home Artificial Intelligence

Consumer Reports rivela che diversi strumenti di clonazione vocale popolari mancano di adeguate garanzie contro frodi o abusi, evidenziando potenziali rischi associati alla tecnologia vocale di intelligenza artificiale. Lo studio ha esaminato i prodotti di sei aziende: Descript, Elevenlabs, Lovo, PlayHT, assomiglia all’IA e Speciafy.

L’indagine ha rilevato che solo Descript e assomigliano all’IA hanno implementato misure significative per prevenire l’abuso. Altri strumenti richiedono semplicemente agli utenti di confermare di avere il diritto legale di clonare una voce, spesso attraverso l’autoassistenza. Grace Gedye, analista politico di Rapporti di consumoha avvertito che senza adeguati meccanismi di sicurezza, gli strumenti di clonazione vocale di intelligenza artificiale potrebbero “potenziare” le truffe di imitazione.

La tecnologia di clonazione vocale AI è avanzata in modo significativo, in grado di imitare il discorso di una persona con campioni audio minimi. Un incidente notevole si è verificato durante le primarie democratiche dell’anno scorso, in cui Robocalls con un falso Joe Biden ha ingannato gli elettori. Ciò ha comportato una multa di $ 6 milioni per il consulente politico alla base del regime e la Federal Communications Commission ha successivamente vietato i Robocall generati dall’IA.

L’analisi dei sei strumenti di clonazione vocale AI ha indicato che cinque hanno garanzie bypabili, rendendo facile clonare voci senza consenso. Il software di rilevamento audio DeepFake spesso fatica a distinguere tra voci autentiche e sintetiche, complicando il problema. L’intelligenza artificiale generativa, che imita le caratteristiche umane come la voce, ha una regolamentazione federale limitata, con la maggior parte delle pratiche etiche guidate dalle società stesse. Un ordine esecutivo firmato dal presidente Biden nel 2023 includeva richieste di sicurezza per l’IA, ma una successiva revoca dell’ex presidente Trump ha smantellato tali disposizioni.


La voce AI di Sesame è così reale, è inquietante


La tecnologia di clonazione vocale utilizza campioni audio da individui per creare voci sintetiche. Senza garanzie, chiunque può caricare audio da varie piattaforme, come Tiktok o YouTube, e far replicare il servizio a tale voce. Quattro dei servizi esaminati – Elevenlabs, Speekify, PlayHT e Lovo – richiedono che gli utenti controllano una casella che affermano l’autorizzazione per il clone vocale. Sommare l’IA, pur insistendo sulla registrazione audio in tempo reale, è stato aggirato dai rapporti di consumo, che ha riprodotto l’audio registrato durante la verifica.

Solo Descript ha offerto una salvaguardia in qualche modo efficace, che impone agli utenti di registrare una specifica dichiarazione di consenso. Questo metodo è difficile da falsificare, tranne quando si utilizza un altro servizio per clonare la voce. Tutti e sei i servizi sono accessibili al pubblico sui rispettivi siti Web, con undici e assomigliano alle commissioni di ricarica di AI di $ 5 e $ 1, rispettivamente, per la creazione di cloni vocali personalizzati, mentre gli altri sono gratuiti. Alcune aziende hanno riconosciuto il potenziale per gli abusi e hanno riferito di aver implementato garanzie più forti per prevenire la creazione di DeepFake e la rappresentazione vocale.

Esistono applicazioni legittime per la clonazione vocale AI, come aiutare le persone con disabilità e fornire traduzioni audio. Tuttavia, i rischi rimangono significativi. Sarah Myers West, co-esecutiva direttrice dell’IA ora Institute, ha osservato che questa tecnologia potrebbe facilitare frodi, truffe e disinformazione, inclusa l’impersonazione di figure influenti.

La ricerca sulla prevalenza dell’IA nelle truffe audio è limitata. La Federal Trade Commission ha indicato Quell’intelligenza artificiale può essere impiegata in “truffe dei nonni”, in cui i criminali impersonano i familiari in difficoltà. Inoltre, alcuni musicisti hanno affrontato sfide a causa delle voci clonate utilizzate per la produzione musicale non autorizzata, come esemplificato da una canzone virale del 2023 attribuita falsamente a Drake e The Weeknd.


Credito d’immagine in primo piano: Bruno Cervera/Unsplash

Tags: AIvoce

Recent Posts

  • Questo robot Amazon ha un senso di sensazione
  • Valutazione dei farmaci AI Openai e Xai con FDA
  • Crowdstrike stabilisce 500 posti di lavoro nonostante i finanziamenti in forte espansione
  • Safari potrebbe ottenere opzioni di ricerca aperte o perplessità.
  • Stripe si tuffa in stablecoins lancia i principali strumenti di intelligenza artificiale

Recent Comments

Nessun commento da mostrare.
Dataconomy IT

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

Follow Us

Social icon element need JNews Essential plugin to be activated.
  • News
  • Industry
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.