Dataconomy IT
  • News
  • Industry
Subscribe
No Result
View All Result
Dataconomy IT
  • News
  • Industry
Subscribe
No Result
View All Result
Dataconomy IT
No Result
View All Result

Danish Bill prende di mira AI DeepFakes e Identity Furt

byEmre Çıtak
31 Luglio 2025
in Cybersecurity, News
Home Cybersecurity
Share on FacebookShare on Twitter

La Danimarca sta proponendo una nuova legislazione per modificare la propria legge sul copyright digitale, affrontando la crescente minaccia di deepfakes generati dall’AI. Le modifiche proposte cercano di proteggere i diritti individuali riguardanti le loro identità digitali in risposta all’aumento di Deepfake Attacchi, che hanno provocato perdite finanziarie significative e la diffusione della disinformazione.

DeepFakes utilizza l’intelligenza artificiale per produrre immagini false realistiche, video e registrazioni audio. La tecnologia è stata impiegata in vari modi, dalla creazione di contenuti umoristici alla perpetrazione di frodi finanziarie e alla diffusione di informazioni fuorvianti. IL Forum economico mondialeLa coalizione globale per la sicurezza digitale sta lavorando per favorire la cooperazione pubblica-privata per combattere i contenuti online dannosi, compresi i profondi e per migliorare l’alfabetizzazione dei media digitali.

L’emendamento del governo danese, considerato uno sforzo pionieristico in Europa, mira a salvaguardare il controllo degli individui sulle loro identità, in particolare il loro aspetto e voce. Il governo mira a presentare l’emendamento in autunno, indicando l’urgenza con cui vede il problema. La proposta ha ottenuto un supporto trasversale, suggerendo un consenso sulla necessità di affrontare le sfide legate a DeepFake.

DeepFakes sfrutta la tecnologia AI, in particolare “apprendimento profondo”, per creare contenuti manipolati o interamente fabbricati. Questa tecnologia può alterare i contenuti esistenti, come illustrato sostituendo il volto di un attore con un altro nelle clip cinematografiche. Può anche generare nuovi contenuti, raffigurando le persone che dicono o fanno cose che non hanno mai fatto. Mentre alcuni usi, come lo scambio di faccia nelle scene dei film, possono apparire innocui, sollevano preoccupazioni per il diritto dell’individuo alla loro immagine.

Nel 2023, gli attori statunitensi hanno scioccato per sostenere il controllo sull’uso delle loro immagini da parte dell’IA. Lo sciopero ha portato le produzioni cinematografiche e televisive. Gli attori hanno ottenuto un impegno dal settore che qualsiasi futuro uso di AI delle loro immagini richiederebbe il loro esplicito consenso. Questo evento evidenzia la crescente consapevolezza e preoccupazione per l’uso dell’IA per manipolare o replicare le somiglianze delle persone senza permesso.

Una minaccia significativa rappresentata da DeepFakes è il loro uso nella diffusione di notizie false. Le istanze includono profondi dell’ex presidente degli Stati Uniti Joe Biden e presidente ucraino Volodymyr Zelenskyy. Creando l’aspetto che i messaggi provengono da fonti affidabili, i profondi possono dare credibilità a informazioni false, influenzando potenzialmente l’opinione pubblica e il discorso politico.

Assomigliare.aiLa ricerca indica che la frode finanziaria e il crimine informatico rappresentano aree di crescita sostanziali per le applicazioni DeepFake. Mentre 41% di obiettivi di Deepfake sono personaggi pubblici, tra cui celebrità, politici e leader aziendali, 34% sono privati, prevalentemente donne e bambini. Le organizzazioni contabiliranno 18% di quelli presi di mira da DeepFakes.

La società di ingegneria del Regno Unito Arup ha sperimentato una truffa DeepFake che ha comportato una perdita finanziaria di $ 25 milioni. I criminali informatici hanno utilizzato un clone generato dall’IA di un senior manager per convincere un dipendente finanziario a trasferire i fondi durante una videochiamata. Questa istanza illustra il potenziale per i padiglioni profondi per facilitare crimini finanziari sofisticati.

Un tentativo di frode mirato Ferrari ha coinvolto l’uso di una voce di CEO generata dall’IA Benedetto Vigna. Un dipendente ha contrastato il tentativo ponendo una domanda a cui solo il vero CEO poteva rispondere. UN BBC Il giornalista ha dimostrato il potenziale per la clonazione vocale aggirando il sistema di identificazione vocale della sua banca usando una versione sintetica della sua stessa voce. Questi esempi sottolineano la crescente raffinatezza e accessibilità della tecnologia DeepFake per scopi dannosi.

Assomigliare.aiRapporto di sicurezza DeepFake per Q2 2025 ha rivelato un aumento significativo degli attacchi di DeepFake divulgati pubblicamente. Il rapporto documentato 487 Tali attacchi, che rappresentano un Aumento del 41% rispetto al trimestre precedente e a Aumento del 300% anno su anno. I risultati dell’azienda hanno anche indicato che le perdite finanziarie dirette derivanti dalle truffe di Deepfake hanno raggiunto quasi $ 350 milioni. Assomigliare.ai Ha anche notato che gli attacchi di Deepfake raddoppiano ogni sei mesi, evidenziando la natura crescente della minaccia.

Assomigliare.ai Indica che la frode di DeepFake è una questione globale, particolarmente diffusa nelle regioni tecnologicamente avanzate. Mentre gli Stati Uniti conducono in incidenti segnalati, i casi di DeepFake sono anche diffusi in Asia Pacifico e in Europa, con un rapido aumento osservato in Africa. Questa distribuzione globale sottolinea la necessità di una cooperazione internazionale nell’affrontare le sfide poste da DeepFakes.

Gli Stati Uniti hanno implementato l’atto Take It Down, che richiede la rimozione di DeepFakes dannosi all’interno 48 ore e imporre penalità penali federali per la loro distribuzione. La legge impone inoltre che i siti Web pubblici e le app mobili stabiliscano reporting e procedure di rimozione. I legislatori statali nel Tennessee, in Louisiana e in Florida hanno emanato le loro leggi DeepFake, dimostrando un approccio poliedrico per affrontare la questione.

Il Digital Services Act (DSA) dell’Unione europea, che è entrata in vigore nel 2024, mira a prevenire online attività illegali e dannose, compresa la diffusione della disinformazione. Il DSA ha messo i fornitori di servizi online sotto maggiore controllo e sono già in corso diverse indagini formali per la non conformità. Il Regno Unito ha adottato un approccio simile con la legge sulla sicurezza online, implementato all’inizio del 2025.

L’emendamento danese in esame consente alle persone colpite dal contenuto di DeepFake di richiedere la sua rimozione. Gli artisti possono richiedere un risarcimento per l’uso non autorizzato della loro immagine. Il diritto alla compensazione si estenderà per 50 anni Oltre la morte dell’artista. Le piattaforme online come Meta e X potrebbero affrontare multe sostanziali se la fattura modificata viene approvata come proposto. Il disegno di legge stabilirebbe le basi legali per la ricerca di danni ai sensi della legge danese, sebbene non preveda direttamente un risarcimento o accuse penali.

Con la Danimarca che detiene la presidenza del Consiglio dell’Unione europea, mira a dare la priorità ai media e alla cultura all’interno della democrazia europea attraverso iniziative come lo scudo della democrazia europea. L’emendamento alla legge sul copyright interno dovrebbe inviare segnali politici forti sia a Bruxelles che all’UE più ampia. Questa azione riflette l’impegno della Danimarca nell’affrontare le sfide poste da DeepFakes e promuovere un ambiente online più sicuro.

IL Forum economico mondialeLa coalizione globale per la sicurezza digitale mira a promuovere la cooperazione cross-regionale per la sicurezza online. Ciò include l’accelerazione della collaborazione pubblica -privata per affrontare i contenuti dannosi, inclusi DeepFakes. La coalizione facilita anche lo scambio di migliori pratiche nella regolamentazione della sicurezza online e supporta gli sforzi per migliorare l’alfabetizzazione dei media digitali. Promuovendo la collaborazione e la condivisione delle conoscenze, la coalizione mira a migliorare gli sforzi globali per combattere i paesi profondi e promuovere un ambiente digitale più sicuro.


Credito d’immagine in primo piano

Tags: Deepfakefurto di identità

Related Posts

Bluesky lancia il badge Live Now e i cashtag nell'aggiornamento principale

Bluesky lancia il badge Live Now e i cashtag nell'aggiornamento principale

16 Gennaio 2026
Samsung rinnova Mobile Gaming Hub per correggere la scoperta di giochi interrotta

Samsung rinnova Mobile Gaming Hub per correggere la scoperta di giochi interrotta

16 Gennaio 2026
La madre di uno dei figli di Elon Musk fa causa a xAI per i deepfake sessuali di Grok

La madre di uno dei figli di Elon Musk fa causa a xAI per i deepfake sessuali di Grok

16 Gennaio 2026
Capcom rivela il gameplay di Resident Evil Requiem e la data di uscita di febbraio

Capcom rivela il gameplay di Resident Evil Requiem e la data di uscita di febbraio

16 Gennaio 2026
Paramount+ aumenta i prezzi degli abbonamenti e interrompe le prove gratuite per il 2026

Paramount+ aumenta i prezzi degli abbonamenti e interrompe le prove gratuite per il 2026

16 Gennaio 2026
La crisi nell'offerta di memoria costringe ASUS a interrompere la produzione della RTX 5060 Ti

La crisi nell'offerta di memoria costringe ASUS a interrompere la produzione della RTX 5060 Ti

16 Gennaio 2026

Recent Posts

  • Guadagno di $ 20 di Verizon: come richiedere oggi stesso il credito di interruzione
  • Trump formalizza un accordo sull’esportazione di chip AI con una tassa del 25% sulle vendite in Cina
  • Anthropic nomina la veterana di Microsoft Irina Ghose alla guida dell'espansione in India
  • Bluesky lancia il badge Live Now e i cashtag nell'aggiornamento principale
  • Netflix si assicura un accordo globale da 7 miliardi di dollari per la serie di film di Sony Pictures

Recent Comments

Nessun commento da mostrare.
Dataconomy IT

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • News
  • Industry
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.