Dataconomy IT
  • News
  • Industry
Social icon element need JNews Essential plugin to be activated.
Subscribe
No Result
View All Result
Dataconomy IT
  • News
  • Industry
Social icon element need JNews Essential plugin to be activated.
Subscribe
No Result
View All Result
Dataconomy IT
No Result
View All Result

Le preoccupazioni sulla privacy emerse da un’allucinazione hanno scatenato un’altra denuncia contro ChatGPT nell’UE

byEmre Çıtak
29 Aprile 2024
in Senza categoria

ChatGPT è finito nuovamente nei guai nell’Unione Europea (UE) a causa della sua tendenza a diffondere imprecisioni. Questa volta, la questione è incentrata sul diritto alla privacy, con una denuncia presentata contro l’IA per la sua incapacità di correggere la disinformazione che genera sugli individui.

Il lancio di ChatGPT nel novembre 2022 ha acceso una tempesta di entusiasmo nel mondo dell’intelligenza artificiale. Le persone si riversavano nel chatbot per qualsiasi cosa, dall’assistenza alla ricerca alla conversazione casuale. Tuttavia, un dettaglio cruciale si nasconde sotto la superficie: OpenAI, gli sviluppatori dietro ChatGPT, ammette liberamente che il programma prevede semplicemente le parole che più probabilmente seguiranno un prompt. Ciò significa che, nonostante i dati di formazione estesi, non vi è alcuna garanzia che ChatGPT fornisca informazioni reali. In effetti, gli strumenti di intelligenza artificiale generativa come ChatGPT sono noti per “allucinare”, essenzialmente fabbricando risposte.

Mentre le informazioni imprecise potrebbero essere tollerabili quando uno studente utilizza ChatGPT per i compiti aiuto, diventa un problema serio quando si tratta di dati personali. Il diritto dell’UE, istituito nel 1995 e rafforzato dal Articolo 5 del GDPR (Regolamento generale sulla protezione dei dati), impone che i dati personali siano accurati. Inoltre, gli individui hanno il diritto di rettifica (Articolo 16 GDPR) se le informazioni sono errate e possono richiederne la cancellazione. Inoltre, il “diritto di accesso” di cui all’art Articolo 15 GDPR obbliga le aziende a divulgare i dati in loro possesso sugli individui e le relative fonti.

Maartje de Graaf, avvocato specializzato in protezione dei dati presso noyb, sottolinea la gravità della situazione: “La fabbricazione di informazioni è di per sé problematica. Ma quando si tratta di dati personali, le conseguenze possono essere gravi. È chiaro che l’attuale tecnologia chatbot, come ChatGPT, fatica a rispettare la legislazione dell’UE durante l’elaborazione delle informazioni personali. Se un sistema non è in grado di fornire risultati accurati e trasparenti, non dovrebbe essere utilizzato per generare dati sugli individui. È la legge a dettare lo sviluppo della tecnologia, non il contrario”.

Denuncia contro allucinazioni ChatGPT
Il lancio di ChatGPT nel 2022 è stato accolto con enorme clamore, ma il suo meccanismo sottostante, che prevede le parole probabili in base ai suggerimenti, solleva dubbi sull’accuratezza delle informazioni che genera (Credito immagine)

noyb indaga sull’allucinazione di ChatGPT

Da quest’ultima lamentela nasce no, un’organizzazione europea senza scopo di lucro focalizzata sul diritto alla privacy. Rappresentano un personaggio pubblico senza nome che ha scoperto che ChatGPT ha prodotto per loro una data di nascita errata. Ciò evidenzia un potenziale scontro tra questi strumenti di intelligenza artificiale generativa e il regolamento generale sulla protezione dei dati (GDPR) dell’UE.

Il GDPR garantisce ai cittadini dell’UE un “diritto di rettifica”, che consente loro di richiedere correzioni alle informazioni personali inaccurate detenute dalle organizzazioni. Nel contesto dei contenuti generati dall’intelligenza artificiale, ciò solleva una domanda cruciale: un modello linguistico di grandi dimensioni come ChatGPT può essere ritenuto responsabile delle informazioni che produce, soprattutto quando tali informazioni sono palesemente sbagliate?

@NOYBeu su X ha condiviso il seguente post su X sulla situazione:

🚨 noyb ha presentato un reclamo contro il creatore di ChatGPT OpenAI

OpenAI ammette apertamente di non essere in grado di correggere informazioni false sulle persone su ChatGPT. L’azienda non può nemmeno dire da dove provengano i dati.

Leggi tutto qui 👇https://t.co/gvn9CnGKOb

— noyb (@NOYBeu) 29 aprile 2024

L’allucinazione di ChatGPT è un modello di disinformazione?

Questa non è la prima volta che ChatGPT “problema delle allucinazioni” ha destato preoccupazione. La tendenza dell’intelligenza artificiale a fabbricare informazioni è stata ben documentata, sollevando dubbi sulla sua affidabilità come fonte di verità.

Ecco un flashback al 2023: l’autorità italiana per la protezione dei dati personali ha imposto la chiusura temporanea di ChatGPT dopo che sono state sollevate preoccupazioni sull’accuratezza delle informazioni fornite.

Questi incidenti evidenziano le sfide intrinseche del lavoro con modelli linguistici di grandi dimensioni. Addestrati su enormi set di dati di testo e codice, questi sistemi di intelligenza artificiale possono avere difficoltà a distinguere tra informazioni reali e finzione. Ciò può portare a situazioni in cui generano con sicurezza contenuti errati o fuorvianti, presentati come verità.


Emittenti giornalistiche contro OpenAI: le guerre sul copyright dell’IA sono iniziate


La questione diventa ancora più complessa quando si ha a che fare con i dati personali. Se un utente interagisce con ChatGPT e l’intelligenza artificiale produce dettagli imprecisi su quell’utente, può essere difficile, se non impossibile, garantire che tali errori vengano corretti. Ciò è preoccupante, soprattutto per i personaggi pubblici che possono fare affidamento sulle informazioni online per mantenere la propria reputazione.

La semplice creazione di dati non è un’opzione

Questo problema è profondamente radicato nella struttura dell’intelligenza artificiale generativa. Secondo un recente Rapporto del New York Timesi chatbot “inventano informazioni almeno il 3% delle volte – e fino al 27%”.

Per illustrare, si consideri la figura pubblica coinvolta nella denuncia noyb contro OpenAI, come spiegato in a post sul blog. Alla domanda sul suo compleanno, ChatGPT ha costantemente fornito informazioni errate invece di riconoscere la mancanza di dati.

Non esistono diritti GDPR per le persone catturate da ChatGPT?

Nonostante la data di nascita palesemente errata generata da ChatGPT, OpenAI ha rifiutato la richiesta del denunciante di rettificare o cancellare i dati, sostenendo che erano tecnicamente impossibile. Sebbene OpenAI possa filtrare o bloccare i dati in base a richieste specifiche (come il nome del denunciante), questo approccio impedisce a ChatGPT di filtrare tutte le informazioni sull’individuo. OpenAI inoltre non ha risposto adeguatamente alla richiesta di accesso del denunciante. Il GDPR garantisce agli utenti il ​​diritto di richiedere una copia di tutti i propri dati personali, tuttavia OpenAI non ha divulgato alcuna informazione riguardante i dati trattati, le loro fonti o i destinatari.

Maartje de Graaf ribadisce: “L’obbligo di ottemperare alle richieste di accesso vale per tutte le aziende. È certamente possibile tenere un registro dei dati di addestramento, offrendo almeno alcune informazioni sulle fonti di informazione. Sembra che con ogni presunta ‘innovazione’ le aziende credano che i loro prodotti siano esenti dalla conformità legale”.

Denuncia contro allucinazioni ChatGPT
Nonostante l’intervento e il controllo normativo, aziende come OpenAI, lo sviluppatore di ChatGPT, hanno faticato a garantire la conformità al GDPR (Credito immagine)

Finora, sforzi infruttuosi da parte delle autorità

L’ascesa di ChatGPT ha attirato l’attenzione dei guardiani europei della privacy. L’Autorità Garante per la Protezione dei Dati Personali (DPA) italiana ha affrontato l’inesattezza del chatbot nel marzo 2023 imponendo un limitazione temporanea del trattamento dei dati. Poco dopo, il Comitato europeo per la protezione dei dati (EDPB) ha istituito una task force specifica per ChatGPT per coordinare gli sforzi nazionali.

Tuttavia, il risultato finale rimane poco chiaro. Attualmente, OpenAI sembra non preoccuparsi della conformità al GDPR all’interno dell’UE.

Un potenziale punto di riferimento

La denuncia di Noyb contro ChatGPT mette in luce il rapporto in evoluzione tra l’intelligenza artificiale e le normative sulla privacy dei dati. Il GDPR, implementato nel 2018, precede l’uso diffuso di modelli linguistici di grandi dimensioni. Mentre l’intelligenza artificiale continua a svilupparsi, le autorità di regolamentazione sono alle prese con come applicare i quadri esistenti a queste nuove tecnologie.

L’esito della denuncia noyb potrebbe costituire un precedente su come l’UE affronta le implicazioni sulla privacy degli strumenti di intelligenza artificiale generativa. Se l’autorità austriaca per la protezione dei dati si pronunciasse a favore del denunciante, potrebbe costringere OpenAI a implementare modifiche per garantire agli utenti un maggiore controllo sulle informazioni che ChatGPT genera su di loro.

Questo caso ha implicazioni più ampie per lo sviluppo dell’intelligenza artificiale in generale. Man mano che i sistemi di intelligenza artificiale diventano sempre più sofisticati e integrati nella nostra vita quotidiana, garantire uno sviluppo e un’implementazione responsabili sarà fondamentale. La denuncia di Noyb serve a ricordare l’importanza di costruire strumenti di intelligenza artificiale che diano priorità alla precisione e rispettino la privacy degli utenti.


Credito immagine in primo piano: Levart_Fotografo/Unsplash

Recent Posts

  • Apprendimento automatico nei test del software
  • Checkpoint di apprendimento automatico
  • Machine Learning As a Service (MLAAS)
  • La memorizzazione nella cache implicita mira a tagliare i costi dell’API Gemini del 75%
  • Chatgpt ora può analizzare i tuoi repository GitHub

Recent Comments

Nessun commento da mostrare.
Dataconomy IT

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

Follow Us

Social icon element need JNews Essential plugin to be activated.
  • News
  • Industry
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.