LinkedIn ha silenziosamente optato per l’addestramento dei modelli di intelligenza artificiale generativa da parte dei suoi utenti senza chiedere esplicitamente il consenso, sollevando preoccupazioni sulla privacy dei dati sulla piattaforma. Secondo un rapporto di 404MediaLinkedIn ha apportato modifiche alla sua politica sulla privacy, affermando che i dati degli utenti possono essere utilizzati per addestrare modelli di intelligenza artificiale. Da allora, la piattaforma ha aggiornato la politica, consentendo ora agli utenti di rinunciare a questa pratica.
L’aggiornamento della politica di LinkedIn rivela l’utilizzo dei dati personali nella formazione AI
IL politica aggiornata afferma che LinkedIn può utilizzare i dati personali per “migliorare, sviluppare e fornire prodotti e servizi”, nonché per addestrare modelli di intelligenza artificiale. L’intelligenza artificiale generativa viene utilizzata per funzionalità come gli assistenti alla scrittura, ma LinkedIn afferma di impiegare tecnologie di miglioramento della privacy per censurare le informazioni personali. Gli utenti che preferiscono non partecipare possono rinunciare navigando su “Riservatezza dei dati” scheda nelle impostazioni del loro account, disattivando la “Dati per il miglioramento dell’intelligenza artificiale generativa” attiva/disattiva.
Tuttavia, l’opt-out impedirà a LinkedIn di utilizzare i tuoi dati solo per la formazione futura del modello. I dati che sono già stati utilizzati rimangono inalterati. Inoltre, LinkedIn chiarisce che gli utenti nell’UE, nello SEE o in Svizzera non sono inclusi nella formazione del modello AI.
Se sei preoccupato per altri strumenti di apprendimento automatico utilizzati per la personalizzazione e la moderazione, LinkedIn richiede agli utenti di compilare un “Modulo di opposizione al trattamento dei dati”” anche per rinunciare a tali utilizzi.
La mossa silenziosa di LinkedIn riecheggia azioni simili di Meta, che ha recentemente ammesso di aver acquisito dati non privati degli utenti per la formazione sull’intelligenza artificiale a partire dal 2007.
La mossa di LinkedIn arriva in un momento in cui altri importanti attori della tecnologia, come IA apertastanno anche affrontando reazioni negative per pratiche simili. Questo schema di iscrizione silenziosa degli utenti alla formazione AI senza notifiche chiare e visibili crea un senso di disagio.
Il CTO di OpenAI, Mira Murati, afferma che Sora è stato formato su dati disponibili al pubblico e concessi in licenza foto.twitter.com/rf7pZ0ZX00
— Tsarathustra (@tsarnick) 13 marzo 2024
Non si tratta solo di dati utilizzati per l’IA, ma di chi decide e di quanto informata sia tale decisione. L’industria tecnologica è da tempo criticata per aver operato nell’ombra quando si tratta di raccolta dati, e la crescente spinta verso l’IA generativa non fa che amplificare tali preoccupazioni.
Le macchine possono dimenticare i tuoi dati personali?
Un altro problema chiave è che l’opt-out riguarda solo l’uso futuro dei dati personali. Tutti i dati che sono già stati immessi nei modelli di intelligenza artificiale rimangono nel sistema e questa mancanza di controllo retroattivo potrebbe far sentire molti utenti impotenti. Il settore sta anche parlando di “disapprendimento automatico“per evitare che ciò accada, eliminando i dati immessi nei modelli di intelligenza artificiale.
Il fatto che LinkedIn utilizzi “tecnologie di miglioramento della privacy” per rendere anonimi i dati è in qualche modo rassicurante, ma non affronta il problema più profondo: la necessità di standard sulla privacy più proattivi e incentrati sull’utente.
In definitiva, questa situazione evidenzia la necessità di normative più forti e chiare che restituiscano il controllo nelle mani degli utenti. L’idea che le aziende tecnologiche possano usare i nostri dati personali senza un chiaro consenso non si sposa bene in tempi in cui la privacy sta diventando sempre più preziosa.
Credito immagine in evidenza: Kerem Gülen/Ideogramma