Antropico è implementazione Nuove procedure di gestione dei dati, che richiedono a tutti gli utenti di Claude di decidere entro il 28 settembre se le loro conversazioni possono essere utilizzate per la formazione del modello AI. La società ha diretto le richieste al suo post sul blog sui cambiamenti della politica, ma le analisi esterne hanno tentato di determinare i motivi delle revisioni.
Il cambiamento di base coinvolge antropici che ora cercano di addestrare i suoi sistemi di intelligenza artificiale utilizzando conversazioni per utenti e sessioni di codifica. In precedenza, Antropic non utilizzava i dati di chat dei consumatori per la formazione del modello. Ora, la conservazione dei dati sarà estesa a cinque anni per gli utenti che non rinunciano a questo accordo di utilizzo dei dati. Ciò rappresenta un passaggio significativo dalle pratiche precedenti.
In precedenza, gli utenti dei prodotti di consumo antropici erano stati informati che le loro istruzioni e gli output di conversazione risultanti sarebbero stati automaticamente eliminati dai sistemi di back-end di Antropi entro 30 giorni. L’eccezione si è verificata se i requisiti legali o politici hanno dettato un periodo di conservazione più lungo o se l’input di un utente è stato contrassegnato per violazione delle politiche dell’azienda. In tali casi, gli input dell’utente e gli output potrebbero essere mantenuti per un massimo di due anni.
Le nuove politiche si applicano specificamente agli utenti di Claude Free, Pro e Max, inclusi gli utenti del codice Claude. I clienti aziendali che utilizzano Claude Gov, Claude per il lavoro, Claude per l’educazione o quelli che accedono alla piattaforma tramite la sua API, sono esenti da questi cambiamenti. Ciò rispecchia un approccio simile adottato da Openi, che protegge i clienti aziendali dalle politiche di formazione dei dati.
Antropico ha definito il cambiamento affermando che gli utenti che non rinunciano a “ci aiuteranno a migliorare la sicurezza del modello, rendendo i nostri sistemi per rilevare contenuti dannosi più accurati e meno probabilità di contrassegnare conversazioni innocui”. La società ha aggiunto che questi dati “aiuteranno anche i futuri modelli Claude a migliorare in competenze come codifica, analisi e ragionamento, portando alla fine a modelli migliori per tutti gli utenti”.
Questo inquadratura presenta il cambiamento politico come uno sforzo collaborativo per migliorare il modello AI. Tuttavia, l’analisi esterna suggerisce che la motivazione sottostante è più complessa, radicata nelle pressioni competitive nel settore dell’IA. Vale a dire, antropico, come altre società di modelli di linguaggio di grandi dimensioni, richiede dati sostanziali per addestrare efficacemente i suoi modelli AI. L’accesso a milioni di interazioni Claude fornirebbe il contenuto del mondo reale necessario per migliorare la posizione di antropici contro concorrenti come Openai e Google.
Le revisioni politiche riflettono anche tendenze del settore più ampie in merito alle politiche di dati. Aziende come Antropic e Openi affrontano un crescente controllo riguardo alle loro pratiche di conservazione dei dati. Openai, ad esempio, sta attualmente contestando un ordine del tribunale che obbliga la società a conservare indefinitamente tutte le conversazioni di CHATGPT dei consumatori, comprese le chat eliminate. Questo ordine deriva da una causa intentata dal New York Times e da altri editori.
A giugno, Openai Coo Brad Lightcap ha descritto l’ordine del tribunale come “una domanda radicale e inutile” che “in conflitto fondamentalmente con gli impegni sulla privacy che abbiamo assunto ai nostri utenti”. L’ordine del tribunale influisce sugli utenti GRATUITI CHATGPT, PLUS, PRO e TEAM. I clienti aziendali e quelli con zero accordi di conservazione dei dati rimangono inalterati.
Le frequenti modifiche alle politiche di utilizzo hanno generato confusione tra gli utenti. Molti utenti rimangono ignari di queste politiche in evoluzione. Il rapido ritmo dei progressi tecnologici significa che le politiche sulla privacy sono soggette a cambiamenti. Le modifiche vengono spesso comunicate brevemente tra altri annunci aziendali.
L’implementazione di Antropic della sua nuova politica segue un modello che solleva preoccupazioni sulla consapevolezza degli utenti. I nuovi utenti saranno in grado di selezionare le proprie preferenze durante il processo di iscrizione. Tuttavia, gli utenti esistenti vengono presentati con una finestra pop-up etichettata “Aggiornamenti a termini e politiche dei consumatori” in testo di grandi dimensioni, accompagnato da un importante pulsante di “accetta” nero. Un interruttore a levetta più piccolo per le autorizzazioni di allenamento si trova di seguito, in stampa più piccola, e viene automaticamente impostato sulla posizione “ON”.
Il design solleva preoccupazioni per il fatto che gli utenti potrebbero fare rapidamente clic su “accettare” senza rendersi conto di essere d’accordo sulla condivisione dei dati. Questa osservazione è stata inizialmente segnalata dal Verge. La posta in gioco per la consapevolezza degli utenti è significativa. Gli esperti hanno costantemente avvertito che la complessità che circonda l’IA rende difficile l’ottenimento del consenso dell’utente significativo.
La Federal Trade Commission (FTC) è precedentemente intervenuta in queste questioni. La FTC ha avvertito le compagnie di intelligenza artificiale dal “cambiare di nascosto i suoi termini di servizio o politica sulla privacy o seppellire una divulgazione dietro i collegamenti ipertestuali, in legale o in una stampa fine”. Questo avvertimento suggerisce un potenziale conflitto con pratiche che potrebbero non fornire un’adeguata consapevolezza o consenso degli utenti.
L’attuale livello di supervisione di FTC su queste pratiche rimane incerto. La Commissione sta attualmente operando con solo tre dei suoi cinque commissari. Un’indagine è stata presentata alla FTC per determinare se queste pratiche sono attualmente in fase di revisione.




