Openi ha in programma di introdurre Un requisito di ID verificato per le organizzazioni di accedere a determinati modelli di AI futuri attraverso la sua API, secondo una pagina di supporto pubblicata sul sito Web dell’azienda la scorsa settimana. Il nuovo processo di verifica, chiamato Organizzazione verificata, mira a garantire un utilizzo sicuro dei suoi modelli AI avanzati.
Il processo di verifica richiede un ID emesso dal governo da uno dei paesi sostenuti dall’API di Openi. Un ID può verificare solo un’organizzazione ogni 90 giorni e non tutte le organizzazioni potranno beneficiare della verifica. Openai ha dichiarato che si assume seriamente la sua responsabilità per garantire che l’IA sia ampiamente accessibile e utilizzata in modo sicuro.
“Ad Openi, prendiamo sul serio la nostra responsabilità per garantire che l’IA sia ampiamente accessibile e utilizzata in modo sicuro”, si legge nella pagina. “Sfortunatamente, una piccola minoranza di sviluppatori usa intenzionalmente le API OpenAI in violazione delle nostre politiche di utilizzo. Stiamo aggiungendo il processo di verifica per mitigare l’uso non sicuro dell’IA, continuando a rendere i modelli avanzati disponibili per la più ampia comunità di sviluppatori.”
La mossa è probabilmente destinata a migliorare la sicurezza attorno ai prodotti di Openi man mano che diventano più sofisticati. La società ha pubblicato rapporti sui suoi sforzi per rilevare e mitigare l’uso dannoso dei suoi modelli, anche da parte di gruppi presumibilmente con sede in Corea del Nord. Può anche essere mirato a prevenire il furto di IP, a seguito di un’indagine su un potenziale incidente di esfiltrazione di dati che coinvolge un gruppo collegato a quello della Cina Deep -Week AI Lab.
Openai ha preso precedente misure limitare l’accesso ai suoi servizi, incluso il blocco dell’accesso in Cina la scorsa estate. Lo stato dell’organizzazione verificata dovrebbe essere pronto per la prossima uscita del modello dell’azienda.
Come ha spiegato Openai, “Sfortunatamente, una piccola minoranza di sviluppatori usa intenzionalmente le API OpenAI in violazione delle nostre politiche di utilizzo. Stiamo aggiungendo il processo di verifica per mitigare l’uso non sicuro dell’IA mentre continua a rendere i modelli avanzati disponibili per la più ampia comunità degli sviluppatori.”