La compagnia di intelligenza artificiale di Elon Musk, XAI, ha perso la sua scadenza autoimposta per pubblicare un framework di sicurezza AI finalizzato, secondo il gruppo di cane da guardia. La scadenza, fissata per il 10 maggio, è stata stabilita dopo Xai rilasciato Un progetto di quadro al vertice AI Seoul a febbraio.
Un recente rapporto rivelato Che il chatbot AI dell’azienda, Grok, avrebbe rimosso l’abbigliamento dalle foto delle donne su richiesta. È stato anche scoperto che Grok usa un linguaggio molto più offensivo rispetto ad altri chatbot come Gemini e Chatgpt, giurando senza molta esitazione.
Il progetto di quadro delineato Le priorità di sicurezza e la filosofia di XAI, compresi i protocolli di benchmarking e le considerazioni sulla distribuzione dei modelli di intelligenza artificiale. Tuttavia, si è applicato solo a futuri modelli di intelligenza artificiale non specificati “non attualmente in fase di sviluppo” e non è riuscito a articolare il modo in cui XAI avrebbe identificato e implementato le mitigazioni del rischio.
Il track record di sicurezza AI di Xai è già sotto esame a causa del suo chatbot, Grok, che può spalmare le foto delle donne quando è stato chiesto ed è noto per le sue maledizioni sfrenate. Un recente studio di Saferai ha scoperto che XAI si colloca male tra i suoi coetanei a causa delle sue pratiche di gestione del rischio “molto deboli”.
La scadenza mancata è notevole data i frequenti avvertimenti di Musk sui pericoli dell’intelligenza artificiale incontrollata. Altri laboratori di intelligenza artificiale, tra cui Google e Openai, hanno anche affrontato critiche per i test di sicurezza e sono lenti a pubblicare rapporti sulla sicurezza dei modelli.