Google Pubblicato Un rapporto tecnico sul suo ultimo modello di intelligenza artificiale, Gemini 2.5 Pro, settimane dopo il suo lancio, ma gli esperti affermano che il rapporto non ha dettagli sulla sicurezza chiave, rendendo difficile valutare i rischi del modello.
Il rapporto fa parte dello sforzo di Google di fornire trasparenza sui suoi modelli di intelligenza artificiale, ma differisce dai suoi rivali in quanto pubblica solo report tecnici per i modelli che ritiene che si siano spostati oltre la fase sperimentale. Google si riserva inoltre alcuni risultati di valutazione della sicurezza per un audit separato.
Esperti, tra cui Peter Wildeford, co-fondatore dell’Institute for AI Policy and Strategy, e Thomas Woodside, co-fondatore di The Secure AI Project, espresso delusione per la scarsità del rapporto, osservando che non menziona il framework di sicurezza di Google (Fsf), introdotto l’anno scorso per identificare potenziali rischi di intelligenza artificiale.
Wildeford ha affermato che le informazioni minime del rapporto, rilasciate settimane dopo il lancio pubblico del modello, rendono impossibile verificare gli impegni pubblici di Google per la sicurezza. Woodside ha anche messo in dubbio l’impegno di Google per le valutazioni tempestive della sicurezza, sottolineando che l’ultimo rapporto dell’azienda sui pericolosi test di capacità era nel giugno 2024, per un modello annunciato nel febbraio 2024.
Inoltre, Google non ha pubblicato un rapporto per Gemini 2.5 Flash, un modello più piccolo annunciato la scorsa settimana, anche se un portavoce ha detto che uno “arriverà presto”. Thomas Woodside spera che ciò indichi che Google inizierà a pubblicare aggiornamenti più frequenti, comprese le valutazioni per i modelli non ancora distribuiti pubblicamente.
Le regole del giudice Google detiene il monopolio della pubblicità illegale
Altri laboratori di intelligenza artificiale, come Meta e Openai, hanno anche dovuto affrontare critiche per la mancanza di trasparenza nelle loro valutazioni di sicurezza. Kevin Bankston, consigliere senior di AI Governance presso il Center for Democracy and Technology, ha descritto la tendenza dei rapporti sporadici e vaghi come una “corsa verso il basso” sulla sicurezza dell’intelligenza artificiale.
Google ha dichiarato che conduce test di sicurezza e “squadra di redazione contraddittoria” per i suoi modelli prima del rilascio, anche se non dettagliato nei suoi rapporti tecnici.