L’intelligenza artificiale sta cambiando rapidamente il modo in cui interagiamo con la tecnologia e le grandi aziende tecnologiche si stanno impegnando a definire nuove regole per stare al passo. Aziende come OpenAI, Adobe e Microsoft stanno supportando una nuova legge della California che chiarirebbe quando i contenuti sono creati dall’IA. Queste aziende ritengono che sia importante che le persone sappiano quando vedono o sentono qualcosa creato da un computer, non da un essere umano. Allo stesso tempo, Elon Musk sta supportando un’altra legge della California che mira a proteggere l’IA richiedendo misure di sicurezza sui grandi modelli di IA. Quindi, cosa vogliono davvero queste aziende e queste persone e perché? Esploriamo le ultime mosse nella regolamentazione dell’IA e cosa significano per il futuro.
Cosa vogliono OpenAI, Adobe e Microsoft?
Secondo Tecnicamente crunchgrandi aziende tecnologiche come IA aperta, AdobeE Microsoft stanno ora sostenendo una proposta di legge della California che richiederà etichette sui contenuti generati dall’intelligenza artificiale. Questa proposta di legge, nota come AB3211la votazione finale è prevista per agosto.

L’AB 3211 mira a chiarire quando foto, video e clip audio vengono creati dall’IA. Richiederà che questi elementi generati dall’IA abbiano filigrane nei loro metadati. Mentre molte aziende di IA usano già filigrane, spesso sono nascoste nei metadati, che la maggior parte delle persone non controlla. Il nuovo disegno di legge richiede anche alle grandi piattaforme online, come Instagram e X (ex Twitter), di mostrare queste etichette in un modo che sia facile da vedere e capire per tutti.
OpenAI, Adobe e Microsoft fanno parte di un gruppo chiamato Coalition for Content Provenance and Authenticity. Questo gruppo ha contribuito a sviluppare i metadati C2PA, uno standard ampiamente utilizzato per etichettare i contenuti AI. Sebbene un gruppo commerciale che rappresenta queste aziende si sia opposto all’AB 3211 ad aprile, definendolo “impraticabile” ed “eccessivamente gravoso”, le recenti modifiche al disegno di legge sembrano aver ottenuto il loro sostegno.
Cosa vuole Elon Musk?
In un argomento diverso ma correlato, Elon Musk ha mostrato sostegno a un altro disegno di legge della California, SB 1047. Questo disegno di legge richiederebbe ai creatori di modelli di IA molto grandi di predisporre misure di sicurezza per impedire che i loro modelli causino gravi danni. Musk, che ha una grande azienda di IA chiamata xAIritiene che il disegno di legge sia necessario e ha sostenuto che è importante che l’intelligenza artificiale sia regolamentata, proprio come altre tecnologie potenzialmente rischiose.
È una decisione difficile e farà arrabbiare qualcuno, ma, tutto sommato, credo che la California dovrebbe approvare il disegno di legge sulla sicurezza dell’IA SB 1047.
Da oltre 20 anni sostengo la regolamentazione dell’intelligenza artificiale, così come regoliamo qualsiasi prodotto/tecnologia che rappresenti un rischio potenziale…
— Elon Musk (@elonmusk) 26 agosto 2024
Nonostante il supporto di Musk, OpenAI si è pubblicamente opposta alla SB 1047 e sta invece sostenendo un disegno di legge diverso. Queste mosse evidenziano il dibattito in corso su come regolamentare al meglio la tecnologia AI e garantirne un uso sicuro ed etico. Mentre la California procede con queste nuove regole, l’industria tecnologica osserverà attentamente come avranno un impatto sul futuro dell’AI.
Credito immagine in evidenza: Eray Eliacık/Bing