Circa 200 dipendenti di Google DeepMind, la divisione di ricerca AI di Google, hanno lanciato l’allarme sui contratti militari dell’azienda. Secondo Tempo, hanno chiesto a Google di interrompere la collaborazione con le organizzazioni militari, ritenendo che questo utilizzo della loro tecnologia vada contro le regole etiche di Google per l’intelligenza artificiale.
Un breve promemoria: Quando Google ha acquisito DeepMind nel 2014, il laboratorio era ha promesso che la sua tecnologia AI non sarebbe stata utilizzata per scopi militari o di sorveglianza. DeepMind ha operato in modo abbastanza indipendente per anni. Tuttavia, con l’aumentare della concorrenza nell’intelligenza artificiale, DeepMind si è integrata maggiormente con Google. Nel 2023, si è fusa con Google Brain, avvicinandosi alle principali attività di Google.
I contratti controversi: Progetto Nimbus e altro
La questione ruota attorno ai servizi cloud di Google, tra cui l’intelligenza artificiale sviluppata da DeepMind, che sono stati venduti a governi e militari. Il contratto più controverso è Project Nimbus, un accordo con il governo israeliano. Questo contratto è stato criticato perché supporta l’esercito israeliano, coinvolto nelle operazioni a Gaza.
I dipendenti di DeepMind sono preoccupati che lavorare con organizzazioni militari vada contro i principi di Google sull’intelligenza artificiale. Questi principi mirano a garantire che l’intelligenza artificiale venga utilizzata in modo etico e responsabile. Affermano che l’intelligenza artificiale non dovrebbe causare danni o essere utilizzata per armi o sorveglianza che violano i diritti umani.
La lettera dei dipendenti
Il 16 maggio 2024, i dipendenti hanno inviato una lettera in cui esprimevano le loro preoccupazioni. La lettera afferma che, sebbene non riguardi conflitti o governi specifici, è preoccupata per l’uso di L’intelligenza artificiale in ambito militare impostazioni. Sostiene che tale coinvolgimento danneggia l’impegno di DeepMind nei confronti dell’intelligenza artificiale etica.
La lettera richiede tre azioni principali:
- Indagine: Scopri come la tecnologia DeepMind viene utilizzata dalle organizzazioni militari.
- Risoluzione: Interrompere l’accesso alla tecnologia DeepMind per i clienti militari.
- Governo: Creare un nuovo organismo per impedire il futuro utilizzo militare della tecnologia DeepMind.

Risposta e frustrazioni dell’azienda
Google ha risposto affermando di seguire i suoi principi di intelligenza artificiale e che il Progetto Nimbus prevede la fornitura di servizi cloud ai ministeri del governo israeliano, non direttamente all’esercito. Google afferma che questi servizi non sono destinati a usi militari o classificati sensibili.
Tuttavia, i firmatari della lettera sostengono che la risposta di Google non è chiara e non risponde alle loro preoccupazioni circa il sostegno alla sorveglianza e alla violenza attraverso la sua tecnologia.
I dipendenti sono frustrati dalla mancanza di azione da parte di Google in merito alla loro lettera e ritengono che la dirigenza non abbia affrontato in modo efficace le loro preoccupazioni.
In un incontro pubblico di giugno, il Chief Operating Officer di DeepMind, Lila Ibrahim, ha assicurato ai dipendenti che DeepMind non avrebbe sviluppato AI per armi o sorveglianza di massa. Ha sottolineato l’impegno di Google per un’AI responsabile, che ha detto essere il motivo per cui è entrata e rimasta in azienda.

Questa situazione in Google DeepMind riflette un dibattito più ampio nel settore tecnologico sull’uso di tecnologie avanzate in applicazioni militari. Mentre la tecnologia AI continua ad avanzare, aziende come Google affrontano la sfida di bilanciare interessi commerciali con responsabilità etiche. L’esito di questa disputa potrebbe stabilire importanti linee guida su come l’AI verrà sviluppata e utilizzata in futuro.