Google ha aggiornato le sue linee guida etiche martedì, rimuovendo i suoi impegni per non applicare la tecnologia di intelligenza artificiale (AI) alle armi o alla sorveglianza. La versione precedente dei principi AI dell’azienda includeva i divieti di perseguire le tecnologie che potrebbero causare danni complessivi, compresi quelli utilizzati per armi e sorveglianza.
Google rivede le linee guida AI e apre la porta a applicazioni militari
In a Post di blog Di Demis Hassabis, capo dell’IA di Google e James Manyika, vicepresidente senior per la tecnologia e la società, i dirigenti hanno spiegato che la crescita della tecnologia AI ha richiesto aggiustamenti ai principi. Hanno sottolineato l’importanza di guidare i paesi democratici nello sviluppo dell’IA e la necessità di servire i clienti del governo e della sicurezza nazionale. “Riteniamo che le democrazie dovrebbero condurre nello sviluppo dell’IA, guidati da valori fondamentali come la libertà, l’uguaglianza e il rispetto dei diritti umani”, hanno affermato. Inoltre, hanno sostenuto la collaborazione tra aziende e governi che condividono questi valori per creare AI che protegge le persone e supporti la sicurezza nazionale.
I principi di AI rivisti ora includono elementi di supervisione umana e meccanismi di feedback per garantire la conformità con il diritto internazionale e gli standard dei diritti umani. Evidenziano inoltre un impegno per il test della tecnologia per mitigare gli effetti dannosi non intenzionali.
Questo cambiamento contrasta con la precedente posizione di Google, che l’aveva resa un outlier tra i principali sviluppatori di intelligenza artificiale. Aziende come Openai e Antropic stabilito Partnership con aziende militari per partecipare alla tecnologia della difesa, mentre Google aveva precedentemente rinunciato a sforzi simili a causa delle proteste dei dipendenti. Google inizialmente ha introdotto i suoi principi AI nel 2018 dopo l’opposizione del personale in merito al suo coinvolgimento nel progetto del Pentagono Maven.
In un contesto più ampio, la relazione tra il settore tecnologico degli Stati Uniti e il Dipartimento della Difesa si sta rafforzando, con l’IA sempre più importante per le operazioni militari. Michael Horowitz, professore di scienze politiche all’Università della Pennsylvania, ha osservato che è sensato per Google aggiornare le sue politiche per riflettere questo panorama in evoluzione. Allo stesso tempo, Lilly Irani, professore all’Università della California, San Diego, ha suggerito che le dichiarazioni esecutive riflettono modelli in corso emersi nel tempo.
L’ex CEO di Google Eric Schmidt ha precedentemente espresso preoccupazione per gli Stati Uniti superati in AI dalla Cina, evidenziando le dinamiche geopolitiche rispetto allo sviluppo dell’IA. Il recente aggiornamento arriva tra le tensioni, poiché la rivalità tecnologica USA-Cina si intensifica. A seguito dell’annuncio di nuove tariffe dell’amministrazione Trump, Pechino ha avviato un’indagine antitrust su Google.
Le proteste interne sui contratti di cloud computing di Google con Israele hanno sollevato preoccupazioni etiche tra i dipendenti, citando potenziali implicazioni per la popolazione palestinese. I rapporti rivelano che Google ha concesso al Ministero della Difesa israeliano, ha aumentato l’accesso ai suoi strumenti di intelligenza artificiale a seguito degli attacchi di Hamas il 7 ottobre 2023.
Credito immagine in primo piano: Kerem Gülen/ideogramma