OpenAI ha annunciato a partenariato con l’appaltatore della difesa Anduril per migliorare i sistemi aerei senza pilota dell’esercito. Questa collaborazione segnala un cambiamento significativo nella precedente posizione di OpenAI sul coinvolgimento militare, in mezzo alle crescenti preoccupazioni sull’uso dell’IA in guerra. L’alleanza mira a sfruttare l’intelligenza artificiale avanzata per migliorare le capacità di rilevamento e risposta alle minacce in tempo reale per le missioni di sicurezza nazionale degli Stati Uniti.
OpenAI collabora con Anduril per migliorare i sistemi antidroni
L’obiettivo della partnership risiede nello sviluppo di modelli di intelligenza artificiale in grado di sintetizzare rapidamente dati sensibili al fattore tempo per assistere gli operatori umani nella valutazione delle minacce aeree. Secondo OpenAI, questa iniziativa è progettata per proteggere il personale militare statunitense dagli attacchi dei droni, pur mantenendo l’impegno nella sua missione contro eventuali danni. Il CEO di OpenAI, Sam Altman, ha dichiarato: “OpenAI costruisce l’intelligenza artificiale a beneficio di quante più persone possibile e sostiene gli sforzi guidati dagli Stati Uniti per garantire che la tecnologia sostenga i valori democratici”.
Questa partnership segna la prima collaborazione di OpenAI con un appaltatore della difesa, a seguito della decisione presa all’inizio di quest’anno di revocare il divieto sull’uso militare dei suoi strumenti. In precedenza, le politiche di OpenAI proibivano esplicitamente l’uso della sua tecnologia per applicazioni militari, compreso lo sviluppo di armi. Recentemente, tuttavia, la società ha rivisto le sue linee guida, rimuovendo la terminologia legata all’uso militare, anche se rimane la cautela poiché continua ad affermare l’importanza di non utilizzare i propri sistemi di intelligenza artificiale per causare danni.
Anduril, co-fondata da Palmer Luckey, lo è secondo quanto riferito del valore di circa 14 miliardi di dollari e si è assicurato un contratto da 200 milioni di dollari con il Corpo dei Marines specifico per i sistemi antidroni. Questa mossa di OpenAI si allinea con una tendenza più ampia nel settore tecnologico, poiché diverse aziende di intelligenza artificiale hanno cercato partnership con appaltatori della difesa. In particolare, Anthropic, sostenuta da Amazon, ha formato un’alleanza simile con Palantir per sostenere le agenzie di intelligence e di difesa statunitensi.
I critici di questa collaborazione tecnico-militare esprimono preoccupazione per le implicazioni etiche, poiché in passato numerosi dipendenti tecnologici hanno protestato contro i contratti militari. I lavoratori di aziende come Google e Microsoft hanno espresso forti obiezioni ai progetti che utilizzano la tecnologia per scopi militari, innescando il dibattito pubblico sul ruolo della tecnologia nella guerra.
Nonostante le preoccupazioni etiche, la partnership tra OpenAI e Anduril mira a rafforzare le capacità militari, concentrandosi sul miglioramento della consapevolezza situazionale durante le potenziali minacce. La collaborazione mira a ridurre l’onere per gli operatori umani, consentendo loro di prendere decisioni informate più rapidamente. Le specifiche di come si svilupperà questa partnership sono ancora in fase di sviluppo, e resta da vedere come entrambe le parti intendono affrontare le sfide inerenti.
L’intelligenza artificiale andrà a caccia di armi nelle metropolitane di New York
Preoccupazioni per i partenariati militari
Lo spostamento di OpenAI verso la collaborazione con gli appaltatori della difesa solleva importanti questioni relative alla responsabilità nell’uso delle tecnologie di intelligenza artificiale. Come notato, molti dipendenti del settore tecnologico si sono opposti agli impegni con contratti militari, sottolineando la necessità di trasparenza riguardo a come le tecnologie di intelligenza artificiale potrebbero essere applicate sul campo di battaglia.
A gennaio, OpenAI ha silenziosamente modificato le sue politiche di utilizzo, che in precedenza proibivano le applicazioni militari dei suoi modelli di intelligenza artificiale. Questa decisione ha coinciso con il crescente coinvolgimento di OpenAI in progetti con il Dipartimento della Difesa degli Stati Uniti, con l’obiettivo di implementare sistemi di intelligenza artificiale per scopi che includono la sicurezza informatica. La continua evoluzione di queste partnership riflette una tendenza più ampia tra le aziende tecnologiche che rivalutano le loro posizioni sui contratti militari.
Riconoscendo l’importanza di un utilizzo responsabile dell’intelligenza artificiale, OpenAI ha ribadito il proprio impegno nel garantire che le sue tecnologie siano utilizzate eticamente, affermando in particolare che la partnership è progettata per proteggere il personale militare e migliorare le misure di sicurezza nazionale. Tuttavia, persiste lo scetticismo riguardo alla misura in cui i sistemi basati sull’intelligenza artificiale potrebbero portare a una riduzione del controllo umano nei processi decisionali critici.