Dataconomy IT
  • News
  • Industry
Social icon element need JNews Essential plugin to be activated.
Subscribe
No Result
View All Result
Dataconomy IT
  • News
  • Industry
Social icon element need JNews Essential plugin to be activated.
Subscribe
No Result
View All Result
Dataconomy IT
No Result
View All Result

Il sorprendente passaggio di OpenAI alla tecnologia della difesa: ecco cosa significa

byKerem Gülen
5 Dicembre 2024
in Artificial Intelligence, Industry, News
Home Artificial Intelligence

OpenAI ha annunciato a partenariato con l’appaltatore della difesa Anduril per migliorare i sistemi aerei senza pilota dell’esercito. Questa collaborazione segnala un cambiamento significativo nella precedente posizione di OpenAI sul coinvolgimento militare, in mezzo alle crescenti preoccupazioni sull’uso dell’IA in guerra. L’alleanza mira a sfruttare l’intelligenza artificiale avanzata per migliorare le capacità di rilevamento e risposta alle minacce in tempo reale per le missioni di sicurezza nazionale degli Stati Uniti.

OpenAI collabora con Anduril per migliorare i sistemi antidroni

L’obiettivo della partnership risiede nello sviluppo di modelli di intelligenza artificiale in grado di sintetizzare rapidamente dati sensibili al fattore tempo per assistere gli operatori umani nella valutazione delle minacce aeree. Secondo OpenAI, questa iniziativa è progettata per proteggere il personale militare statunitense dagli attacchi dei droni, pur mantenendo l’impegno nella sua missione contro eventuali danni. Il CEO di OpenAI, Sam Altman, ha dichiarato: “OpenAI costruisce l’intelligenza artificiale a beneficio di quante più persone possibile e sostiene gli sforzi guidati dagli Stati Uniti per garantire che la tecnologia sostenga i valori democratici”.

Questa partnership segna la prima collaborazione di OpenAI con un appaltatore della difesa, a seguito della decisione presa all’inizio di quest’anno di revocare il divieto sull’uso militare dei suoi strumenti. In precedenza, le politiche di OpenAI proibivano esplicitamente l’uso della sua tecnologia per applicazioni militari, compreso lo sviluppo di armi. Recentemente, tuttavia, la società ha rivisto le sue linee guida, rimuovendo la terminologia legata all’uso militare, anche se rimane la cautela poiché continua ad affermare l’importanza di non utilizzare i propri sistemi di intelligenza artificiale per causare danni.

Anduril, co-fondata da Palmer Luckey, lo è secondo quanto riferito del valore di circa 14 miliardi di dollari e si è assicurato un contratto da 200 milioni di dollari con il Corpo dei Marines specifico per i sistemi antidroni. Questa mossa di OpenAI si allinea con una tendenza più ampia nel settore tecnologico, poiché diverse aziende di intelligenza artificiale hanno cercato partnership con appaltatori della difesa. In particolare, Anthropic, sostenuta da Amazon, ha formato un’alleanza simile con Palantir per sostenere le agenzie di intelligence e di difesa statunitensi.

I critici di questa collaborazione tecnico-militare esprimono preoccupazione per le implicazioni etiche, poiché in passato numerosi dipendenti tecnologici hanno protestato contro i contratti militari. I lavoratori di aziende come Google e Microsoft hanno espresso forti obiezioni ai progetti che utilizzano la tecnologia per scopi militari, innescando il dibattito pubblico sul ruolo della tecnologia nella guerra.

Nonostante le preoccupazioni etiche, la partnership tra OpenAI e Anduril mira a rafforzare le capacità militari, concentrandosi sul miglioramento della consapevolezza situazionale durante le potenziali minacce. La collaborazione mira a ridurre l’onere per gli operatori umani, consentendo loro di prendere decisioni informate più rapidamente. Le specifiche di come si svilupperà questa partnership sono ancora in fase di sviluppo, e resta da vedere come entrambe le parti intendono affrontare le sfide inerenti.


L’intelligenza artificiale andrà a caccia di armi nelle metropolitane di New York


Preoccupazioni per i partenariati militari

Lo spostamento di OpenAI verso la collaborazione con gli appaltatori della difesa solleva importanti questioni relative alla responsabilità nell’uso delle tecnologie di intelligenza artificiale. Come notato, molti dipendenti del settore tecnologico si sono opposti agli impegni con contratti militari, sottolineando la necessità di trasparenza riguardo a come le tecnologie di intelligenza artificiale potrebbero essere applicate sul campo di battaglia.

A gennaio, OpenAI ha silenziosamente modificato le sue politiche di utilizzo, che in precedenza proibivano le applicazioni militari dei suoi modelli di intelligenza artificiale. Questa decisione ha coinciso con il crescente coinvolgimento di OpenAI in progetti con il Dipartimento della Difesa degli Stati Uniti, con l’obiettivo di implementare sistemi di intelligenza artificiale per scopi che includono la sicurezza informatica. La continua evoluzione di queste partnership riflette una tendenza più ampia tra le aziende tecnologiche che rivalutano le loro posizioni sui contratti militari.

Riconoscendo l’importanza di un utilizzo responsabile dell’intelligenza artificiale, OpenAI ha ribadito il proprio impegno nel garantire che le sue tecnologie siano utilizzate eticamente, affermando in particolare che la partnership è progettata per proteggere il personale militare e migliorare le misure di sicurezza nazionale. Tuttavia, persiste lo scetticismo riguardo alla misura in cui i sistemi basati sull’intelligenza artificiale potrebbero portare a una riduzione del controllo umano nei processi decisionali critici.

La collaborazione di OpenAI con Anduril per costruire sistemi anti-droni è una grande mossa e, onestamente, sorprendente. È il loro primo vero passo verso la tecnologia militare, che utilizza l’intelligenza artificiale per aiutare i militari a rilevare e rispondere più rapidamente alle minacce aeree. Dicono che si tratta di proteggere le persone e rimanere fedeli ai loro valori, ma siamo sinceri: questo tipo di partnership fa alzare le sopracciglia. Stiamo aprendo una porta verso una difesa più intelligente e sicura o stiamo scivolando in qualcosa di più rischioso? Le persone hanno ragione a porre domande sull’etica e sul controllo qui. È una mossa coraggiosa, ma che presenta molte aree grigie.


Credito immagine in primo piano: Andrew Neel/Unsplash

Tags: In primo pianoopenAI

Recent Posts

  • L’impatto dei tessuti intelligenti sulle prestazioni di abbigliamento tattico
  • Databricks scommette grandi su Postgres senza server con la sua acquisizione di neon da $ 1 miliardo
  • Alphaevolve: come la nuova AI di Google mira alla verità con l’auto-correzione
  • Tiktok sta implementando testi ALT generati dall’IA per una migliore accessibilità
  • Trump costringe Apple a ripensare la sua strategia di iPhone India

Recent Comments

Nessun commento da mostrare.
Dataconomy IT

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

Follow Us

Social icon element need JNews Essential plugin to be activated.
  • News
  • Industry
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.