Dataconomy IT
  • News
  • Industry
Subscribe
No Result
View All Result
Dataconomy IT
  • News
  • Industry
Subscribe
No Result
View All Result
Dataconomy IT
No Result
View All Result

Il capo hardware di Openai richiede switch di uccisione per contrastare i modelli AI subdoli

byKerem Gülen
16 Settembre 2025
in Artificial Intelligence
Home Artificial Intelligence
Share on FacebookShare on Twitter

Richard Ho, responsabile dell’hardware di Openai, ha dichiarato che la futura infrastruttura di intelligenza artificiale deve includere caratteristiche di sicurezza a livello di hardware come switch di uccisioni per gestire modelli AI potenzialmente imprevedibili. Parlando al vertice AI Infra a Santa Clara, ha sostenuto che le attuali misure di sicurezza basate sul software sono insufficienti perché si basano sul presupposto che l’hardware sottostante sia sicuro e può essere facilmente controllato.

Perché la sicurezza del software non è sufficiente per la futura intelligenza artificiale?

Ho ha spiegato che la maggior parte degli attuali protocolli di sicurezza AI operano a livello di software e presume che l’hardware possa essere chiuso semplicemente tagliando l’alimentazione. Ha avvertito che questa ipotesi potrebbe non essere vera quando i modelli AI diventano più avanzati e mostrano ciò che ha descritto come un comportamento “subdolo”.

“Oggi molto lavoro di sicurezza è nel software. Si presume che il tuo hardware sia sicuro … presuppone che tu possa tirare la spina sull’hardware. Non sto dicendo che non possiamo tirare la spina su quell’hardware, ma ti sto dicendo che queste cose sono subdole, i modelli sono davvero subdoli e così come un ragazzo hardware, voglio assicurarci.”

Questo potenziale per i sistemi di intelligenza artificiale di eludere i controlli software tradizionali rende le garanzie incorporate direttamente nel silicio una necessità.

Nuova infrastruttura necessaria per agenti di intelligenza artificiale persistenti

Ho delineato un futuro in cui gli agenti di intelligenza artificiale funzionano come entità di lunga durata, operando persistentemente in background per gestire le attività senza input per l’utente costante. Questo modello richiede uno spostamento significativo nella progettazione di infrastrutture. I sistemi futuri dovranno essere ricchi di memoria con capacità a bassa latenza per gestire sessioni continue in cui più agenti collaborano a compiti complessi. Ho ha sottolineato che il networking sarà un componente fondamentale, poiché gli agenti dovranno comunicare e utilizzare strumenti in tempo reale contemporaneamente per attività come ricerche Web e processo decisionale coordinato.

Caratteristiche e sfide di sicurezza hardware proposte

Per affrontare i rischi, Openai propone di incorporare specifiche misure di sicurezza direttamente nei cluster hardware AI. Questi includono:

  • Switch di uccisione in tempo reale per fermare immediatamente le operazioni.
  • Sistemi di telemetria da monitorare e avvisare il comportamento AI anormale.
  • Percorsi di esecuzione sicuri all’interno dei chip per isolare i processi critici.

Tuttavia, il ridimensionamento di questa infrastruttura presenta diverse sfide. HO ha identificato le limitazioni di memoria ad alta larghezza di banda, la necessità di interconnessi ottici affidabili per un trasferimento di dati più rapido e gravi richieste di potenza-previsto per raggiungere fino a 1 megawatt per rack, come i vincoli primari.

Sviluppare nuovi standard per hardware e networking

Ho ha chiesto la creazione di nuovi parametri specifici per le architetture “consapevoli degli agenti”. Questi standard dovrebbero misurare le prestazioni su latenza, efficienza e consumo di energia per guidare lo sviluppo hardware. Ha anche sottolineato che l’osservabilità deve essere una funzione hardware costante e integrata, non solo uno strumento temporaneo per il debug.

“Dobbiamo avere una buona osservabilità come funzionalità hardware, non solo come strumento di debug, ma integrato e monitorato costantemente il nostro hardware.”

Ha concluso evidenziando gli attuali problemi di affidabilità con tecnologie di networking emergenti come le interconnessioni ottiche, esortando l’industria a condurre estesi test per garantire che questi sistemi siano abbastanza affidabili per le applicazioni di AI mission-critical.


Credito d’immagine in primo piano

Tags: apertoIn primo pianoIntelligenza artificiale

Related Posts

Cowork di Anthropic offre agenti IA di livello sviluppatore ai non programmatori

Cowork di Anthropic offre agenti IA di livello sviluppatore ai non programmatori

13 Gennaio 2026
Amazon: il 97% dei nostri dispositivi è pronto per Alexa+

Amazon: il 97% dei nostri dispositivi è pronto per Alexa+

13 Gennaio 2026
Ufficiale: Google Gemini alimenterà Apple Intelligence e Siri

Ufficiale: Google Gemini alimenterà Apple Intelligence e Siri

13 Gennaio 2026
Zuckerberg lancia Meta Compute per costruire un'enorme rete energetica AI

Zuckerberg lancia Meta Compute per costruire un'enorme rete energetica AI

13 Gennaio 2026
Nessuna lista d'attesa: Claude Health arriva per gli utenti US Pro e Max

Nessuna lista d'attesa: Claude Health arriva per gli utenti US Pro e Max

12 Gennaio 2026
Google rimuove le panoramiche AI ​​per alcune query sulla salute

Google rimuove le panoramiche AI ​​per alcune query sulla salute

12 Gennaio 2026

Recent Posts

  • EA rinvia la stagione 2 di Battlefield 6 al 17 febbraio
  • Tesla ripropone la Model Y a 7 posti per il 2026
  • Dal 2008, Apple ha pagato agli sviluppatori 550 miliardi di dollari tramite App Store
  • Cowork di Anthropic offre agenti IA di livello sviluppatore ai non programmatori
  • Amazon: il 97% dei nostri dispositivi è pronto per Alexa+

Recent Comments

Nessun commento da mostrare.
Dataconomy IT

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • News
  • Industry
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.