Richard Ho, responsabile dell’hardware di Openai, ha dichiarato che la futura infrastruttura di intelligenza artificiale deve includere caratteristiche di sicurezza a livello di hardware come switch di uccisioni per gestire modelli AI potenzialmente imprevedibili. Parlando al vertice AI Infra a Santa Clara, ha sostenuto che le attuali misure di sicurezza basate sul software sono insufficienti perché si basano sul presupposto che l’hardware sottostante sia sicuro e può essere facilmente controllato.
Perché la sicurezza del software non è sufficiente per la futura intelligenza artificiale?
Ho ha spiegato che la maggior parte degli attuali protocolli di sicurezza AI operano a livello di software e presume che l’hardware possa essere chiuso semplicemente tagliando l’alimentazione. Ha avvertito che questa ipotesi potrebbe non essere vera quando i modelli AI diventano più avanzati e mostrano ciò che ha descritto come un comportamento “subdolo”.
“Oggi molto lavoro di sicurezza è nel software. Si presume che il tuo hardware sia sicuro … presuppone che tu possa tirare la spina sull’hardware. Non sto dicendo che non possiamo tirare la spina su quell’hardware, ma ti sto dicendo che queste cose sono subdole, i modelli sono davvero subdoli e così come un ragazzo hardware, voglio assicurarci.”
Questo potenziale per i sistemi di intelligenza artificiale di eludere i controlli software tradizionali rende le garanzie incorporate direttamente nel silicio una necessità.
Nuova infrastruttura necessaria per agenti di intelligenza artificiale persistenti
Ho delineato un futuro in cui gli agenti di intelligenza artificiale funzionano come entità di lunga durata, operando persistentemente in background per gestire le attività senza input per l’utente costante. Questo modello richiede uno spostamento significativo nella progettazione di infrastrutture. I sistemi futuri dovranno essere ricchi di memoria con capacità a bassa latenza per gestire sessioni continue in cui più agenti collaborano a compiti complessi. Ho ha sottolineato che il networking sarà un componente fondamentale, poiché gli agenti dovranno comunicare e utilizzare strumenti in tempo reale contemporaneamente per attività come ricerche Web e processo decisionale coordinato.
Caratteristiche e sfide di sicurezza hardware proposte
Per affrontare i rischi, Openai propone di incorporare specifiche misure di sicurezza direttamente nei cluster hardware AI. Questi includono:
- Switch di uccisione in tempo reale per fermare immediatamente le operazioni.
- Sistemi di telemetria da monitorare e avvisare il comportamento AI anormale.
- Percorsi di esecuzione sicuri all’interno dei chip per isolare i processi critici.
Tuttavia, il ridimensionamento di questa infrastruttura presenta diverse sfide. HO ha identificato le limitazioni di memoria ad alta larghezza di banda, la necessità di interconnessi ottici affidabili per un trasferimento di dati più rapido e gravi richieste di potenza-previsto per raggiungere fino a 1 megawatt per rack, come i vincoli primari.
Sviluppare nuovi standard per hardware e networking
Ho ha chiesto la creazione di nuovi parametri specifici per le architetture “consapevoli degli agenti”. Questi standard dovrebbero misurare le prestazioni su latenza, efficienza e consumo di energia per guidare lo sviluppo hardware. Ha anche sottolineato che l’osservabilità deve essere una funzione hardware costante e integrata, non solo uno strumento temporaneo per il debug.
“Dobbiamo avere una buona osservabilità come funzionalità hardware, non solo come strumento di debug, ma integrato e monitorato costantemente il nostro hardware.”
Ha concluso evidenziando gli attuali problemi di affidabilità con tecnologie di networking emergenti come le interconnessioni ottiche, esortando l’industria a condurre estesi test per garantire che questi sistemi siano abbastanza affidabili per le applicazioni di AI mission-critical.





