La divisione cloud di Amazon.com Inc., Amazon Web Services (AWS), sta lanciando nuovi progetti volti a migliorare l’efficienza dei data center per mitigare la crescente domanda sulla rete elettrica. Gli aggiornamenti includono tecniche di raffreddamento avanzate, opzioni di carburante alternative per i generatori di riserva e un layout migliorato dei rack dei server. Alcuni di questi componenti sono già stati implementati, con funzionalità aggiuntive destinate a debuttare con l’apertura di nuovi data center. Questa iniziativa risponde alla natura ad alta intensità energetica delle server farm che alimentano i servizi informatici su richiesta.
AWS lancia nuovi progetti per l’efficienza dei data center
AWS prevede di investire quest’anno circa 75 miliardi di dollari in spese in conto capitale, dirette principalmente all’aggiornamento di server e chip, compresi i sistemi di raffreddamento. L’investimento riflette l’impegno di AWS nell’affrontare il consumo di energia migliorando al contempo la propria infrastruttura AI. Alla prossima conferenza re:Invent, la società dovrebbe presentare i suoi ultimi chip progettati su misura, inclusi prodotti avanzati di intelligenza artificiale che competeranno con le offerte consolidate di Nvidia.
Nuovi sistemi di raffreddamento per server AI
Uno degli aggiornamenti più significativi è il passaggio ai sistemi di raffreddamento a liquido per i server AI di AWS. Questa tecnologia è essenziale per mantenere prestazioni ottimali nei chip ad alta potenza dei dispositivi Trainium di Nvidia e AWS. AWS sottolinea che l’integrazione del raffreddamento a liquido è flessibile e consente sia il raffreddamento ad aria che a liquido in un unico sistema. Questo design multimodale ha lo scopo di massimizzare le prestazioni e l’efficienza tra vari carichi di lavoro, rispondendo alle esigenze specifiche delle applicazioni IA.
Inoltre, AWS sta perseguendo un approccio semplificato alla distribuzione elettrica e alla progettazione meccanica dei suoi server. Questa strategia potrebbe aumentare la disponibilità dell’infrastruttura fino al 99,9999%, riducendo significativamente fino all’89% il numero di server rack sensibili ai disturbi elettrici. Questo miglioramento è probabilmente ottenuto riducendo al minimo le conversioni da alimentazione CA a CC, che in genere comportano perdite di energia.
Questi nuovi sistemi di raffreddamento e design ottimizzati mirano a supportare un notevole aumento di sei volte della densità di potenza dei rack nei prossimi due anni, con un’ulteriore crescita prevista in seguito. Incorporando l’intelligenza artificiale nelle sue strategie operative, AWS sta utilizzando l’analisi predittiva per ottimizzare il posizionamento dei server rack, riducendo così ulteriormente gli sprechi energetici attribuiti alla potenza sottoutilizzata.
Ian Buck, vicepresidente dell’hyperscale e dell’elaborazione ad alte prestazioni di Nvidia, ha riconosciuto che le soluzioni avanzate di raffreddamento a liquido raffredderanno in modo efficiente l’infrastruttura AI riducendo al minimo il consumo di energia. Entrambe le società stanno lavorando a stretto contatto per perfezionare il design dei rack specificatamente per le applicazioni di raffreddamento a liquido, cosa che dovrebbe apportare vantaggi significativi ai clienti condivisi.
Prasad Kalyanaraman, vicepresidente dei servizi infrastrutturali di AWS, dichiarato che questi miglioramenti rappresentano passi fondamentali verso l’aumento dell’efficienza energetica e della modularità.
“AWS continua a innovare incessantemente la propria infrastruttura per creare il cloud più performante, resiliente, sicuro e sostenibile per i clienti di tutto il mondo”, ha affermato Kalyanaraman. “Queste funzionalità del data center rappresentano un importante passo avanti verso una maggiore efficienza energetica e un supporto flessibile per i carichi di lavoro emergenti. Ma ciò che è ancora più entusiasmante è che sono progettati per essere modulari, in modo da poter aggiornare la nostra infrastruttura esistente per il raffreddamento a liquido e l’efficienza energetica per alimentare applicazioni di intelligenza artificiale generativa e ridurre la nostra impronta di carbonio”.
Credito immagine in primo piano: Amazzonia