All’evento Advancing AI di AMD, il CEO Lisa Su è salita sul palco per annunciare una serie di innovazioni rivolte ai clienti AI. Dagli ultimi processori EPYC di quinta generazione agli acceleratori Instinct di nuova generazione, AMD sta raddoppiando la propria offerta di hardware ad alte prestazioni per i carichi di lavoro AI. Queste nuove tecnologie promettono di aumentare la potenza di elaborazione dell’intelligenza artificiale e di semplificare i carichi di lavoro per le imprese e il cloud computing.
AMD promuove l’AI 2024 in breve
Analizziamo gli annunci chiave del L’intelligenza artificiale avanzata evento.
Processori EPYC di quinta generazione: liberare la potenza dello Zen 5
A dare il via all’evento, Lisa Su introdotto Il portafoglio EPYC di quinta generazione di AMD, costruito attorno al nuovissimo core Zen 5. “Abbiamo progettato Zen 5 per essere il migliore nei carichi di lavoro del server”, ha spiegato Su, evidenziando l’aumento del 177% dell’IPC rispetto allo Zen 4. Il nuovo processore presenta fino a 192 core e 384 thread, spingendo i limiti delle prestazioni del server.
Uno dei punti salienti è stata la flessibilità offerta da questi chip. Su ha osservato: “Ci abbiamo pensato dal punto di vista dell’architettura: come possiamo creare il portafoglio di CPU più ampio del settore che copra sia i carichi di lavoro cloud che quelli aziendali?” Questo equilibrio tra prestazioni e versatilità è finalizzato a gestire qualsiasi cosa, dai nodi principali dell’intelligenza artificiale ai software aziendali più esigenti.
Chip AMD Turion: scalabilità per il cloud e l’impresa
L’evento ha visto anche l’introduzione dei nuovi chip Turion di AMD, specificatamente ottimizzati per diversi tipi di carichi di lavoro. Su ha rivelato due versioni chiave: una versione da 128 core progettata per applicazioni aziendali scalabili e una versione da 192 core mirata al cloud computing scalabile. Entrambi sono progettati per garantire le massime prestazioni per core, aspetto fondamentale per i carichi di lavoro aziendali in cui il software viene spesso concesso in licenza per core.
“La versione a 192 core è davvero ottimizzata per il cloud”, ha spiegato Su, sottolineando che questi chip forniranno ai fornitori di cloud la densità di calcolo di cui hanno bisogno. AMD ha anche confrontato i suoi nuovi chip EPYC con quelli della concorrenza, dimostrando che gli EPYC di quinta generazione offrono prestazioni fino a 2,7 volte superiori rispetto alle principali alternative.
AMD Instinct MI325X: una GPU focalizzata sull’intelligenza artificiale
Passando all’accelerazione dell’IA, Su annunciato l’AMD Instinct MI325X, l’ultima GPU focalizzata sull’intelligenza artificiale dell’azienda. “Siamo leader del settore con 256 gigabyte di memoria HBM3E ultraveloce e sei terabyte al secondo di larghezza di banda”, ha affermato Su. L’MI325X è progettato per gestire attività di intelligenza artificiale impegnative come l’intelligenza artificiale generativa, vantando prestazioni di inferenza e miglioramenti della latenza migliori del 20-40% rispetto ai modelli precedenti.
Oltre all’incremento di memoria e prestazioni, AMD ha progettato l’MI325X pensando alla facilità di implementazione. “Abbiamo mantenuto un’infrastruttura comune”, ha affermato Su, consentendo una perfetta integrazione con i sistemi esistenti. Ciò renderà più semplice per i clienti dell’intelligenza artificiale adottare la tecnologia senza rivedere le proprie piattaforme.
Serie AMD Instinct MI350
Anche l’evento fornito uno sguardo al futuro di AMD con la serie MI350. Il lancio è previsto per la seconda metà del 2025, l’MI350 introduce la nuova architettura CDNA 4 e offre l’incredibile cifra di 288 GB di memoria HBM3E. Secondo Su, CDNA 4 porterà “un aumento generazionale di 35 volte nelle prestazioni dell’intelligenza artificiale rispetto a CDNA 3”.
Questa nuova architettura è progettata per gestire modelli di intelligenza artificiale più grandi con maggiore efficienza e la sua retrocompatibilità con i precedenti modelli Instinct garantisce una transizione fluida per i clienti.
ROCm 6.2: prestazioni migliori per i carichi di lavoro IA
L’impegno di AMD nell’ottimizzazione delle prestazioni dell’intelligenza artificiale si estende oltre l’hardware, come annunciato da Su ROCm 6.2l’ultimo aggiornamento dello stack software AI di AMD. La nuova versione offre prestazioni 2,4 volte migliori per i principali carichi di lavoro di inferenza dell’intelligenza artificiale e prestazioni 1,8 volte migliori per le attività di formazione sull’intelligenza artificiale. Questi miglioramenti derivano da progressi negli algoritmi, ottimizzazioni dei grafici e librerie di calcolo migliorate.
“La nostra ultima versione si concentra sulla massimizzazione delle prestazioni sia nei modelli proprietari che in quelli pubblici”, ha spiegato Su, segnalando gli sforzi di AMD per rimanere competitivi anche nello spazio del software AI.
Crediti immagine: Kerem Gülen/Ideogramma