A Pegatron egy speciális AI szerver dizájnt mutatott be a napokban, ami azért is fontos, mert segít felkészülni az AMD következő generációs MI450X gyorsítóinak érkezésére azáltal, hogy az előző generációs gyorsítók segítségével kitapasztalják, hogyan érdemes optimálisan megalkotni a rendszert ahhoz, hogy a teljesítmény és az energiahatékonyság is megfelelően alakuljon.
A rendszer még a Computex 2025 idején, az elmúlt hét folyamán mutatkozott be, alapját pedig MI350X típusú gyorsítók adják, amelyek összesen öt darab 5U formátumú rackfiókban foglalnak helyet. Ennek a rendszernek az építése és tesztelése közben sok értékes tapasztalatot szerezhetnek az egyes gyártók, amelyek jól jöhetnek az egy év múlva érkező IF64 és IF128 típusú megoldásokhoz, amelyek már az említett AMD Instinct MI450X gyorsítók köré épülnek.
A demó rendszer, vagyis a Pegatron AS501-4A1/AS500-4A1 alapját tehát 5U formátumú rackek adják, ezekben egy AMD EPYC 9005-ös sorozatú szerverprocesszor, valamint négy darab AMD Instinct MI350X típusú AI gyorsító foglal helyet. A processzor és a gyorsítókártyák hűtéséről ezúttal folyadékhűtő rendszer gondoskodik, ami segít abban, hogy a teljesítmény kiszámítható és optimális lehessen, valamint a maximálishoz közeli szintet is viszonylag sokáig tudja tartani, akár nagy terhelés mellett is. A 128 GPU mellett összesen 32 darab EPYC processzor is jelen van a rendszerben.
Alapok terén 51OU ORV3 formátumú megoldásról van szó, ami passzol az adatközpontokban használt OCP szabványhoz, azaz egyebek mellett a Meta számára is jó választás lehet az új szett. Az egyes fiókokban található GPU-k között 400 GbE kapcsolat húzódik, ugyanis az AMD egyelőre nem rendelkezik szabadalmaztatott Infinity Fabryc switchekkel. Egy-egy rendszer maximum 8 GPU-ig skálázódik, ennyi működhet szorosan együtt, miközben az Nvidia GB200-as és GB300-as platformjánál már 72 a limit, de ott a saját fejlesztésű NVLink kapcsolat biztosítja a GPU-k közötti ultra-gyors kommunikációt, nem 400 GbE. Skálázhatóság terén tehát egyelőre hátrányban van az AMD rendszere, de a fejlődés nem áll meg.
Az OCP alapú adatközpontok üzemeltetőit célzó rendszer segítségével jobb AMD Instinct alapú megoldások készülhetnek a jövőben mind hardveres, mind pedig szoftveres szempontból. A Pegatron terméke lényegében egy ugródeszka lesz ahhoz, hogy az AMD idővel végre méltó kihívó lehessen az Nvidia által uralt piacon.
Maga a rendszer egyéként összesen 128 darab GPU-t használ, ezek 1177 PFLOP/s-os elméleti maximális számítási teljesítményt nyújtanak FP4-es műveletek esetén, már amennyiben közel linerásan skálázódik a rendszer teljesítménye. Minden egyes MI350X gyorsító maximum 288 GB-nyi HBM3E fedélzeti memóriát vethet be, azaz a 128 GPU-ból álló rendszer összesen 36,8 TB-nyi szupergyors memóriával rendelkezhet, ezen a téren kellően ütőképes lehet a Blackwell sorozat termékeivel szemben, azaz masszív AI modellek kezelésére is képes lehet.
A lehetőségeket persze alaposan bekorlátozza az a tény, hogy a GPU-k közötti kommunikációt Ethernet alapon oldják meg, így ugyanis 8 GPU-ból álló domainek hozhatóak létre. Ez persze a klasszikus tréningezésre és indukció/dedukció elvégzésére egyaránt jó lehet, de szoros szinkronizációt igénylő LLM tréningre már nem feltétlenül ideális, azon a területen jelenleg az Nvidia NVL72 viszi a prímet. A rendszer így is nagy jelentőséggel bír, ugyanis nagy teljesítményt és nagy memóriakapacitást kínál, valamint segít felkészülni a következő generációs, Instinct MI400-as sorozatú AI gyorsítók érkezésére is. Arról egyelőre nincs hír, pontosan mely vállalatok szavaznak majd bizalmat a Pegatron új rendszerének, de idővel alighanem erre is választ kapunk.