Az AMD Helios platformjával kapcsolatban korábban már szó esett néhány fontos részletről, ám a vállalat illetékesei a napokban a kézzel fogható rendszert is megmutatták az Open Compute Project Global Summit névre keresztelt rendezvény alkalmával, aminek a Kalifornia államban található San Jose városa adott otthont. A Helios AI Rack kifejezetten azzal a céllal jött létre, hogy minél hatékonyabban, nyílt összekötő technológiákra támaszkodva szolgálhassa ki az AI adatközpontokat, méghozzá az AMD legmodernebb hardvereit kombinálva.
A Helios AI Rack az AMD ígérete szerint kiválóan skálázható, ezzel támogatva az adatközpontok számítási teljesítményének bővítését, illetve szervizelhetőség, hűtés, valamint tápellátás terén is előrelépéseket hoz a korábbi megoldásokhoz képest. A Helios az Nvidia különböző AI Rackjei ellen száll majd versenybe a piacon, egyebek mellett a Blackwell és a Grace alapú GB300 NVL72 is szerepel a célkeresztjében, de a Vera Rubin platformmal szemben is versenyképesnek ígérkezik.
A Helios platform alapját z AMD Insinct 400-as sorozatát erősítő AI gyorsítók adják, amelyek mellé EPYC sorozatú szerverprocesszorok kerülnek, méghozzá a Venice szériából. A platform fontos építőköve az AMD Pensando hálózati infrastruktúra, valamint az AMD ROCm szoftver is, amelyek jelentős előnyt biztosítanak teljesítmény és energiahatékonyság terén a gyorsan skálázódó AI infrastruktúra iparágon belül.
A Helios a Meta által kifejlesztett Open Rack Wide szabvánnyal is tökéletesen kompatibilis, fejlesztése során pedig fontos szerepet kapott, hogy a teljesítmény, a hűtés, illetve a szervizelhetőség is magasabb szinten helyezkedjen el. Az ORW és az OPC szabványok támogatásával az AMD olyan lehetőségeket biztosíthat a partnerek számára, amelyeken keresztül gyorsabban és hatékonyabban tudják felskálázni AI adatközpontjaikat, már ami az AI Rackek számát és így a nyers teljesítményt illeti.
Forrest Norrod, az AMD Data Center Solutions Group alelnöke és igazgatója úgy fogalmazott, a Helios formájában a nyílt szabványokat valós, telepíthető rendszerré alakítják, amely az AMD Instinct GPU-k, az EPYC processzorok, illetve a nyílt összekötő szabványok jóvoltából egy nagyteljesítményű, flexibilis platformot alkot, kifejezetten a következő generációs AI munkafolyamatok igényeire szabva.
Egy-egy MI450-es AI gyorsító maximum 432 GB-nyi HBM4-es fedélzeti memóriát használhat, amelynek maximális memória-sávszélessége 19,6 TB/s magasságában helyezkedik el. Egy-egy Helios AI Rack 72 darab ilyen AI gyorsítóval rendelkezik, így FP8-es számítási teljesítmény terén 1,4 ExaFLOP/s-os teljesítmény elérésére képes és összesen 31 TB-nyi HBM4-es fedélzeti memóriát foghat munkára. Az AMD szerint ezzel 50%-kal több memóriát kínálhatnak, mint az Nvidia érkező Vera Rubin platformja, ami komoly fegyvertény.
A Helios iránt várhatóan több partner is érdeklődik majd, az Oracle például 50 000 darab MI450-es GPU vásárlására készül, amelyek 2026 harmadik negyedévében válhatnak elérhetővé számára, majd 2027-ben további beszerzéseket is eszközölhetnek, ami arra utal, az AMD platformja kellően versenyképes lehet. A végső képet persze majd csak akkor láthatjuk meg, ha az érkező platformokat a független tesztelők is kellően részletesen szemügyre vették.
Az AMD termékei iránt a jelek szerint épül a bizalom, ami mindenképpen jó jel, hiszen az AI gyorsítók szegmense mostanság nyomasztó Nvidia dominanciától szenved, így ideje lenne, ha változna a helyzet és kialakulna némi verseny, az ugyanis pozitív hatást gyakorolna a piac folyamatainak alakulására is.