Shop menü

ITT AZ AMD HELIOS AI SZERVERE, AMI 50%-KAL TÖBB MEMÓRIÁT TARTALMAZ, MINT AZ NVIDIA ÉRKEZŐ MEGOLDÁSA

A Helios előnyei közé tartozik még az is, hogy egyszerűbb szervizelhetőséget biztosít hozzá az AMD, legalábbis ezt ígérik.
Víg Ferenc (J.o.k.e.r)
Víg Ferenc (J.o.k.e.r)
Itt az AMD Helios AI szervere, ami 50%-kal több memóriát tartalmaz, mint az Nvidia érkező megoldása

Az AMD Helios platformjával kapcsolatban korábban már szó esett néhány fontos részletről, ám a vállalat illetékesei a napokban a kézzel fogható rendszert is megmutatták az Open Compute Project Global Summit névre keresztelt rendezvény alkalmával, aminek a Kalifornia államban található San Jose városa adott otthont. A Helios AI Rack kifejezetten azzal a céllal jött létre, hogy minél hatékonyabban, nyílt összekötő technológiákra támaszkodva szolgálhassa ki az AI adatközpontokat, méghozzá az AMD legmodernebb hardvereit kombinálva.

A Helios AI Rack az AMD ígérete szerint kiválóan skálázható, ezzel támogatva az adatközpontok számítási teljesítményének bővítését, illetve szervizelhetőség, hűtés, valamint tápellátás terén is előrelépéseket hoz a korábbi megoldásokhoz képest. A Helios az Nvidia különböző AI Rackjei ellen száll majd versenybe a piacon, egyebek mellett a Blackwell és a Grace alapú GB300 NVL72 is szerepel a célkeresztjében, de a Vera Rubin platformmal szemben is versenyképesnek ígérkezik.

Galéria megnyitása

A Helios platform alapját z AMD Insinct 400-as sorozatát erősítő AI gyorsítók adják, amelyek mellé EPYC sorozatú szerverprocesszorok kerülnek, méghozzá a Venice szériából. A platform fontos építőköve az AMD Pensando hálózati infrastruktúra, valamint az AMD ROCm szoftver is, amelyek jelentős előnyt biztosítanak teljesítmény és energiahatékonyság terén a gyorsan skálázódó AI infrastruktúra iparágon belül.

A Helios a Meta által kifejlesztett Open Rack Wide szabvánnyal is tökéletesen kompatibilis, fejlesztése során pedig fontos szerepet kapott, hogy a teljesítmény, a hűtés, illetve a szervizelhetőség is magasabb szinten helyezkedjen el.  Az ORW és az OPC szabványok támogatásával az AMD olyan lehetőségeket biztosíthat a partnerek számára, amelyeken keresztül gyorsabban és hatékonyabban tudják felskálázni AI adatközpontjaikat, már ami az AI Rackek számát és így a nyers teljesítményt illeti.

Galéria megnyitása

Forrest Norrod, az AMD Data Center Solutions Group alelnöke és igazgatója úgy fogalmazott, a Helios formájában a nyílt szabványokat valós, telepíthető rendszerré alakítják, amely az AMD Instinct GPU-k, az EPYC processzorok, illetve a nyílt összekötő szabványok jóvoltából egy nagyteljesítményű, flexibilis platformot alkot, kifejezetten a következő generációs AI munkafolyamatok igényeire szabva.

Egy-egy MI450-es AI gyorsító maximum 432 GB-nyi HBM4-es fedélzeti memóriát használhat, amelynek maximális memória-sávszélessége 19,6 TB/s magasságában helyezkedik el. Egy-egy Helios AI Rack 72 darab ilyen AI gyorsítóval rendelkezik, így FP8-es számítási teljesítmény terén 1,4 ExaFLOP/s-os teljesítmény elérésére képes és összesen 31 TB-nyi HBM4-es fedélzeti memóriát foghat munkára. Az AMD szerint ezzel 50%-kal több memóriát kínálhatnak, mint az Nvidia érkező Vera Rubin platformja, ami komoly fegyvertény.

Galéria megnyitása

A Helios iránt várhatóan több partner is érdeklődik majd, az Oracle például 50 000 darab MI450-es GPU vásárlására készül, amelyek 2026 harmadik negyedévében válhatnak elérhetővé számára, majd 2027-ben további beszerzéseket is eszközölhetnek, ami arra utal, az AMD platformja kellően versenyképes lehet. A végső képet persze majd csak akkor láthatjuk meg, ha az érkező platformokat a független tesztelők is kellően részletesen szemügyre vették.

Az AMD termékei iránt a jelek szerint épül a bizalom, ami mindenképpen jó jel, hiszen az AI gyorsítók szegmense mostanság nyomasztó Nvidia dominanciától szenved, így ideje lenne, ha változna a helyzet és kialakulna némi verseny, az ugyanis pozitív hatást gyakorolna a piac folyamatainak alakulására is.

Neked ajánljuk

    Tesztek

      Kapcsolódó cikkek

      Vissza az oldal tetejére