Shop menü

AZ NVIDIA HÁZON BELÜLRE VISZI AZ AI SZERVEREK GYÁRTÁSÁT, AZ OEM PARTNEREK SZEREPE ÉS MOZGÁSTERE VÁLTOZIK

A vállalat a Vera Rubin platformtól kezdve komplett tálcákat szállíthat le az OEM partnerek számára, nem önálló komponenseket, mint eddig.
Víg Ferenc (J.o.k.e.r)
Víg Ferenc (J.o.k.e.r)
Az Nvidia házon belülre viszi az AI szerverek gyártását, az OEM partnerek szerepe és mozgástere változik

Az Nvidia némi változtatásra készül a közeljövőben, amelynek célja az, hogy az AI szerverek gyártásának egyik fő folyamatát házon belül fogják levezényelni, azaz szakítanak azzal a gyakorlattal, hogy a különböző komponenseket leszállítják az OEM partnereknek, amelyek aztán összeépítik belőlük az AI szervereket. Ezzel az Nvidia saját kézbe veszi az L10-es tálcák összeszerelését, amelyek tartalmazni fognak minden fő komponenst, így az OEM partnereknek „csak” be kell szerelniük a fiókokat a szekrényekbe, illetve el kell végezniük néhány egyéb feladatot is, majd a végén a végső tanúsítványt is ők állítják ki a szerverhez.

A terv konkrétan a VR200-as sorozattól kezdve lép érvénybe, azaz a Vera Rubin széria szervereit érinti, amelyek 2026 végén érkeznek. Ezeknél a termékeknél az Nvidia már nem szállítja le az egyes fő komponenseket az OEM-ek számára, mint eddig, inkább házon belül állítják össze az L10-es tálcákat, amelyekre Vera processzorok, Rubin AI gyorsítók, rendszermemória, 800 Gbps-os hálózati vezérlők, illetve 110 kW teljesítményű tápellátás kerül, sőt, még a komponensek hűtését biztosító egyedi folyadékhűtő rendszert is összeállítják majd a tálcákhoz. A folyamat végén tesztelésen esik át az adott tálca, majd ha minden jól megy, hitelesítve hagyja el a gyárat.

Galéria megnyitása

Az új lépéssel az OEM rendszerépítők feladatköre átalakul, ugyanis már nem ők szerelik majd össze a tálcákat és a hardver hűtését biztosító komponenseket sem, helyette a szerverszekrény-szintű szerelési feladatok maradnak rájuk, valamint a tápellátást is konfigurálniuk kell, illetve az egyes tálcák folyadékhűtő köreit is be kell kötniük a rack infrastruktúrájába.

Az Nvidia következő generációs AI gyorsítói, a Rubin architektúra köré épülő megoldások már magasabb TDp kerettel rendelkeznek majd, mint eddigi társaik, ugyanis a csúcsmodelleknél 2,3 kW-os maximális TDP keretre kell felkészülni, ami azt eredményezi, hogy a rack-szintű tápigény a 250 kW-ot is meghaladja majd. Ezekhez a rendszerekhez az Nvidia várhatóan szabványosított hűtést és tápellátást készít, méghozzá két teljesítményszintet kiszolgálva, ezzel egy időben pedig a hálózati I/O komponensek sűrűségét is növelik.

A speciális, házon belül kifejlesztett megoldások csökkentik a harmadik fél által tervezett és készített hűtési megoldások relevanciáját, már ami a költséghatékonyságot és az optimális dizájn megvalósíthatóságát illeti. Az Nvidia döntésével csorbát szenved az OEM partnerek mozgástere is, hiszen nem igazán tudnak majd olyan opciókat kínálni a megrendelők számára, mint jelenleg, hiszen kész tálcákat kapnak, egyedi megoldások bevetésére nem nagyon lesz mód.

Az új rendszer átalakulást hoz az AI szerverek piacán, ahol a kisebb gyártók és az egyes OEM-ek számára nehezebb lesz érvényesülni, ami a profit csökkenését eredményezheti. A tápellátással és a hűtéssel kapcsolatos komponensek gyártói, akik megszerzik a szükséges tanúsítványokat, profitálhatnak az új stratégiából, a kisebb beszállítók számára viszont nehezebb helyzet állhat elő, nehezebben tudnak majd versenyezni.

Neked ajánljuk

    Tesztek

      Kapcsolódó cikkek

      Vissza az oldal tetejére