Az Nvidia némi változtatásra készül a közeljövőben, amelynek célja az, hogy az AI szerverek gyártásának egyik fő folyamatát házon belül fogják levezényelni, azaz szakítanak azzal a gyakorlattal, hogy a különböző komponenseket leszállítják az OEM partnereknek, amelyek aztán összeépítik belőlük az AI szervereket. Ezzel az Nvidia saját kézbe veszi az L10-es tálcák összeszerelését, amelyek tartalmazni fognak minden fő komponenst, így az OEM partnereknek „csak” be kell szerelniük a fiókokat a szekrényekbe, illetve el kell végezniük néhány egyéb feladatot is, majd a végén a végső tanúsítványt is ők állítják ki a szerverhez.
A terv konkrétan a VR200-as sorozattól kezdve lép érvénybe, azaz a Vera Rubin széria szervereit érinti, amelyek 2026 végén érkeznek. Ezeknél a termékeknél az Nvidia már nem szállítja le az egyes fő komponenseket az OEM-ek számára, mint eddig, inkább házon belül állítják össze az L10-es tálcákat, amelyekre Vera processzorok, Rubin AI gyorsítók, rendszermemória, 800 Gbps-os hálózati vezérlők, illetve 110 kW teljesítményű tápellátás kerül, sőt, még a komponensek hűtését biztosító egyedi folyadékhűtő rendszert is összeállítják majd a tálcákhoz. A folyamat végén tesztelésen esik át az adott tálca, majd ha minden jól megy, hitelesítve hagyja el a gyárat.
Az új lépéssel az OEM rendszerépítők feladatköre átalakul, ugyanis már nem ők szerelik majd össze a tálcákat és a hardver hűtését biztosító komponenseket sem, helyette a szerverszekrény-szintű szerelési feladatok maradnak rájuk, valamint a tápellátást is konfigurálniuk kell, illetve az egyes tálcák folyadékhűtő köreit is be kell kötniük a rack infrastruktúrájába.
Az Nvidia következő generációs AI gyorsítói, a Rubin architektúra köré épülő megoldások már magasabb TDp kerettel rendelkeznek majd, mint eddigi társaik, ugyanis a csúcsmodelleknél 2,3 kW-os maximális TDP keretre kell felkészülni, ami azt eredményezi, hogy a rack-szintű tápigény a 250 kW-ot is meghaladja majd. Ezekhez a rendszerekhez az Nvidia várhatóan szabványosított hűtést és tápellátást készít, méghozzá két teljesítményszintet kiszolgálva, ezzel egy időben pedig a hálózati I/O komponensek sűrűségét is növelik.
A speciális, házon belül kifejlesztett megoldások csökkentik a harmadik fél által tervezett és készített hűtési megoldások relevanciáját, már ami a költséghatékonyságot és az optimális dizájn megvalósíthatóságát illeti. Az Nvidia döntésével csorbát szenved az OEM partnerek mozgástere is, hiszen nem igazán tudnak majd olyan opciókat kínálni a megrendelők számára, mint jelenleg, hiszen kész tálcákat kapnak, egyedi megoldások bevetésére nem nagyon lesz mód.
Az új rendszer átalakulást hoz az AI szerverek piacán, ahol a kisebb gyártók és az egyes OEM-ek számára nehezebb lesz érvényesülni, ami a profit csökkenését eredményezheti. A tápellátással és a hűtéssel kapcsolatos komponensek gyártói, akik megszerzik a szükséges tanúsítványokat, profitálhatnak az új stratégiából, a kisebb beszállítók számára viszont nehezebb helyzet állhat elő, nehezebben tudnak majd versenyezni.