Az Nvidia vezetője még a GTC 2024 alkalmával mutatta be a vállalat Blackwell alapú AI gyorsítóit, amelyek között a B100, a B200, illetve a GB200 SuperChip egyaránt jelen volt. Az igencsak komoly teljesítményt kínáló AI gyorsítók árazásával kapcsolatban akkoriban még nem álltak rendelkezésre információk, nemrégiben azonban fény derült a várható árakra is, hála a HSBC elemzőinek.
Az aktuális számok alapján úgy tűnik, hogy a GPU-kból és CPU-ból álló GB200 SuperChip ára darabonként akár 70 000 dollárra is rúghat, ám az Nvidia nem feltétlenül darabonként szeretné értékesíteni az újdonságokat, hanem komplett szerverek formájában. A GB200 NVL72-es szerverek például akár 3 millió dollárba is kerülhetnek majd, cserébe viszont óriási számítási teljesítményt biztosítanak az AI feladatok területén.
A belépőszint felől közelítve azt láthatjuk, hogy a B100-as gyorsító átlagos értékesítési ára 30 000 és 35 000 dollár között helyezkedhet el, azaz nagyjából annyiba kerül majd, mint H100-as társa. A GB200-as SuperChip ezzel szemben már sokkal drágább lesz, hiszen 60 000 és 70 000 dollár közötti áron kínálhatja az Nvidia, viszont ez a modell két darab B200-as grafikus processzort és egy ARM alapú Grace processzort tartalmaz, azaz igencsak nagy számítási teljesítményt biztosít a rendszer számára.
Az Nvidia várhatóan főként a komplett szerverek értékesítésére koncentrál majd, hiszen ezek nagyobb profittal kecsegtetnek, ugyanis nemcsak az egyes gyorsítókártyákon, hanem magán a szerveren is keres a vállalat, vagyis abból a prémiumból is részesül, amit általában a rendszerintegrátorok tehetnek zsebre.
Szerverek frontján a GB200 NVL36-os modell, ami összesen 18 darab Grace CPU-t és összesen 36 darab B200-as GPU-t tartalmaz, vagyis 18 darab GB200 SuperChippel rendelkezik, várhatóan 1,8 millió dollárba kerülhet. A GB200 NVL72, ami már 36 darab Grace CPU-val és 72 darab B200-as GPU-val büszkélkedik, akár 3 millió dollárba is kerülhet majd. Ezekről a termékekről további részletek korábbi hírünkben olvashatóak. Azt persze fontos kihangsúlyozni, hogy ezek előzetes elemzői becslések, a tényleges árak minden esetben egyedileg kerülnek meghatározásra az adott partner igényeitől, illetve attól függően, milyen árban sikerül megállapodni a tárgyalások során. Egy kisebb megrendelő mindig rosszabb árakat kap, mint az olyan nagy cégek, mint például a Microsoft és az Amazon, akik nagyságrendekkel nagyobb tételben rendelnek.
Közben a riválisok, vagyis az AMD és az Intel már gőzerővel fejlesztik következő generációs AI gyorsítóikat, ám piaci részesedéseik eléggé elenyészők, és ez a helyzet a közeljövőben várhatóan nem is változik, legalábbis drasztikusan biztosan nem, azaz az Nvidia komolyabb konkurencia nélkül keresheti magát degeszre.
Cserébe viszont igencsak komoly számítási teljesítményt biztosítanak a partnerek számára, hiszen a GB200-as SuperChip a H200-hoz képest jelentősen nagyobb számítási teljesítményt nyújt. Míg előbbinél 5/10 PetaFLOP/s-os számítási teljesítmény áll rendelkezésre FP16 módban (dense/sparse), addig a H200-nál mindössze 1/2 PetaFLOP/s-os számítási teljesítményt lehet beosztani ugyanilyen körülmények között, vagyis a két termék között ötszörös teljesítménykülönbség mutatkozik GPU terén, és a többi architekturális változásról még nem is beszéltünk…