Shop menü

A MICROSOFT KÖZEL 500 000 DARAB NVIDIA HOPPER GPU-T TUDOTT BESZEREZNI, CSAK IDÉN

Az AI gyorsítók szegmensében óriási a forgalom, amiből leginkább az Nvidia profitálhat.
Víg Ferenc (J.o.k.e.r)
Víg Ferenc (J.o.k.e.r)
A Microsoft közel 500 000 darab Nvidia Hopper GPU-t tudott beszerezni, csak idén

Az Omdia elemzői egy rendkívül beszédes statisztikával rukkoltak elő a minap, ami azt mutatja meg, hogyan alakultak az AI és HPC piacra szánt gyorsítókártya-beszerzések az egyes nagy piaci szereplők esetében, már ami az Nvidia termékeit illeti. Az adatok alapján úgy tűnik, messze a Microsoft vásárolta a legtöbb Hopper alapú AI gyorsítót, a második legnagyobb megrendelő számára viszont kevesebb, mint feleannyi terméket szállítottak le.

Galéria megnyitása

A számok nyelvén ez azt jelenti, hogy a Microsoft összesen 485 000 darab Hopper alapú AI gyorsítót vásárolt az Nvidiától, ami egy bődületes mennyiség. A gyorsítók között H100-as, H200-as, illetve H20-as modellek egyaránt jelen voltak, az új szerverekre együttesen 30 milliárd dollárnál is többet költött a vállalat. Ennek megfelelően a tőkeberuházással kapcsolatos kiadások és a GPU beszerzésekhez kapcsolódó költségek minden eddiginél magasabbra rúgtak. A vállalat ezzel szeretné biztosítani, hogy felhő alapú infrastruktúrája és AI szolgáltatásai kellően ütőképesek lehessenek a piacon – a sikerhez nemcsak ütőképes nagy nyelvi modellekre, hanem az azokat tréningező és kiszolgáló hardverekre is szükség van.

A Microsoft számai mellett szinte eltörpül a ByteDance idei vásárlása, a kínai vállalat ugyanis csak nagyjából 230 000 darab Hopper alapú AI gyorsítót vásárolt, amelyek között részben az akkori amerikai exportkorlátozásoknak megfelelő H800-as, illetve normál H100-as példányok foglalnak helyet – utóbbiakat harmadik féltől szerezte be a cég.

A nagy amerikai vállalatok közül ehhez a termékvásárlási szinthez csak a Meta, a Tesla/xAI, az Amazon, illetve a Google tudott felnőni: ezek a cégek átlagban 200 000 darab Hopper alapú AI gyorsítóra tehettek szert. Az óriási darabszámban forgalomba kerülő Nvidia AI gyorsítóknak köszönhetően az Nvidia GPU-i hatalmas részesedéssel bírnak a friss tőkeberuházások esetében, amelyek a szerverpiaci fejlesztéseket célozzák.

Galéria megnyitása

A háttérben persze több vállalat is azon dolgozik, hogy saját fejlesztésű AI gyorsítóik minél ütőképesebbek lehessenek, ezáltal minél inkább kiválthatóak lesznek az Nvidia termékei, ami több szempontból is előnyös lehet számukra. Egyrészt a saját gyorsítóikat a saját igényeikhez és munkafolyamataikhoz optimalizálhatják, ami jobb teljesítményt eredményez; másrészt ez az optimalizáció az energiahatékonyság növelését is jelentheti, ami segít a teljesítmény és a fogyasztás arányának javításában. Az Amazon háza táján a Trainium és az Inferentia gyorsítók fejlesztésén ügyködnek, míg a Meta az MTIA, a Google pedig a TPU segítségével próbál egyre jobban függetlenedni az Nvidiától.

Ez persze nem egy egyszerű dolog, hiszen az Nvidia CUDA keretrendszere mélyen be van ágyazva az iparági szoftverekbe, a gyártó pedig ütemesen hozza az újabbnál újabb AI gyorsítókat, amelyek mindig alaposan rálicitálnak az előző generációra, már ami a teljesítményt illeti. A cég remekül kiszolgálja partnereit mind hardveres, mind pedig szoftveres téren, ebből a „kényelemtől” pedig elég nehéz szabadulni.

A hírek szerint a Blackwell alapú gyorsítók esetében szintén óriási kereslet mutatkozik a partnerek részéről, vagyis az eddigi rendeléseket is sikerülhet túlszárnyalni, már amennyiben a gyártókapacitás is partner lesz ebben.

Neked ajánljuk

    Tesztek

      Kapcsolódó cikkek

      Vissza az oldal tetejére