Shop menü

IDÉN AKÁR 550 000 DARAB H100-AS AI GYORSÍTÓT IS ÉRTÉKESÍTHET AZ NVIDIA, AMI REKORD ÁRBEVÉTELT EREDMÉNYEZHET

Ez persze csak iparági becslés, a tényleges szám ennél akár magasabb is lehet, már amennyiben a TSMC győzi CoWoS kapacitással a megrendelések kiszolgálását.
Víg Ferenc (J.o.k.e.r)
Víg Ferenc (J.o.k.e.r)
Idén akár 550 000 darab H100-as AI gyorsítót is értékesíthet az Nvidia, ami rekord árbevételt eredményezhet

Az Nvidia igencsak jó pozícióban van az AI és HPC piacon, hála ütőképes gyorsítókártyáinak, amelyeknek köszönhetően uralja az említett két piaci szegmenst. Az AI-hoz kapcsolódó terhelésformák gyorsításához egyre több és több hardverre lesz szükség, ahogy a nagy nyelvi modellek (LLM) egyre inkább terjednek a piacon, márpedig jelenleg ez a helyzet, a generatív AI iránti igények egyre növekednek, és ez meglátszik az AI/HPC piacra szánt gyorsítók forgalmában is.

Az Nvidia az aktuális iparági információk alapján a H100-as sorozatú, a felsőkategóriában versenyző gyorsítókártyáiból idén félmilliónál is több darab találhat gazdára, ami több tízmilliárd dollárnyi árbevételt eredményezhet majd. Az Nvidia idén mintegy 550 millió darab H100-as gyorsítót szállíthat le világszerte, amelyek többsége amerikai vállalatokhoz kerül majd. Az információ az Nvidiához és a TSMC-hez közel álló iparági forrásokból származik és a Financial Times munkatársai tálalták a minap. A H100-as gyorsítókból többféle modell is rendelkezésre áll, az viszont nem derült ki, hogy az 550 millió leszállított termék között hogyan oszlik meg az egyes modellek forgalma.

A legolcsóbbnak számító modell, ami jelenleg 30 000 dollár körüli összegbe kerül az Amerikai Egyesült Államokban, Kínában pedig akár 70 000 dollárt is elkérnek érte, PCI Express formátumú bővítőkártyaként érkezik, 80 GB-nyi HBM2E típusú fedélzeti memóriát tartalmaz, és összesen 14592 CUDA magot foghat munkára. Ez a gyorsítókártya dupla pontosságú műveletek esetén 26 TFLOP/s-os, míg félpontosságú műveletek esetén 1513 TFOP/s-os számítási teljesítményt kínál.

A csúcsot képviselő verzió, ami már SXM kártya formátumban érkezik, szintén 80 GB-nyi fedélzeti memóriát kapott, viszont már HBM3 alapokon. A GPU ebben az esetben 16896 CUDA maggal rendelkezik, így dupla pontosságú műveletek esetén 34 TFLOP/s-os, míg félpontosságú műveleteknél 1979 TFLOP/s-os számítási teljesítményre képes, azaz jelentősen gyorsabb olcsóbb társánál. Az SXM verziót az Nvidia közvetlenül szervergyártóknak értékesíti, így például a Foxconn vagy a Quanta kaphatják meg, vagy éppen az Nvidia által közvetlenül értékesített szerverek részeként kerülnek forgalomba. Ezzel egy időben a vállalat a GH2000 Grace Hopper platform szállítására is készül, amelyben egy 72 magból álló Grace processzor és egy H100 alapú, 80 GB-nyi HBM3E fedélzeti memóriát használó GPU foglal helyet. Erről a fejlesztésről ebben a hírben írtunk részletesebben

Galéria megnyitása

Az sajnos nem világos, hogy a H100 SXM, a H100 NVL és a GH200 Grace Hopper árai pontosan hogyan alakulnak. Ezeknél a termékeknél egyedi megállapodások születhetnek az adott partner pozíciójától, a megrendelt termékek mennyiségétől, illetve sok egyéb körülménytől függően. Ha csak a H100-as gyorsítókat számolnánk, a fentebb említett forgalom16,5 milliárd dolláros bevételt jelentene, de mivel nemcsak ezeket értékesíti a gyártó, hanem egyéb modelleket is, így a végső szám majd csak a pénzügyi jelentésekből derül ki.

Sok vállalat még mindig használja az előző generációs A100-as gyorsítókat is, amelyekből további darabokat rendelve próbálják az adott szerverpark teljesítményét bővíteni úgy, hogy ne kelljen se szoftver, se hardver terén módosításokat végezni. Aztán ott vannak még a Kínára szabott A800-as és H800-as gyorsítókártyák is, amelyek átestek némi módosításon annak érdekében, hogy az amerikai exportkorlátozásoknak maradéktalanul megfeleljenek.

Az egyelőre tehát nem tudható, hogy a gyorsítókártyákból nagyjából mekkora bevételre tesz majd szert az Nvidia. Az mindenképpen beszédes adat, hogy 2024-es pénzügyi év első negyedévében, ami április 30-án ért véget, 4,284 milliárd dollár folyt be az adatközpont-szegmens kasszájába. Azóta nőtt a kereslet az AI gyorsítók iránt, így összességében a 2023-as esztendő mindenképpen rekorddal zárul majd az Nvidia adatközpontokat kiszolgáló részlege számára.

Az AI okozta keresletnövekedéssel egyébként a TSMC sem tud lépést tartani, ugyanis az összes termék CoWoS tokozási technológiát használ, az érintett gyártórészleg kapacitásának bővítése pedig meglehetősen nehézkesnek tűnik. Mivel a kereslet a közeljövőben tovább növekszik majd, nem valószínű, hogy a CoWoS tokozást végző gyártósorok képesek lesznek lépést tartani a folyamattal, már amennyiben nem kerül sor érezhető kapacitás-bővítésre.

Neked ajánljuk

    Tesztek

      Kapcsolódó cikkek

      Vissza az oldal tetejére