Shop menü

A HUAWEI ASCEND 910D GYORSABBNAK ÍGÉRKEZIK, MINT AZ NVIDIA H100-AS GYORSÍTÓJA

A vállalat úgy próbál versenyképesebb lenni, hogy 384 gyorsítót tartalmazó rendszereket kínál a partnerek számára, amelyek ugyan kellően gyorsak, ugyanakkor jelentősen többet fogyasztanak, mint az Nvidia megoldásai.
Víg Ferenc (J.o.k.e.r)
Víg Ferenc (J.o.k.e.r)
A Huawei Ascend 910D gyorsabbnak ígérkezik, mint az Nvidia H100-as gyorsítója

A Huawei csapata rövidesen, még május folyamán küldi ki partnereinek a következő generációs HiSilicon Asced 910 sorozatú AI és HPC piaci gyorsítókártyákat, amelyek már jobb teljesítményt tudnak felmutatni, mint az Nvidia Hopper architektúra köré épülő H100-as megoldása.

Az Ascend 910D típusjelzéssel ellátott AI gyorsító várhatóan lassabb lesz, mint az Nvidia Blackwell B200-as és a Blackwell Ultra B300-as megoldásai, és a Rubin architektúrára támaszkodó modellek is alaposan lekörözhetik őket, ha az egyes gyorsítókat egyesével hasonlítjuk egymáshoz. A kínai vállalat persze erre is talált már megoldást: több száz gyorsítót tartalmazó rackek formájában is kínálja portékáit, amelyek így már akár a Blackwell és a Rubin sorozat tagjaival szemben is versenyképesek lesznek, legalábbis teljesítmény terén, az energiahatékonyság alakulása viszont már egy másik, nem túl szép történet lesz, ha az előzményekből indulunk ki.

Az Ascend 910D segítségével a gyártó az Nvidia H100 teljesítményét leköröző gyorsítót szeretne kínálni a vállalat a kínai piacon keresgélő partnerek számára, főleg, hogy az Nvidia már a kifejezetten Kínára szabott H20-as gyorsítót sem szállíthatja. A Huawei próbálja a lehető legjobban kihasználni a kínálkozó lehetőséget, a Reuters forrásai szerint már meg is kerestek néhány helyi vállalatot azzal a céllal, hogy teszteljék, megfelel-e igényeiknek az Ascend 910D sorozatú gyorsító, az első korai tesztpéldányokat pedig már május végén le is szállítják a cégeknek.

Az egyelőre kérdéses, hogy az Ascend 910D típusú AI gyorsító pontosan mely vállalat műhelyében készül. A vállalat elméletileg igénybe veheti a kínai SMIC szolgálatait, már amennyiben a rendelkezésre álló gyártástechnológiák megfelelnek a chip kívánalmainak; de alternatív módon akár a TSMC-t is megkörnyékezhetik, ha sikerül megint valami kreatív trükköt kitalálni, amivel megkerülhetőek az amerikai szankciók.

Galéria megnyitása

Az Nvidia H100-as gyorsítójának teljesítményszintjét nem lesz egyszerű feladat elérni, ugyanis az Ascend 910C esetében 780 TFLOP/s-os BF16-os számítási teljesítmény van érvényben, míg a H100 esetében már 2000 TFLOP/s körüli teljesítmény mutatkozik ugyanebben a kategóriában. Ahhoz, hogy az Ascend 910D-vel már elérhető, vagy akár meg is haladható legyen ez a szint, teljesen át kell dolgozniuk a vállalat szakembereinek az eddigi architektúrát, és a tokozáson belül valószínűleg több chipletet is el kell majd helyezniük.

A Blackwell és a Rubin architektúra köré épülő termékekkel szemben persze ez is kevés lehet, így nem marad más, mint a több száz AI gyorsítót tartalmazó fürtök értékesítése. A gyártó a CloudMatrix 384 formájában már most is kínál olyan megoldást, amivel az Nvidia GB200 alapú NVL72-es rackjét maga mögé utasíthatja bizonyos feladatok alkalmával, ennek viszont ára van: az alacsonyabb teljesítmény/fogyasztás hányados jóvoltából sokkal magasabb fogyasztás mellett üzemel a Huawei megoldása, ami egyébként több, mint ötször több gyorsítót is tartalmaz ahhoz, hogy ütőképes teljesítményt kínálhasson. Ezt a koncepciót később is bevethetik, már amennyiben az összekötő rendszer tud skálázódni a megnövekedett teljesítménnyel karöltve.

A Huawei számára egyébként egyre nehezebb lesz ütőképes AI gyorsítókat gyártani, ugyanis hivatalosan nem férnek hozzá a legmodernebb gyártástechnológiákhoz, amelyekre mindenképpen szükség lenne a sikerhez. Az Nvidia például N3-as, vagy annál is fejlettebb csíkszélességet vethet be a Rubin architektúra köré épülő AI és HPC piaci gyorsítók esetében, ezek 2026-ban már meg is jelenhetnek a piacon. A Rubin a várakozások szerint FP8 számítási teljesítmény terén immár 8300 TFLOP/s-ra lesz képes, a BF16-os számítási teljesítménye pedig várhatóan ennek fele, azaz 4150 TFLOP/s lehet, azaz legalább kétszer gyorsabb lesz, mint a B200. Amennyiben a Huawei a CloudMatrix 384 rendszert Ascend 910D típusú AI gyorsítókkal vértezi fel, akár a Rubin sorozatú AI gyorsítót tartalmazó NVL72-es Nvidia rackekkel szemben is versenyképes lehet, már ami a teljesítményt illeti, energiahatékonyság terén azonban jó eséllyel sokkal rosszabb lesz, már csak az elavultabb csíkszélesség miatt is.

Akárhogy is, az Ascend 910D nagy népszerűségre tehet szert Kínában, hiszen az Nvidia nagyteljesítményű AI gyorsítóit már nem lehet az országba szállítani, legalábbis hivatalosan, és ezen a téren a Rubin érkezéséig sem várható változás, legalábbis pozitív irányú szinte biztosan nem. A kérdés csak az, hogyan oldja meg a Huawei az új AI gyorsítók versenyképes csíkszélességgel történő gyártását. A helyi csíkszélességek a jelenlegi információk alapján erre nem igazán alkalmasak, a nyugati technológiákat pedig hivatalosan nem érheti el a cég, de arra van esély, hogy közvetítőkön keresztül ismét legyártatják a nagy nyugati félvezetőipari bérgyártókkal a portékáikat, akár a TSMC-vel is.

Neked ajánljuk

    Tesztek

      Kapcsolódó cikkek

      Vissza az oldal tetejére