Az Nvidia több nagy és fontos kínai megrendelőt is kiszolgál, ám az amerikai kormányzat által bevezetett új exportkorlátozások miatt ismét egy kis átalakításra volt szükség az egyik új generációs gyorsítókártya esetében annak érdekében, hogy a termék megfeleljen a szabályozásoknak.
A szóban forgó gyorsítókártya, azaz a H100-as modell a Hopper architektúra köré épül, elődjéhez képest jelentős gyorsulást kínál. Ez számszerűsítve annyit jelent, hogy az Ampere alapú A100-as gyorsítókártyánál akár kilencszer gyorsabb a termék AI tréningezés terén, míg az inferencia során jelentkező munkafolyamatokat akár harmincszor gyorsabban el tudja végezni, mint elődje. E kedvező tulajdonságok alapján nem túl meglepő, hogy az AI szegmensben tevékenykedő vállalatokat igencsak érdekli a H100-as modell, hiszen jókora teljesítménynövekedést képvisel elődjéhez képest.
A kínai megrendelők számára problémát jelent, hogy a H100-as gyorsítókártyát az új exportkorlátozások miatt nem szállíthatja le nekik az Nvidia, már amennyiben szabály-követően akar eljárni. Éppen ezért a H100 esetében is szükség van némi teljesítménylimit bevezetésére, amelynek köszönhetően már megfelel a termék az aktuális szabályoknak. Az új, korlátozott képességekkel rendelkező H100-as modell, ami kifejezetten a kínai partnerek számára készül, a H800-as elnevezést viseli, és ugyanazt az utat járja, mint a korábban bemutatott A800-as modell: csökkenti a GPU-k közötti összeköttetés adatátviteli sávszélességét, méghozzá jelentősen.
Az A100 az A800-tól lényegében annyiban különbözik, hogy a korábbi 600 GB/s helyett már csak 400 GB/s áll rendelkezésre a GPU-k közötti kapcsolatot biztosító NVLink összeköttetés esetében, így a termék megfelel az exportkorlátozásoknak, amelyek kimondják, a chipek közötti adatátviteli rátának 600 GB/s alatt kell maradnia.
A H100 és a H800 között nagyobb lesz a különbség ezen a téren, ugyanis a H800 már csak 300 GB/s-os maximális adatátviteli sávszélességet vethet be a GPU-k közötti kommunikáció megvalósításakor. A nagyobb visszavágásra alighanem azért volt szükség, mert a Hopper H100-as gyorsítókártya jelentősen gyorsabb az Ampere A100-as modellnél, ennek megfelelően gyorsabban végre tudja hajtani az AI-hoz kapcsolódó feladatokat, éppen ezért a megfelelő szintű teljesítménycsökkentés érdekében jobban le kell csökkenteni a GPU-k közötti kommunikációs sávszélességet.
Az Nvidia szóvivője a Reuters kérdésére azt nem árulta el, pontosan mi a különbség a H100-as és a H800-as modell között, mindössze annyit erősített meg, hogy az új termék megfelel az új exportszabályozás kívánalmainak. A H800-as gyorsítókártyát a hírek szerint három nagy kínai megrendelő már használja is: az egyik az Alibaba Group Holding, a másik a Baidu Inc, míg a harmadik a Tencent Holdings.
Mivel Kína tiltólistára tette az egyre nagyobb népszerűségnek örvendő ChatGPT-t, a kínai vállalatok egymással versenyezve próbálnak alternatívát létrehozni, ami kellően ütőképes és képes kiszolgálni a kínai piacot. A munkát nehezíti majd, hogy a H800-as chip a H100-hoz képest csak feleakkora adatátviteli sávszélességű kapcsolatot használhat az egyes GPU-k között, ám a kieső teljesítményt akár több H800-as gyorsítókártya bevetésével is ellensúlyozhatják a cégek, már amennyiben érdekeik ezt diktálják.