Az amerikai kormányzat aktuális exportkorlátozásai a jelek szerint kezdik elérni azt a hatást, amit a második Trump adminisztráció szeretett volna: Kínában problémákat okoz az Nvidia H20-as gyorsítóinak hiánya, ezeket a termékeket ugyanis április közepe óta nem lehet leszállítani a kínai megrendelők felé, csak exportlicenc birtokában, amelynek megszerzésére rendkívül csekély az esély. A H20-as AI gyorsítók exportjának betiltása a The Information munkatársai szerint már a DeepSeek fejlesztőinek munkájára is negatív hatást gyakorol, nehézkessé vált a második generációs nagy nyelvi modell, az R2 fejlesztése, így az a korábban tervezetthez képest később jelenhet meg. Azt persze eddig még nem árulta el a DeepSeek vezetése, hogy az R2-nek pontosan mikor kellett volna megjelennie, valamint a jelenlegi pletykát sem kommentálták.
Az aktuális nagy nyelvi modell, vagyis az R1 elég nagy port kavart a piacon anno, amikor megjelent. Ezt a nagy nyelvi modellt egy elég költséghatékony AI gyorsító tömbön tréningezték, amit a DeepSeek befektetője, a High-Flyer Capital Management szerzett be. Ez a rendszer 50 000 darab Hopper alapú AI gyorsítóból állt, amelyek között 30 000 darab H20-as, 10 000 darab H800-as, illetve 10 000 darab H100-as modell foglalt helyet. Az R1-es modell nemcsak ingyenes elérhetőségével hívta fel magára a figyelmet, de ütőképessége és helyi hardveren történő futtatásának lehetősége is növelte az érdeklődést iránta.
Egy ideje már a következő generációs LLM, az R2 fejlesztésén munkálkodnak a DeepSeek szakemberei, de a belsős információkhoz hozzáférő szivárogtatók szerint a vállalat vezetője, Liang Wenfeng egyelőre nem elégedett az új LLM képességeivel. Az R2 fejlesztése tovább folyik a háttérben, míg a képességei és a teljesítménye el nem éri a kívánt szintet, de hogy erre mikor kerül sor, az egyelőre rejtély.
Az R1-es modellt közben széles körben használják világszerte, méghozzá eléggé változatos körökben: a privát startupok működését éppúgy segítheti, mint a nagy nemzetközi vállalatokét, de még az állami szektorhoz kapcsolódó területeken is jól jöhet. Az R1-es LLM Kínában többnyire az Nvidia H20-as gyorsítóján fut, amit kifejezetten az eggyel korábbi exportkorlátozások szabályait betartva készített el az Nvidia, ám ezt a gyorsítót már nem lehet Kínába szállítani. Ez a helyzet nemcsak azt befolyásolja, hogyan lehet használni az R1-es modellt manapság, hanem azt is, hogyan alakul a következő generációt képviselő R2-es LLM fejlesztése és rajtja.
Az R2 képességeivel és teljesítményével kapcsolatban egyelőre túl sok konkrétum nem áll rendelkezésre, de ha az új LLM ütőképesebb lesz, mint a már elérhető nyílt alternatívák, az hamar problémát okozhat a kínai felhőplatformok üzemeltetőinek, hiszen óriási kereslet mutatkozhat az R2 iránt, amit nem fognak tudni kezelni megfelelő mennyiségű AI gyorsító bevetése nélkül.
A H20-as gyorsító, ami a H100 karcsúsított változata volt, érthető módon óriási népszerűségnek örvendett Kínában, hatalmas mennyiségben értékesítette az Nvidia csapata, ami annak is köszönhető, hogy a kínai vállalatok nagy része az Nvidia CUDA platformja köré építette rendszereit, így az Nvidia hardverei iránt folyamatosan magas a kereslet.
Némi fény azért dereng az alagút végén, az Nvidia csapta ugyanis az aktuális exportkorlátozások figyelembevételével egy újabb AI gyorsító piacra dobásán dolgozik, ami egy ideig ismét lehetőséget biztosít majd a kínai vállalatok számára, hogy új Nvidia hardvert vásárolva tovább növeljék rendszereik teljesítményét, miközben a CUDA platformban rejlő előnyöket is kamatoztathatják.
Közben a háttérben az olyan nagy kínai gyártók, mint amilyen például a Huawei, aktívan dolgoznak azon, hogy a kiesett nyugati AI gyorsítók helyét saját AI gyorsítóikkal foglalják el, ám az aktuális kínálat egyelőre még eléggé korlátozott, már ami a teljesítményt illeti, energiahatékonyság terén pedig még nagyobb a lemaradás. A fejlődés persze töretlen, ami okozhat még meglepetéseket a későbbiek folyamán, de az már egy másik történet.