Az AI gyorsítók és a mesterséges intelligenciában rejlő lehetőségeket kamatoztató szoftverek szélesebesen fejlődnek, ebből a növekedési potenciálból pedig sokan szeretnének profitálni, egyebek mellett Elon Musk is, aki nemrégiben arról tett említést, rövidesen óriási mennyiségben rendelnek új generációs AI és HPC piaci gyorsítókat az Nvidiától.
A Tesla és a SpaceX vezetője éppen egy elég nagy teljesítményű rendszert állít üzembe, ami 100 000 darab H100-as Nvidia gyorsítókártyából áll, ezzel szolgálják ki az „X” igényeit, illetve a saját fejlesztésű nagy nyelvi modellt, ami a Grok-1 névre keresztelt AI bot mögött dolgozhat. Elon Musk szerint ez a rendszer folyadékhűtéses H100-as gyorsítókból áll, amelyek néhány hónapon belül online lehet, amennyiben a terveknek megfelelően alakul a folyamat. Ez kulcsfontosságú az AI alapú szolgáltatások biztosításához, illetve a különböző AI modellek tréningezéséhez is. Maga a Grok persze már elérhető, működése nagyban eltér a megszokott ChatGPT/Copilot és a Gemini alapú rendszerekétől, ugyanis szókimondóbb, hajlamos a poénkodásra, valamint egyéb tekintetben is újszerű a szóban forgó AI bot, amelynek kétféle üzemmódja van: vicces és normál. A funkciót egyelőre csak az X Premium felhasználói próbálhatják ki.
Annak érdekében, hogy egyebek mellett Grok is fejlődhessen, a jelek szerint egy újabb nagy beruházásra készül Elon Musk, ennek keretén belül nem kevesebb, mint 300 000 darab B200-as GPU-t szereznek majd be az Nvidiától jövő nyárig bezárólag. Noha a 100 000 darab H100-as AI gyorsító masszív teljesítményt nyújt, az 1 gigawattos fogyasztás mellett üzemelő rendszert nem éri meg sokáig megtartani, ugyanis a következő generációs, Blackwell architektúra köré épülő gyorsítók jelentősen gyorsabbak, így az energiahatékonyság is jobban alakul.
A B200-as GPU gyakorlatilag többet fogyaszt, mint a H100, viszont cserébe jelentősen gyorsabb is: tréning teljesítmény terén 4x-es, míg dedukciós teljesítmény terén már akár 30x-os előnyt is kínálhat. Azzal, hogy háromszor több AI gyorsítót állítanak csatasorba, amelyek ráadásul jelentősen többet fogyasztanak majd, mint az éppen összeálló H100 alapú rendszer, mindenképpen jobban járnak, hiszen a számítási teljesítmény is óriási növekedést produkál majd, ami gyorsabb és hatékonyabb fejlesztést tesz lehetővé, és az energiahatékonyság összességében jobb is lesz – a teljesítményhez mérve.
Az egyelőre rejtély, hogy ekkora mennyiségű B200-as GPU-t le tud-e szállítani az Nvidia, hiszen a 300 000 darabos rendelés nem egy elhanyagolható tétel, és akkor ez még csak Elon Musk megrendelése, rajta kívül a Meta, a Microsoft, a Google, illetve számos egyéb vállalat is rendel B200-as AI gyorsítókat. Korábban már volt ebből probléma, óriási átfutási időket eredményezett a vásárlók rohama, alig tudta magát utolérni az Nvidia, ám a helyzet idővel javult. Hogy a Blackwell alapú gyorsítók esetében ismét hasonló helyzet alakul-e ki? Nincs kizárva, hogy igen, de erre úgyis csak később derülhet fény.