A Google és a Meta között a korábbi hírek szerint egy fontos megállapodás köttetett, amelynek értelmében a Google által fejlesztett Google Cloud TPU lapkákat jövőre bérelheti a Meta, hogy kiderüljön, saját AI feladatainak gyorsításához hogyan passzolnak az egyedi fejlesztésű termékek, majd ha pozitív tapasztalatokkal zárul a nagy volumenű teszt, 2027-től kezdve vásárolhat is magának ilyen chipeket a Facebook anyavállalata.
Az elemzői vélemények szerint a Google ezzel a lépésével kifoghat némi szelet az Nvidia vitorlájából, ám utóbbinak még egyáltalán nem kell aggódnia amiatt, hogy piaci egyeduralma veszélybe kerülhetne, hiszen a CUDA ökoszisztéma révén továbbra is az Nvidia chipjei uralják majd az AI adatközpontok szegmensét. Az persze tény, hogy végre sor kerülhet valamiféle verseny kibontakozására, amivel mindenképpen jól járhatna az AI ökoszisztéma – az Nvidia számára viszont nehezebb lenne a boldogulás, mint manapság. Ezek az idők persze még évekre vannak, addig a vállalat vígan élvezheti munkájának gyümölcsét, és ezt természetesen az Nvidia vezetése is így látja.
A vállalat nemrégiben kiadott egy közleményt, amelyben örömüket fejezték ki a Google sikerével kapcsolatban, elismerve, hogy a vállalat óriási előrelépést tett az AI gyorsítók piacán. Hozzátették, továbbra is szállítani fogják saját termékeiket a Google számára, illetve ennél fontosabb kijelentést is tettek, amivel egyértelműsíteni szerették volna az iparág számára: egyelőre megkerülhetetlen szereplők. Az Nvidia szerint saját fejlesztéseik egy generációnyi előnyben vannak az iparág megoldásaival szemben, valamint azt is megemlítették, hogy az ő platformjuk az egyetlen, amelyen fut az összes AI modell, és ez kiterjed minden területre, ahol számítási feladatok zajlanak. Az Nvidia AI gyorsítói nagyobb teljesítményt kínálnak, sokoldalúbban használhatóak, illetve szélesebb körben támogatják az egyes AI modelleket és feladatokat, mint az ASIC típusú alkalmazás-specifikus chipek, amelyek jellemzően meghatározott AI keretrendszerekhez vagy funkciókhoz készültek, azaz jóval korlátozottabban használhatóak.
Ez az állítás igazából megállja a helyét, az Nvidia termékei tényleg sokoldalúbban használhatóak, mint az alkalmazás-specifikus chipek, utóbbiak viszont jobban hozzáilleszthetőek az adott feladattípushoz, így célhardverként magas hatásfok és remek teljesítmény mellett dolgozhatnak, valamint költséghatékonyabbak is lehetnek. Hátrányuk viszont az, hogy nem lehet őket sokoldalúan használni, csak többnyire csak adott feladat elvégzésére alkalmasak, ami behatárolja a lehetőségeket. A vállalatoknak éppen ezért mérlegelniük kell, melyik út passzol jobban hosszabb távú céljaikhoz és lehetőségeikhez, majd ennem megfelelően kell meghozniuk a szükséges döntést.
A Meta mellett egyébként egyéb vállalatok is érdeklődnek a Google TPU chipjei iránt, az Anthropic például 2023 óta használja őket, sőt, 2026-ra egy nagy beruházást terveznek, amelynek keretén belül 1 GW-ra bővítik a szerződéses kapacitást. Noha ez mind szép és jó, a további terjeszkedés kihívásokat tartogat, annyira bele van ágyazva az Nvidia CUDA ökoszisztémája az AI iparág szövetébe, hogy nehéz rábírni használóit az ökoszisztéma leváltására. Ennek persze első lépése az, hogy ütőképes AI gyorsítókat kell készíteni, amelyekhez ütőképes szoftveres támogatás is jár, ezt azonban szinte csak iparági összefogás keretében lehet megvalósítani, ami összehangolt munkát és előrelátó tervezést igényel.
A Meta és a Google megállapodása mindenképpen jelentősnek mondható, és ha egyéb nagyvállalatok is követik a példát, az előbb-utóbb fejfájást okozhat az Nvidia számára, még ha csak évek múlva is. Az Intel korábbi vezérigazgatója, Pat Gelsinger már régen megfogalmazta, hogy az Nvidia CUDA keretrendszerétől meg kéne szabadulnia az iparágnak, de az nem lesz egyszerű feladat – még kellően ütőképes riválist is nehéz ellene állítani, annyira elhúztak a piactól számítási teljesítmény, energiahatékonyság, illetve fejlesztési tempó terén.