A Meta a legfrissebb értesülések szerint megint tett egy fontos lépést annak érdekében, hogy idővel csökkenthesse az Nvidia AI gyorsítóitól való függőségét, helyettük saját fejlesztésű megoldásokat használhatnának, amelyek a nyílt és jogdíjaktól mentes RISC-V architektúra köré épülhetnek. A Reuters értesülései szerint a Meta szakemberei nemrégiben éppen megkezdték egyik friss fejlesztésük tesztelését, ez pedig nem más, mint egy RISC-V alapú AI gyorsító, ami az iparágon belül is egyedülálló lehet.
A RISC-V alapú AI gyorsítót alighanem a Broadcom segítségével fejlesztik, a cél pedig az, hogy a dizájn kifejlesztését és finomhangolását követően felskálázzák a chipek gyártását és használatát, ezáltal kevesebb H100-as és H200-as, valamint B100-as és B200-as sorozatú Nvidia AI gyorsítót kell majd használniuk a különböző AI-hoz kapcsolódó feladattípusok gyorsítására, például a nagy nyelvi modellek tréningezésére.
Az egyedi AI gyorsítót a TSMC közreműködésével gyártatták le, azóta számos működő tesztpéldány is készült belőle, amelyek jelenleg korlátozott mennyiségben érhetőek el és már munkába is álltak egy tesztrendszer formájában. A tesztek keretén belül azt vizsgálják, az egyes terhelésformák alkalmával hogyan alakul a gyorsító teljesítménye, mely területeken van még szükség optimalizációra, illetve az esetleges hibákat is javíthatják. A teljesítmény alakulásával kapcsolatban egyelőre nem állnak rendelkezésre információk, mint ahogy arra sem derült fény, milyen felépítéssel rendelkezik az új AI gyorsító. Mivel azonban speciális, kifejezetten AI dedukcióra/tréningezésre szánt gyorsítóról van szó, ehhez egészen biztosan nagy memória-sávszélességet kínáló memória-alrendszer kapcsolódik, ami HBM3-as vagy HBM3E típusú memóriachip-szendvicsekből épül fel. A fejlesztés célja, hogy a saját rendszereiken belül jelentkező tipikus terhelésformák alatt megfelelő fogyasztás/teljesítmény arányt mutasson fel az új fejlesztés, ezáltal versenyképes legyen az Nvidia Hopper és Blackwell alapú termékeivel szemben is, amelyek így fokozatosan kiválthatóak lesznek a saját AI gyorsítóval.
Maga a fejlesztés egyébként nem ment valami zökkenőmentesen, a Meta Training and Inference Accelerator program keretén belül zajlott. A fejlesztők többször is komoly akadályokba ütköztek, aminek az lett az eredménye, hogy 2022-ben stratégiát váltottak, nagy mennyiségben rendeltek be Nvidia AI gyorsítókat, hogy az aktuális számítási igényeiket ki tudják elégíteni, míg a saját fejlesztésű AI gyorsító el nem készül. A vállalatnál végül sikerült leküzdeni a kihívásokat, az elmúlt év folyamán már be is vetettek egy, az MTIA program keretén belül kifejlesztett chipet, amit el is kezdtek használni dedukciós feladatokra. Az aktuális tervek szerint 2026-tól kezdve fokozatosan kezdik el bevetni a saját fejlesztésű chipjeiket, amelyekkel az AI tréningezés folyamatát próbálják gyorsítani, közben pedig optimalizálni fogják a fejlesztést, hogy minél hatékonyabban működhessen.
A RISC-V architektúra erre remek választás lehet, igaz, konkrétan AI gyorsítóként még nem igazán használják a piacon, legalábbis széles körben nem. A Meta fejlesztőcsapata a saját munkafolyamatok igényei szerint módosíthatja a RISC-V architektúrát, ezzel olyan megoldást hozhatnak létre, ami az iparág egyik legnagyobb teljesítményt kínáló RISC-V alapú chipje lesz, már amennyiben minden a tervek szerint halad. Ez a Meta számára mindenképpen jó hír lesz hosszabb távon, az Nvidia viszont fokozatosan elveszíthet egy nagy partner, aki korábban több tízezer Nvidia AI gyorsítót vásárolt.
A saját fejlesztésű megoldások idővel segíthetnek a Llama Foundation modell sorozat kiszolgálásában, de a különböző platformokon megjelenő ajánlások, reklámok, illetve egyéb tartalmak szállításában is segítő jobbot nyújthatnak. Ehhez persze még el kell telnie némi időnek, finomhangolni kell az új AI gyorsítót, illetve a felskálázást is meg kell oldani, hogy több ezer ilyen chip is hatékonyan működhessen együtt.