Az AI és HPC piacra szánt gyorsítók iránt egyre nagyobb igény mutatkozik, ahogy a nagy nyelvi modellek (LLM-ek), illetve a mesterséges intelligenciával kiegészített szolgáltatások egyre inkább teret hódítanak maguknak. Az LLM-ek fejlesztéséhez óriási mennyiségű AI gyorsítóra van szükség, éppen ezért ez egy dinamikusan növekvő piacnak minősül, amibe mindenképpen érdemes befektetni. Jelenleg az Nvidia az egyeduralkodó piacvezető, de az Intel és az AMD sem ül tétlenül a babérjain. Előbbi éppen nemrégiben mutatta be a Gaudi3-as AI gyorsító családot, utóbbi pedig kínálatának frissítésére készül, ugyanis az MI300-as sorozatú termékek mellé rövidesen megérkezhetnek az MI350-es sorozat tagjai is.
Hogy mire számíthatunk az új gyorsítók esetében? A TrendForce elemzői az iparági információkra hivatkozva arról számoltak be, hogy az MI350-es sorozat tagjainál csíkszélesség-váltásra készül az AMD, vagyis a TSMC 5 nm-es osztályú gyártástechnológiája helyett a tajvani félvezetőipari bérgyártó 4 nm-es osztályú csíkszélességét vetheti be. Ezek lényegében ugyanabba a kategóriába tartoznak, mér ami a PDK-t (Process Design Kit) illeti, a 4 nm-es osztályú csíkszélesség mégis előrelépéseket tartogat. Egyrészt a 4 nm-es gyártástechnológiával elkészített CDNA 3 és ZEN 4 alapú chipletek magasabb órajelet vethetnek be, mint jelenlegi társaik, de az új gyártástechnológia nyújtotta előnyöket akár az energiahatékonyság növelésére is használhatják a vállalat mérnökei. Ezzel egy időben nemcsak a lapka esetében történik változás, hanem a memória-alrendszerhez is hozzányúlnak.
Jelenleg az MI300A esetében 128 GB-nyi fedélzeti memória fogható munkára, míg az MI300X-nél összesen 192 GB-nyi fedélzeti memória áll rendelkezésre – előbbinél 8, utóbbinál 12 lapkát tartalmaznak a HBM3-as memóriachip-szendvicsek. Ezeket a chipeket az MI350-es sorozat esetében immár HBM3E alapú megoldásokra cserélheti az AMD, amelyek nemcsak nagyobb memória-sávszélességet nyújtanak, de a 12 Hi felépítés mellett a memóriakapacitás növelését is lehetővé teszik.
Az új AI gyorsítók segítségével a partnerek nagyobb LLM-eket is tréningezhetnek, mint eddig. Hasonló gyakorlatot már az Nvidia háza táján is láthattunk, ahol a 80 GB-nyi HBM3-as memóriachipet alkalmazó H100-as gyorsító mellé nemrégiben egy 141 GB-nyi HBM3E memóriával felvértezett H200-as AI gyorsító érkezett. Az AMD az MI350 sorozat tagjaival lényegében az Nvidia H200-as AI gyorsítójára válaszolhat: az újdonságok ütőképesebbek lehetnek a rivális megoldásokkal szemben, mint a jelenlegi MI300-as sorozat tagjai. Arról egyelőre nincs hír, hogy az MI350-es sorozat pontosan mikor jelenhet meg, de a várakozások alapján az év második felében várhatóak, vagyis az Nvidia H200 után kerülhetnek majd forgalomba.