A Rambus szakemberei elkészítették az iparág első HBM4-es memóriavezérlőjét, ami licencelhető szellemi tulajdon formájában rövidesen elérhető lesz az iparági szereplők számára. Noha a JEDEC még mindig nem véglegesítette a HBM4-es memóriaszabványt, az iparági szereplők gőzerővel dolgoznak a HBM4-hez kapcsolódó fejlesztéseken, amelyekre azért van szükség, hogy az AI gyorsítók iránt egyre növekvő kereslettel és igényekkel lépést tudjanak tartani.
Az új memóriavezérlő felülmúlja a JEDEC szabványtervezetben eddig említett sebességeket, ugyanis míg a JEDEC szakemberei egyelőre még csak 6,4 GT/s sebességben gondolkodnak, addig a Rambus szakemberei által tervezett memóriavezérlővel akár 10 GT/s sebességű HBM4-es memóriachip-szendvicseket is kezelni lehet. Mivel a HBM4-es memóriachip-szendvicsek már nem 1024-bites, hanem 2048-bites memória-adatsínt használnak, így egy HBM4-es memóriachip-szendviccsel már akár 2,56 TB/s-os memória-sávszélesség elérésére is van mód, ami igen komoly előrelépés.
A Rambus fejlesztését könnyedén lehet társítani harmadik fél által fejlesztett chipekhez, majd ehhez a piacvezető HBM gyártók HBM4-es memóriachipjeit társítva komplett HBM4-es memória-alrendszer építhető a következő generációs AI gyorsítók számára. A Rambus csapata már együttműködést folytat az iparág vezető vállalataival annak érdekében, hogy az új technológiát zökkenőmentesen bele lehessen integrálni a meglévő memória-ökoszisztémába, ezzel is elősegítve a következő generációs memória-alrendszerekre történő zavartalan és zökkenőmentes átállást.
Az előzetes HBM4-es memóriaszabvány-tervezet szerint a HBM4-es chipek 4, 8, 12, illetve 16 memórialapkából állnak majd, az egyes rétegek pedig 24 Gb-es vagy 32 Gb-es kapacitással rendelkezhetnek. Ha egy 16-Hi típusú HBM4-es memóriachip-szendvicset veszünk alapul, ami 16 darab 32 Gb-es memórialapkából áll, akkor 64 GB-nyi memóriakapacitáshoz juthatunk. További három ilyen memóriachip-szendviccsel már el is érhető a 256 GB-os memória-kapacitás, ami a 8096-bites memória-adatsínen keresztül 6,56 TB/s-os memória-sávszélességet biztosíthat az adott AI gyorsító számára. Ez jelentős előrelépés a mai rendszerekhez képest, sőt, ha idővel a 10 GT/s sebességszintet is sikerül elérni a HBM4-es memóriachip-szendvicseknél, akkor az effektív memória-sávszélesség 10 TB/s fölé katapultálhat.
A memóriakapacitás és az effektív memória-sávszélesség növekedése több szempontból is fontos. Előbbivel egyre nagyobb LLM-ek kaphatnak helyet a fedélzeti memóriában – a nagy nyelvi modellek már átlépték az egybillió paraméteres szintet, és tovább fognak növekedni –, míg utóbbi a feldolgozás sebességének növelését segíti, ami az LLM-ek növekedésével és komplexitásával egyre komolyabb kihívást jelent majd. A Rambus az iparág első HBM4-es memóriavezérlőjének kifejlesztésével az AI 2.0 érát segíti, hiszen ezzel a vezérlővel és a hozzá kapcsolódó új generációs memóriachip-szendvicsekkel áttörés érhető el teljesítményszint terén a mai gyorsítók szintjéhez képest.
A 2048-bites memória-adatsín miatt a memória-alrendszerek nemcsak komplexebbek lesznek, de nagyobb területet is foglalnak majd a csatolófelület fizikai igényei miatt. Ennek eredményeként az interposerek is bonyolultabbak lesznek, mint amiket a HBM3-as és a HBM3E alapú memória-alrendszerek köré épülő AI gyorsítóknál megszokhattunk, ez pedig alighanem a költségek emelkedését is eredményezi majd, de ez már egy másik történet.