A Dell vezetője egy meglehetősen borús előrejelzést osztott meg a napokban, ami arról szól, az AI-láz nemhogy csillapodni nem fog az elkövetkező időszakban, hanem még nagyobb sebességre kapcsol, ezáltal tovább fokozódhat a memóriahiány. Szerinte elképzelhetetlenül hatalmas mértékben növekedhet a kereslet a memóriachipek iránt az elkövetkező időszakban, ennek pedig az az oka, hogy az AI adatközpontokba szánt hardverek mellé a képességek fejlesztéséhez egyre több és több memória kerül, ezt az ugrást pedig nem tudja lekövetni a termelés.
Michael Dell szerint a következő néhány évben 625-szörös mértékben növekszik majd a memóriaigény, vagyis a memóriahiányos állapot tovább súlyosbodik, hiszen mind az AI gyorsítók, mind pedig az őket kiszolgáló szerverprocesszorok mellé több memória kerül, az adatközpontok száma pedig dinamikusan növekszik, így minden komponensből többre lesz szükség. A 625-szörös növekedést egyébként azzal a példával vezette le, hogy míg 2022-ben az Nvidia H100-as gyorsítója 80 GB HBM3-as memóriát igényelt, addig a 2028-ban érkező AI gyorsítók már 2 TB-nyi HBM memóriával rendelkezhetnek, vagyis ezen a téren picivel több, mint 25-szörös növekedés várható. Ehhez jön hozzá az a várakozás, hogy az AI gyorsítók iránti kereslet is 25-szörösére emelkedik 2028-ra, ezzel meg is érkeztünk a 625-szörös számhoz, amit fentebb említett.
A vezető a jelek szerint a következő generációs AI gyorsítók esetében a maximálisan támogatott memóriakapacitással számolt, ami a Vera Rubin Superchip esetében például tényleg 2 TB, de a rackek többsége várhatóan „csak” 576 GB-nyi HBM4-es memóriát használ majd. Ez persze 7,2-szer több, mint amit a fenti példában említett H100-as gyorsító igényelt, de mégsem 25-szörös a növekmény. Ha az AI gyorsítók iránti keresletnövekedést jól becsülte, vagyis az tényleg 25-szörös mértéket ölt, akkor így összesen „csak” 180-szoros növekedésre lehet számítani a memóriapiacon, ami természetesen még mindig masszívnak és szinte leküzdhetetlennek tűnik.
A nagy memóriagyártók már most sem tudják tartani a tempót a kereslet növekedésével, a HBM4-es memóriachip-szendvicseket pedig csak három vállalat gyártja majd, az SK hynix, a Samsung, illetve a Micron. HBM3 fronton egyéb szereplők is próbálnak felzárkózni, de az aktuális kereslet kielégítésére még együttes erőkkel sem képesek. Az persze tény, hogy a zajló tőkeberuházások eredményeként 2028-ban munkába állhat néhány új üzem, illetve néhány új gyártósor, de ez csekély mértékű segítség lesz, ha tényleg annyira elszáll a kereslet, ahogy azt a Dell vezetője jósolja.
A DRAM chipekből, amelyek a szervermemóriamodulokba és a HBM memóriachip-szendvicsekbe egyaránt szükségesek, már jelenleg is masszív hiány van, ezzel egy időben pedig az LPDDR5x memóriachipek és a NAND Flash memóriachipek iránt is óriási a kereslet, és ez várhatóan tovább emelkedik majd, de azt egyelőre lehetetlen pontosan megbecsülni, hogyan alakulnak majd az elkövetkező negyedévek, akkora a bizonytalanság.
Egy Nvidia GB200 alapú NVL72-es AI szerverben jelenleg egy rack összesen 480 GB-nyi LPDDR5x fedélzeti memóriát igényel, egy torony pedig összesen 144 darab E.1-es slotot tartalmaz, amelyekben nagysebességű és nagy adattároló kapacitású SSD kártyák kaphatnak helyet. Egy teljes torony maximum 13,4 TB-nyi HBM3e memóriát, maximum 17 TB-nyi rendszermemóriát és maximum 547 TB-nyi adattároló kapacitást érhet el, és ilyen tornyokból egy-egy nagyobb AI adatközpontban több száz, vagy akár több ezer is jelen lehet, azaz tényleg óriási mennyiségű memóriachip kell hozzájuk.