Az AI szegmensben óriási növekedés tapasztalható, amiből a hardvergyártók rengeteget profitálnak, de a nagy nyelvi modellek fejlesztői, illetve a felhőszolgáltatók, valamint az egyéb piaci szereplők is kikanyarítják a nekik járó szeletet a piac nagy képzeletbeli tortájából. Az AI láz a félvezetőipari bérgyártók forgalmát is alaposan felpörgette, de az elemzők már figyelmeztetnek: a jelenlegi fejlődési tempó több szempontból sem lesz fenntartható hosszabb távon, idővel falakba fognak ütközni a piaci szereplők.
A Bain & Company technológiai és piaci elemzőinek friss publikációja szerint ahhoz, hogy az AI szegmens folyamatosan, masszív mértékben emelkedő igényeit számítási teljesítmény terén továbbra is ki lehessen elégíteni, 2030-ig bezárólag 2000 milliárd, azaz 2 billió dollárnyi teljes árbevételre lesz szükség, a globális adatközpontok fejlesztésére pedig éves szinten 500 milliárd dollárnál is többet kell majd költeniük a szereplőknek. Csak az említett számokkal jöhet ki a szükséges megtérülés, vagyis a 2000 milliárd dolláros teljes árbevétel nélkülözhetetlen összetevő az egyenletben, de az elemzők úgy látják, ez hosszabb távon nem lesz tartható, a legnagyvonalúbb becslések szerint is 800 milliárd dolláros fekete lyuk tátong majd a mérlegben.
A problémát alapvetően az jelenti, hogy a számítási teljesítmény iránti igény sokkal nagyobb mértékben emelkedik, ahogy az újabbnál újabb AI modellek fejlesztése és működtetése egyre több erőforrást igényel, mint ahogy azon eszközök teljesítménye nő, amelyek kiszolgálják ezeket az igényeket. Míg Moore törvénye – amit inkább önbeteljesítő jóslatként szokás emlegetni – lassulóban van, az AI jellegű munkafolyamatok számítási igénye dinamikusan növekszik. A technológiai elemzők szerint a dedukcióval és a tréninggel kapcsolatos feladatok elvégzéséhez szükséges számítási teljesítmény több, mint kétszer nagyobb mértékben emelkedik, mint ahogy a modern chipek tranzisztorsűrűsége növekszik.
Ez persze arra kényszeríti az adatközpontok üzemeltetőit, hogy a chipek számának növelésével próbálják emelni a rendelkezésre álló infrastruktúra teljesítményét, mert csak a chipek lecserélése önmagában nem elegendő, az nem hozza meg a kívánt teljesítménynövekedést. A gyorsítók számának növelésével az AI adatközpontok teljesítményigénye is folyamatosan emelkedik, így az elemzők szerint 2030-ra már 200 GW körüli fogyasztás produkálhat a globális infrastruktúra, ebből pedig 100 GW-ot tehetnek ki az amerikai AI adatközpontok.
A probléma az, hogy az AI gyorsítók gyártásához elengedhetetlenül szükséges komponensekből már eleve hiány van, gondoljunk csak a HBM és a CoWoS technológiát biztosító lapkákra, és ezt már maga az Nvidia vezetője is elismerte korábban. Ez persze csak az érem egyik oldala, a másik az, hogy az AI adatközpontok növekvő teljesítményigényét megfelelő teljesítményű hűtéssel is ki kell szolgálni, plusz magáról a tápellátásról is gondoskodni kell, ami nem egy egyszerű feladat, ugyanis az ipari és lakossági áramhálózatok nincsenek felkészítve erre a brutális mértékű teljesítményigényre. Amennyiben az elektromos hálózatokat is elkezdik korszerűsíteni, az a nagy volumen miatt komponenshiányt eredményezhet, ami a fejlesztési feladatok elvégzésének lassulását és drágulását okozhatja.
Amennyiben nem sikerül előteremteni a megfelelő mennyiségű tőkét a jelenlegi bővítési tempó fenntartásához, akkor a felhőszolgáltatók elkezdhetnek majd válogatni a rendelkezésre álló rendszerek között az alapján, melyiknél érhető el a legjobb megtérülési ráta – itt az ár/teljesítmény arány, a teljesítménysűrűség, illetve a fogyasztás/teljesítmény arány egyaránt szerepelhet az egyenletben, ami segíti a végleges döntés meghozatalát. Ezzel sokkal vonzóbbá válhatnak az olyan kulcsrakész rendszerek, mint az Nvidia GB200 vagy az AMD Instinct MI300X alapú podjai, ahol kifejezetten fontos szempont a minél nagyobb teljesítménysűrűség és a minél jobb hatékonyság elérése. Ezzel egy időben azok a rendszerek kieshetnek a pixisből, amelyek olcsóbb munkaállomás-alkatrészeket használnak, cserébe viszont nem minősülnek versenyképesnek a fenti szempontok alapján.
Ezzel egy időben PC oldalon is változás történhet, amennyiben az adatközpontok falakba ütköznek költségek és tápellátás terén a tréninggel és a dedukcióval kapcsolatos feladatok során. Ebben az esetben felértékelődhet a PC-k fedélzetén található NPU-k szerepe, amelyek a 40-60 TOPs teljesítményszinten foglalnak helyet jelenleg, de a későbbi modellek ennél is gyorsabbak lesznek. A Bain szerint egyértelműen az a költséghatékonyabb és kevésbé tőkeigényesebb megoldás, ha az adatokat ott dolgozzák fel, ahol keletkeznek, így a helyi NPU-k szerepe felértékelődhet, hiszen segítségükkel olcsóbban és hatékonyabban lehet elvégezni a dedukcióval kapcsolatos feladatokat. Hogy ezt konkrétan milyen formában valósítják meg? Arra is fény derül majd, ahogy közeledik a plafon.
A Bain beszámolója remekül rávilágít az AI szegmensre váró nehézségekre, amelyekkel egyre inkább tisztában van a piac. A számítási teljesítményt és a megfelelő áramellátást biztosító infrastruktúra kiépítése ez rendkívül költséges és hosszú időt igénylő feladat, ami éveket emészthet fel, plusz megfelelő mennyiségű képzett szakemberre is szükség van a siker érdekében. Közben az AI modellek rendkívül komoly tempóban fejlődnek, lényegében hathavonta növekszik a méretük és a fejlesztésük költsége, ami erősíti azon félelmeket, amelyek szerint az AI buborék további növekedésével egyre nehezebben áthidalható kihívások jelentkezhetnek mind tápellátás, mind hűtés, mind pedig felsőkategóirás gyorsítók és memóriachipek terén, míg végül elérik a plafont akár egyszerre több területen is.