A Qualcomm már korábban is készített speciális gyorsítókártyákat, amelyekkel elsősorban a dedukciós folyamatokat lehetett gyorsítani az AI jellegű munkák során, ám az AI100-as szériával még nem vették célba az adatközpontok szegmensét úgy, hogy teljes értékű, kulcsrakész megoldást kínáltak volna például komplett rackszekrények formájában, amivel mind az Nvidia, mind pedig az AMD próbálkozik. Ez a helyzet rövidesen megváltozik: érkeznek a Qualcomm következő generációs AI gyorsítói, az AI200-as és az AI250-es modellek, amelyek kifejezetten a rack szekrényekre épülő termékek ellen szállnak versenybe a piacon a nem is oly távoli jövőben. A Qualcomm ezzel egy időben azt is bejelentette, innentől kezdve éves szinten hoznak majd új fejlesztéseket a piacra – ezzel is próbálnak versenyképesebb termékkínálatot kialakítani.
Az AI200-as és az AI250-es AI gyorsítók egyaránt a Qualcomm Hexagon sorozatú neurális feldolgozó egységei köré épülnek, ám ezekben az esetekben az NPU-t úgy optimalizálják, hogy az az adatközpontok szegmensében felbukkanó munkafolyamatok során a lehető legjobb teljesítményt nyújtsa. A Hexagon sorozatú NPU-k fejlesztése már évek óta zajlik, ezért kézenfekvő döntés volt, hogy a termékeket az AI gyorsítók szegmensében is használják, sőt, a második generációs AI gyorsítók immár komplett rackek formájában kerülnek piacra, ezzel reagálva az aktuális piaci folyamatokra.
A Hexagon NPU fedélzetén immár skalár, vektor, illetve tensor gyorsítók egyaránt jelen vannak, amelyekkel az összes fontos adatformátum támogatása biztosítható, legyen szó INT2, INT4, INT8, INT16, FP8, vagy éppen FP16-os számítási feladatokról. Az egységek ezzel egy időben virtualizációs támogatást is nyújtanak, valamint adattitkosításra is képesek, továbbá a 64-bites memóriacímzést is támogatják. Az egyes NPU-k 12 skalár, 8 vektor, illetve 1 tensor gyorsítót tartalmaznak, az viszont egyelőre nem derült ki, hogy az AI200-as és az AI250-es modellek pontosan milyen teljesítményre lesznek képesek, így egyelőre az is rejtély, mennyire lesznek versenyképesek az Nvidia és az AMD termékeivel szemben.
Az viszont biztos, hogy ezekkel az AI gyorsítókkal a Qualcomm most először veszik célba az AI adatközpontok szegmensét rack alapú rendszerekkel, azaz az újdonságok komoly mérföldkőnek tekinthetőek. Az AI200-as gyorsítók mellé 768 GB-nyi LPDDR memória is kerül, ami ebben a kategóriában szokatlanul nagy kapacitásnak minősül. Az egyes gyorsítók PCIe kapcsolatot használnak majd a kommunikációra, míg a rackek között Ethernet kapcsolat húzódik majd. Az egyes komponensek hatékony hűtéséről folyadékhűtő rendszer gondoskodik, egy-egy rack pedig 160 kW-os maximális fogyasztással dolgozhat, ami a dedukcióra szánt megoldások szegmensében egyedülállóan magasnak tűnik. A rendszer alkalmas lesz biztonságos adatkezelést igénylő feladatok elvégzésére is, azaz akár kormányzati részről is érkezhetnek megrendelések iránta. Ez a szett 2026-ban debütálhat.
A következő lépcsőfok az AI250 lesz, ami megtartja az A200 alapvető felépítését, de extraként memória-közeli számítási képességekkel is bővülhet a repertoárja, ami az effektív memória-sávszélességet több, mint tízszeresére növelheti. A rendszer előnyei közé tartozik még az is, hogy dedukció terén képes lesz a számítási teljesítmény és a memória dinamikus megosztására az egyes kártyákon keresztül. Az új rendszer a Qualcomm szerint hatékonyabb lesz, valamint nagyobb memória-sávszélességet is kínál majd, miközben ugyanolyan fogyasztás, hűtési igény, biztonsági szint, illetve skálázhatóság mellett dolgozik, mint az AI200, cserébe viszont optimálisabb lesz a nagy transformer modellekkel való munkákhoz.
A hardver persze csak félkarú óriás a megfelelő szoftveres keretrendszer nélkül, ezért a Qualcomm csapata egy speciális szoftveres platformot is létrehoz, ami a hiperskálázók igényeinek is megfelel, kiválóan használható nagyobb léptékű dedukciós feladatokhoz, illetve végponttól végpontig terjedő megoldást biztosít. Az új platform természetesen támogatni fogja a nagy gépi tanulási és generatív AI eszköztárakat, így például a PyTorch, az ONNX, a CrewAI, a vLLM, illetve a LangChain is zökkenőmentesen használható lesz vele. Az előre tréningezett modelleket egy kattintással lehet majd importálni, valamint lehetőség nyílik bizalmas feladatok elvégzésére is.
Az egyelőre rejtély, hogy az említett AI gyorsítók mellé pontosan milyen processzorok kerülnek majd. A vállalat formálisan már bejelentette, hogy saját, ARM alapú szerverprocesszorokat fejleszt, az viszont nem tudható, pontosan hol tart a folyamat, noha a Nuvia által elvégzett fejlesztőmunka valószínűleg jelentősen lerövidíti a piacra kerüléshez szükséges időt. A dolgok jelenlegi állása alapján nem tűnik valószínűnek, hogy az új AI gyorsítók mellé már saját fejlesztésű Qualcomm szerverprocesszorok kerülnek, sokkal valószínűbb, hogy egyéb gyártók termékeire támaszkodnak majd, de ezzel kapcsolatban majd csak később árulnak el részleteket.