Az SK hynix speciális NAND Flash memóriachipeket fejleszt, kifejezetten azért, hogy az AI modellek és funkciók fejlesztéséhez, illetve kiszolgálásukhoz szükséges masszív teljesítmény-igényt hatékonyan biztosítani lehessen. A vállalat az Nvidia csapatával együttműködve AI NAND típusú memóriachipeken dolgozik, amelyek akár 30-szor nagyobb teljesítményt kínálhatnak, mint napjaink leggyorsabb üzleti SSD meghajtói és kártyái. Az ultragyors NAND Flash chipek jóvoltából akár 100 millió IOPS-os teljesítmény elérésére is lehetőség nyílik 2027 folyamán, ami rengeteg új lehetőség előtt nyithatja meg a kapukat.
A ZDNet információi szerint az SK hynix fejlesztői már el is készítették a speciális vezérlőből és NAND Flash chipekből álló adattárolót, ami bizonyítja, hogy a koncepció működőképes, és az első mintapéldányokat már át is adták az Nvidia csapatának. Az első olyan mintapéldányok, amelyek szélesebb körben is elérhetőek lesznek, a következő év vége felé készülhetnek el, ezek viszont még „csak” 25 millió IOPS-os teljesítményt tudnak majd felmutatni és PCI Express 6.0-s csatolófelülettel érkeznek. A végleges kiadás, ami kereskedelmi forgalomban is elérhetővé válik, a tervek szerint 2027-re készül el, és az már a fentebb említett 100 millió IOPS-os teljesítményt biztosítja majd az AI szegmens szereplői számára. A 100 millió IOPS-os teljesítmény kifejezetten nagy előrelépést jelent, ugyanis a mai leggyorsabb üzleti SSD meghajtók és kártyák nagyjából 2-3 millió IOPS-os teljesítményre képesek, és ez főként csak a felsőkategóriás modellekre vonatkozik.
A fentebb említett SSD-k, amelyek az AI-N besorolás alá esnek, elsősorban abban segíthetnek, hogy au I/O részleg jelenlegi korlátait alaposan kitolják, ami nagy segítség lesz a nagymennyiségű adattal dolgozó dedukciós folyamatok alkalmával, azaz nagyban segíteni fogja az AI modellek és a neurális hálózatok hatékonyabb fejlesztését. Az útiterven szerepel továbbá az AI-N B, amit High Bandwidth Flash névvel mutattak be anno, valamint egy AI-N D típusú fejlesztést is készítenek.
Az AI-N P elsősorban az ultramagas teljesítményre fókuszál, ahogy azt a 100 millió IOPS-os NAND Flash esetében már fentebb említettük. Az AI-N B ezzel szemben a magas adatátviteli sávszélességre koncentrál, míg az AI-N D a magas adattároló kapacitást próbálja ötvözni a költséghatékonyabb felépítéssel, vagyis főként az adatsűrűség növelésére gyúr.
A vállalat két, egymástól jól elkülöníthető területet vesz célba az AI piacon: egyrészt azokat a nagy AI adatközpontokat, amelyek masszív adatátviteli sebességre és sávszélességre vágynak; másrészt pedig azokat, amelyeknél az eszközön futó AI modellek energiahatékony, de magas teljesítmény mellett történő kiszolgálása történik. Az AI-N termékcsaláddal mindkét szegmens hatékonyan célba vehető, méghozzá úgy, hogy a jelenlegi megoldásokhoz képest jelentősen gyorsabbak lehetnek.