Shop menü

A DEEPSEEK CSAPATA AI-RA OPTIMALIZÁLT, MAGAS PÁRHUZAMOS TELJESÍTMÉNYT BIZTOSÍTÓ FÁJLRENDSZERT VILLANTOTT

A 3FS már el is érhető nyílt forráskódú változatban, az eddigi megoldásokhoz képest óriási gyorsulást hoz véletlenszerű olvasási feladatok terén, ami az AI tréning alkalmával kulcsfontosságú szempont.
Víg Ferenc (J.o.k.e.r)
Víg Ferenc (J.o.k.e.r)
A DeepSeek csapata AI-ra optimalizált, magas párhuzamos teljesítményt biztosító fájlrendszert villantott

A DeepSeek elég nagy felfordulást okozott a tech szektorban az elmúlt hónapok folyamán, amikor ígéretesnek tűnő nagy nyelvi modellje felbukkant a piacon, mivel ingyenesen használható és a desztillált nagy nyelvi modellek révén akár helyben is futtatható, ami nagy előny az eddigi megoldásokhoz képest, ráadásul még pontosság terén is versenyképes riválisaival szemben, legalábbis az első tesztek ezt mutatták. A DeepSeek megjelenése után kisebb pánik tört ki, de azóta már megnyugodni látszik a piac.

A DeepSeek sikere mögött egy speciális fájlrendszer is áll, amit kifejezetten AI feladatokra optimalizáltak, ennek köszönhetően nagy párhuzamos teljesítmény elérésére nyílik lehetőség alatta. A Fire-Flyer File System, ami 3FS név alatt fut, éppen nemrégiben vált nyílt forráskódúvá, ugyanis a csapat úgy döntött széles körben is elérhetővé teszik. A kínai vállalat fejlesztése legalább 2019 óta van használatban saját szerverein, ez egyébként kulcsfontosságú szerepet töltött be abban is, hogy a DeepSeek LLM költséghatékonyan és sikeresen fejlődhessen.

A 3FS egy Linux operációs rendszerekhez készített speciális párhuzamos fájlrendszer, ami elsősorban az AI és a HPC piaci műveletek elvégzését segíti, ahol több adattároló szerver tartalmát kell folyamatosan, egyszerre elérniük a GPU node-oknak ahhoz, hogy a nagy nyelvi modellek tréningezése megfelelő teljesítménnyel történhessen. Ez a fájlrendszer azért is különleges, mert az AI igényeire szabva érkezik, vagyis elsősorban a véletlenszerű olvasási feladatok minél hatékonyabb elvégzését segíti, ezt a feladattípust helyezi előtérbe, közben pedig majdnem teljes mértékben elhagyja az olvasási gyorsítótárazást, ami szintén egy kulcsfontosságú döntés eredménye.

A nagy nyelvi modellek és a neurális hálózatok tréningezésekor az AI gyorsítók CU tömbjei óriási mennyiségű adathoz férnek hozzá, amelyek a tanítást segítik, ezeket pedig jellemzően csak egyszer használják fel. Az egyszeri használat miatt az olvasási gyorsítótárazásra igazából nincs szükség, így ezt a módszert nem is veti be a 3FS. Maga az olvasási gyorsítótárazás egyébként problémát is okozhat a betanítási folyamat során, ugyanis ha az adott LLM tréningezésekor ugyanazokat az adatokat olvassa be a rendszer ugyanabban a sorrendben, az ronthatja az LLM működését és hatékonyságát.

A Deep Seek LLM egyik tanulási fürtjét üzemeltető csapat érdekes teszteredményeket is publikált, amelyek a Fire-Flyer 2 névre keresztelt rendszer teljesítményéről adnak képet – a tanulmány még tavaly augusztusban jelent meg. A Fire-Flyer 2 fedélzetén összesen 180 darab adattároló node foglalt helyet, amelyekben egyenként 16 darab 16 TB-os SSD, illetve két darab 200 Gbps-os NUC dolgozott. Ezek az adattároló node-ok összesen 10 000 darab PCIe formátumú Nvidia A100-as AI gyorsítót szolgáltak ki, és összességükben kevesebbe kerültek, mint az Nvidia saját fejlesztésű DGX-A100-as szerverei.

A teljesítménymérések alapján a 3FS fájlrendszer 6,6 TB/s-os olvasási tempó elérését tette lehetővé a tréningezéssel kapcsolatos munkafolyamatok során, miközben a háttérben további 1,4 TB/s-os olvasási teljesítménnyel dolgozott. Ehhez képest a riválisnak minősülő Ceph fájlrendszer segítségével mindössze 1,1 TB/s-os tempót sikerült elérni olvasás terén még 2024 elején, amelynél egy 68 node-ból álló adattároló részleget használtak, és ezekben egyenként 10 darab 16 TB-os SSD, valamint 2 x 100 Gbps-os hálózati vezérlő dolgozott – és ez akkoriban nagy szó volt.

A 3FS kiemelten fontos volt abban, hogy a DeepSeek AI LLM modelljét kifejezetten költséghatékonyan és eredményesen lehessen tréningezni: az Nvidia DGX-A100-as szerveréhez képest 80%-os teljesítményt sikerült elérni, miközben a bekerülési költség feleannyi volt, a fogyasztás pedig 60%-ra rúgott.

A kifejezetten véletlenszerű olvasási teljesítményre optimalizált 3FS fájlrendszer tehát már elérhető nyílt forráskódú változatban, ami alighanem hamar népszerű lesz az AI szegmens szereplői között, már amennyiben bebizonyosodik, nem kell tartani az alapokat biztosító kínai technológiától. A 3FS-t a GitHub virtuális hasábjain keresztül érhetik el az érdeklődők.

Neked ajánljuk

    Tesztek

      Kapcsolódó cikkek

      Vissza az oldal tetejére