Shop menü

ETCHED SOHU AI: EGY ÚJ AI GYORSÍTÓ, AMI 20-SZOR AKKORA TELJESÍTMÉNYT KÍNÁL, MINT AZ NVIDIA H100-ASA, ÉS MÉG OLCSÓBB IS NÁLA

8 darab Sohu ASIC által állítólag 160 darab H100-as gyorsítót lehet kiváltani, már ami a nagy nyelvi modellekkel kapcsolatos feladatok gyorsítását illeti. Az új chip kifejezetten a transformer modell köré épülő LLM-ekhez készült.
Víg Ferenc (J.o.k.e.r)
Víg Ferenc (J.o.k.e.r)
Etched Sohu AI: egy új AI gyorsító, ami 20-szor akkora teljesítményt kínál, mint az Nvidia H100-asa, és még olcsóbb is nála

Az Nvidia jelenleg egyeduralkodónak mondható az AI és HPC piacra szánt gyorsítók szegmensében, és ez a helyzet egyelőre nem is igazán változik, de a háttérben már készülnek a riválisok következő generációs megoldásai, amelyekkel ki lehet majd fogni némi szelet az Nvidia vitorlájából. Úgy tűnik, a vállalatnak nem is igazán az Intel vagy az AMD következő generációs termékeitől kell majd tartania, hanem egy új startup, az Etched által kifejlesztett speciális ASIC chiptől, ami a Sohu nevet viseli, és amelynek fejlesztése még 2022-ben megindult, amikor a ChatGPT és a hozzá hasonló nagy nyelvi modellek még nem hódították meg a piacot.

A Sohu névre keresztelt gyorsító azzal hívta fel magára a figyelmet, hogy a mögötte álló fejlesztőcsapat azt állítja, a termék akár 20x gyorsabb lehet bizonyos feladatok elvégzésében, mint az Nvidia H100-as gyorsítója, amely iránt óriási a kereslet manapság, extraként pedig az új ASIC még olcsóbb és kevesebbet is fogyaszt, mint említett riválisa. Az Etched szakemberei szerint egy 8 darab Sohu gyorsítóból álló szerver a nagy nyelvi modellekkel kapcsolatos dedukciós feladatok gyorsításakor akkora teljesítményt kínál, mint egy 160 darab H100-as gyorsítóból álló szerver. Ez nemcsak költséghatékonyabb hardverbeszerzést jelent, de ezzel együtt sokkal energiahatékonyabb működést is, hiszen a 160 darab H100-as gyorsító helyét mindössze 8 darab Sohu gyorsító veheti át.

Galéria megnyitása

Az Etched fejlesztőcsapata szerint a kulcs az, hogy a jelenlegi AI gyorsítókat, legyen szó processzorokról vagy grafikus processzorokról, úgy tervezték meg anno, hogy kompatibilisek lehessenek a különböző AI architektúrákkal . A különböző keretrendszerekkel és dizájnokkal való kompatibilitás biztosítása érdekében az adott hardvernek számos AI modellt kell támogatnia, éppen ezért a jelenlegi AI gyorsítók jelentős részénél a számítási teljesítmény jelentős része a programozhatóságra megy el.

A legtöbb nagy nyelvi modell (LLM) esetében mátrixszorzás alapú műveleteket kell elvégezni a számítási feladatok teljesítéséhez, ebben a feladattípusban az Nvidia H100-as gyorsítója mindössze a teljes tranzisztorbüdzsé 3,3%-át használja, pedig kulcsfontosságú feladatról van szó. Ez azt jelenti, hogy a maradék 96,7%-nyi „lapkaterület” egyéb feladatokra van fenntartva, ami az általános célú AI gyorsító chipek szemszögéből nézve szükséges döntésnek bizonyulhatott, hiszen így biztosítható a széles körű kompatibilitás.

Galéria megnyitása

A bökkenő az, hogy jelenleg a transformer modell köré épülő megoldások a legnépszerűbbek, és az Etched által kifejlesztett Sohu ASIC pont erre a típusra koncentrál. 2022 környékén, amikor a ChatGPT még nem volt elérhető, a Sohu projektet úgy indították el, hogy a fő fókusz a transformer architektúrára korlátozódott, igaz, akkoriban még nem lehetett tudni, melyik modell lesz majd a befutó. A dolgok jelenlegi állása szerint úgy tűnik, az Etched fejlesztői „jó lóra tettek”, hiszen a ChatGPT mellett a Sora, a Gemini, a Stable Diffusion és a DALL-E is transformer model alapokra építkezik, vagyis hatékonyan tudja őket gyorsítani a Sohu ASIC.

A Sohu ASIC a fentiek alapján egy igencsak erős kihívója lehet majd az Nvidia Hopper és Blackwell alapú AI gyorsítóinak, már amennyiben a fentebb említett tranformer model alapú feladatvégzést kell gyorsítani. A Sohu igazából csak és kizárólag ebben jó, nem annyira sokoldalú, mint egy Nvidia H100 vagy B200, csak a transformer model gyorsítását tudja hatékonyan megoldani, abban viszont nagyságrendekkel jobb, mint az Nvidia megoldásai. Amennyiben csak azok a vállalatok térnek át a Sohu termékeire, akik a transofmer model alapú LLM-eket használják, már az is rendkívül komoly érvágás lehet az Nvidia számára.

Galéria megnyitása

Az adatközpontok üzemeltetői az új chip jóvoltából sokkal költség- és energiahatékonyabban végezhetik el az LLM-ek dedukciós feladatait, a chipek ráadásul olcsóbbak is lesznek, mint az Nvidia termékei, valamint sokkal kevesebbet is fogyasztanak, ami szintén lényeges szempont. A trónfosztás persze nem lesz egy egyszerű feladat, pont azért, mert a Sohu ASIC csak egy feladatra jó, de arra nagyon, míg az Nvidia gyorsítói sokkal sokoldalúbbak, illetve a CUDA ökoszisztéma is mellettük szól, amitől az Intel szerint ugyan szabadulna az iparág, de egyelőre még elég erősen rá vannak utalva, ez viszont már egy másik történet…

Hírlevél feliratkozás
A feliratkozással elfogadom a Felhasználási feltételeket és az Adatvédelmi nyilatkozatot.

Neked ajánljuk

    Tesztek

      Kapcsolódó cikkek

      Vissza az oldal tetejére