A Samsung félvezető-bérgyártó részlege, a Samsung Foundry nemrégiben igen komoly mérföldkőhöz ért, ugyanis megkezdődött a Baidu speciális AI gyorsítórjának sorozatgyártása a már jól bevált 14 nm-es csíkszélesség használata mellett. A Kunlun kódnévre keresztelt lapka több szempontból is különleges: például azért, mert a Samsung Interposer-Cube 2.5D tokozási technológiáját használja.
A Baidu Kunlun AI gyorsító alapját a vállalat XPU neurális processzor architektúrája adja, amely több ezer apró magot fog össze, így a gyorsító számos különféle feladatra hatékonyan bevethető a felhőben, illetve a hálózatok szélein is. Az új lapka teljesítményére jellemző, hogy a 150 W-os TDP kereten belül maradva másodpercenként akár 260 billió műveletet is el tud végezni (Tillion Operations per Second) ToPS. A gyorsító fedélzetén némi HBM2-es memória is jelen van, méghozzá két lapkaszendvics formájában, amelyek 512 GB/s-os memória-sávszélességet kínálnak.
A Baidu szerint az új chip háromszor gyorsabb, mint az ERNIE (Enhanced Language Representation with Informative Entities) dedukciós alkalmazásban, mint egy klasszikus GPU vagy FPGA, ami igen komoly fegyvertény. A chipet rengeteg feladatra lehet bevetni: használhatják önvezető rendszerekbe, beszédfelismerő rendszerekbe, képfeldolgozásra, illetve mélytanulásra is.
Az újdonság azért képvisel jelentős mérföldkövet, mert az első olyan AI gyorsítók közé tartozik, amelyek már a Samsung Foundry által kifejlesztett I-Cube tokozást használják. Az interposert alkalmazó 2.5D tokozási technológiával számos olyan gyorsító épülhet, amelyeknek magas memória-sávszélességre van szükségük, így a Samsung is kiaknázhatja a HBM2 alapú lapkáiban rejlő lehetőségeket.