Shop menü

NÉMI KÉSÉST KÖVETŐEN VÉGRE MEGJELENT A MICROSOFT LEGÚJABB AI GYORSÍTÓJA, A MAIA 200

Az újdonság jelentős előrelépést hoz előző generációs társához képest.
Víg Ferenc (J.o.k.e.r)
Víg Ferenc (J.o.k.e.r)
Némi késést követően végre megjelent a Microsoft legújabb AI gyorsítója, a Maia 200

A Microsoft némi csúszást követően végre bejelentette, elkészült a vállalat legújabb AI gyorsítója, ami természetesen a Maia sorozatban foglal helyet és a Maia 200 nevet viseli. Az újdonság jelentős előrelépést képvisel előző generációs társához képest, ugyanis a Microsoft szerint a Maia 200 lényegében 30%-kal magasabb teljesítményt nyújt dolláronkénti bontásban, mint a Maia 100, ami elég komoly fegyvertény.

Az újdonság papíron 50 százalékkal magasabb TDP kerettel gazdálkodhat, mint elődje – erre később még részletesebben is kitérünk –, ami  szintén jelentős változás, cserébe viszont hatalmas teljesítményt kínál az AI modellek dedukciós munkafolyamataihoz, hiszen kifejezetten ezekhez készült. Az új chip ráadásul gyorsabb, mint a rivális Google vagy az Amazon legfrissebb AI gyorsítója, illetve egyes esetekben még az Nvidia Blackwell B300 szintjét is képes elérni.

Galéria megnyitása

Az új AI gyorsító a TSMC 3 nm-es osztályú N3P gyártástechnológiájával készül és összesen 140 milliárd tranzisztorból épül fel, azaz masszív megoldással van dolgunk. Az FP4-es számítási teljesítmény 10 PFLOP/s magasságában helyezkedhet el, így az Amazon Trainium 3-hoz képest háromszor gyorsabb az újdonság, ami elég nagy előrelépés. Az új AI gyorsító mellé 216 GB-nyi HBM3E típusú fedélzeti memória társul, ami 7 TB/s-os memória-sávszélesség elérésére ad lehetőséget, míg magán a chipen 272 MB-nyi SRAM foglal helyet. Utóbbi csempeszintű és fürtszintű bontásban áll rendelkezésre a chipen belül (TSRAM és CSRAM), ami segít a hatékony adatfeldolgozásban, hiszen a munkafolyamatokat igyekszik egyenlően elosztani a rendelkezésre álló HBM memóriachip-szendvicsek, illetve SRAM tömbök között.

A Maia 200 és a konkurens AI gyorsítók legfontosabb paraméterei

Tulajdonság/ModellMicrosoft Azure Maia 200Amazon AWS Trainium 3Nvidia Blackwell GB300 Ultra
Gyártástechnológia N3P N3P 4NP
FP4 számítási teljesítmény 10,14 PFLOP/s 2,517 PFLOP/s 15 PFLOP/s
FP8 számítási teljesítmény 5,072 PFLOP/s 2,517 PFLOP/s 5 PFLOP/s
BF16 számítási teljesítmény 1,268 PFLOP/s 0,671 PFLOP/s 2,5 PFLOP/s
Memória kapacitása és típusa 216 GB | HBM3E 144 GB | HBM3E 288 GB | HBM3E
Memória-sávszélesség 7 TB/s 4,9 TB/s 8 TB/s
TDP keret 750 W N/A 1400 W
Kétirányú adatátviteli sávszélesség 2,8 TB/s 2,56 TB/s 1,8 TB/s

Noha a jelenleg rendelkezésre álló adatok alapján a Maia 100 és a Maia 200 közvetlen összehasonlítására nincs igazán mód, hiszen nem állnak rendelkezésre közös nevezőként használható teljesítményadatok, az Amazon Trainium 3 és az Nvidia Blackwell B300 Ultra mellé azért érdemes odaállítani a friss jövevényt, még ha az külön kereskedelmi forgalomba nem is kerül, csak a Microsoft Azure szervereinek fedélzetén kaphat helyet. Az Amazon AI gyorsítóját gyakorlatilag minden területen felülmúlja a Microsoft újdonsága, néhol többszörös előnyt is fel tud mutatni, a GB300 Ultra azonban már egy teljesen más ligában játszik, ha a teljes képet nézzük.

Galéria megnyitása

Energiahatékonyság terén persze versenyképes a Microsoft újdonsága az Nvidia említett termékével szemben, ami manapság egyre fontosabb szempont a rendszer-üzemeltetők számára, ahogy az AI gyorsítókat tartalmazó adatközpontok áramellátása egyre inkább kihívást jelent. A Maia 200 esetében 750 W-os TDP keret van érvényben, ami jelentősen alacsonyabb, mint a B300 Ultra 1400 W-os TDP kerete, ehhez mérten kellően ütőképesnek tűnik a Microsoft megoldása, főleg, ha hasonlóan teljesít majd a valóságban, mint a Maia 100, ami a Microsoft szerint 700 W helyett inkább 500 W-ot fogyasztott élesben. Ha a Maia 200 fogyasztása a közölt TDP szintjén helyezkedik el, akkor 50%-kal magasabb fogyasztás mellett üzemelhet, de ha élesben elődjéhez hasonlóan megelégszik kevesebb árammal is, az módosíthatja a képet és az előbbi kijelentést is.

Galéria megnyitása

A Maia 200 eredetileg még 2025-ben jelent volna meg és az eredeti tervek alapján még az Nvidia B300-as gyorsítójánál is hamarabb érkezett volna, de a csúszások miatt még csak most rajtolhatott el. Az új chipet már használja a Microsoft az US Central Azure adatközpontban, valamint az US West 3 adatközpont is megkapja majd a nem is oly távoli jövőben, illetve egyéb térségekbe is eljuthat. A heterogén rendszerben dolgozó AI gyorsító egyéb AI gyorsítókkal karöltve dolgozhat majd az egyes adatközpontokban, ezzel kellően hatékony és sokoldalú infrastruktúra áll majd rendelkezésre.

A következő generációs Maia AI gyorsítóval kapcsolatban egyelőre nem jelentek meg konkrétumok, csak annyi sejthető, hogy a termék jó eséllyel az Intel 18A gyártástechnológiájával készülhet, legalábbis a tavaly októberi pletykák még erről szóltak.

Hírlevél feliratkozás
A feliratkozással elfogadom a Felhasználási feltételeket és az Adatvédelmi nyilatkozatot.

Neked ajánljuk

    Tesztek

      Kapcsolódó cikkek

      Vissza az oldal tetejére