Shop menü

100 MILLIÁRD DOLLÁROS SZÖVETSÉGET KÖTÖTT AZ NVIDIA ÉS AZ OPENAI

A stratégai együttműködésből mindkét vállalat profitálhat, a riválisaik viszont aggódhatnak.
Víg Ferenc (J.o.k.e.r)
Víg Ferenc (J.o.k.e.r)
100 milliárd dolláros szövetséget kötött az Nvidia és az OpenAI

Az Nvidia és az OpenAI vezetése egy rendkívül fontos megállapodást írt alá, amelynek értelmében a felek együttműködnek egy speciális terv kapcsán, egyfajta szövetséget alkotva egymással, ami a Reuters által megkérdezett szakértők szerint mindkét fél számára tisztességtelen előnyöket biztosíthat riválisaikkal szemben.

A megállapodás értelmében az Nvidia 100 milliárd dolláros befektetést eszközöl az OpenAI-ban, illetve leszállítja számára azokat az AI gyorsítókat, amelyekre a vállalatnak feltétlenül szüksége van ahhoz, hogy folytathassa a fejlesztéseket az AI szegmensben. Ezzel lényegében az AI piac két legnagyobb szereplője borul össze: az AI gyorsítók piacát uraló Nvidia, illetve a nagy nyelvi modellek szegmensében a legnagyobbak közé tartozó OpenAI, ami tényleg óriási lehetőségeket nyit meg a felek előtt.

A hivatalos bejelentés szerint az említett 100 milliárd dolláros befektetést az Nvidia lépcsőkre bontva aktiválja, a végső cél az lesz, hogy új AI adatközpontok jöhessenek létre, amelyek összesen legalább 10 gigawatt összteljesítménnyel rendelkeznek, a kifizetések pedig gigawattos lépcsőkben, 10 milliárd dolláronkénti bontásban történehtnek. Az első gigawatt-osztályú AI adatközpont még a következő év második felében elkészülhet, méghozzá az Nvidia következő generációs, Vera Rubin alapokra építkező DGX szervereit használva, majd a későbbiekben tovább folytatódik a stratégiai kapcsolat és az újabbnál újabb adatközpontok építése. Ezzel az OpenAI óriási számítási teljesítményhez juthat, ami az AI modellek fejlesztéséhez nélkülözhetetlenül szükséges, míg az Nvidia tovább mélyítheti kapcsolatát az AI szegmens meghatározó szereplőjével, amely egyébként már régóta nagy volumenű rendeléseket ad le a cégnél.

Az OpenAI vezetője és társalapítója, Sam Altman úgy látja, a számításokat végző számítástechnikai infrastruktúra lényegében a jövő gazdaságának alapját adja majd, éppen ezért azt, amit az Nvidiával közösen építenek, arra fogják felhasználni, hogy új áttörést érjenek el az AI szegmensben, valamint arra is, hogy nagyobb léptékben is elérhetővé tegyék a technológiát a vállalkozások és az emberek számára.

Galéria megnyitása

A felek együttműködnek majd abban is, hogy együttes vízióikkal optimalizálják egymás útiterveit, ami remélhetőleg azt eredményezi majd, hogy a hardver és a szoftver között még nagyobb összhang lesz, a teljesítményt és a funkcionalitást még inkább az igényekhez optimalizálják majd, amiből végső soron mindkét fél nyerhet, valamint az AI szegmens is profitálhat belőle. Valamilyen szinten már most is van együttműködés az Nvidia és az ügyfelek között, de a speciális stratégiai együttműködés arra utal, hogy az OpenAI meglátásai nagyobb hatást gyakorolhatnak majd a tervek alakulására, mint korábban. Közben a felek természetesen a meglévő partnerkapcsolatokat is fenntartják majd, illetve minden tekintetben teljesítik vállalásaikat is, így az OpenAI például továbbra is a Microsoft exkluzív AI partnere marad.

A Vera Rubin platform a korábbi hírek szerint szépen menetel a megjelenés felé, augusztus végén sikerült elérni a „tape out” fázist, amelynek keretén belül a tervekből kézzel fogható chipek készültek, mostanság pedig már gyártják is az első tesztpéldányokat, amelyek komoly előrelépést hoznak a jelenlegi megoldásokhoz képest. A Vera Rubin platform a korábbi információk alapján 76 TB-nyi HBM4-es fedélzeti memóriából álló NVL144-es szervereket használhat, amelyek FP4 feladatok terén 3,6 ExaFLOP/s-os, míg FP8-as számítási feladatok esetén 1,2 ExaFLOP/s-os számítási teljesítményt kínálnak – előbbi a dedukciós, utóbbi a tréning alatti teljesítményt takarja. A később érkező Rubin Ultra ehhez képest még komolyabb előrelépést hoz, ugyanis 15 ExaFLOP/s-os FP4-es és 5 ExaFLOP/s-os FP8-as számítási teljesítményt tud felmutatni, de ezt már NVL576-os rendszerrel érik el, azaz egy rack 576 GPU-t tartalmaz majd.

A 10 gigawattos teljesítmény igazából jól hangzik, de az egyelőre kérdés, hogy ezt pontosan hogyan, milyen infrastruktúrával szolgálják ki. Egy átlagos atomerőmű-reaktor jellemzően 1 GW teljesítmény leadására képes, vagyis a 10 GW-nyi AI adatközpont rögtön 10 atomerőmű-reaktornyi teljesítményt igényel, amihez az elektromos áramhálózat fejlesztésére is szükség lesz, de a mikro-erőművek, a szél- és napenergiát használó erőművek, illetve egyéb olyan források is szóba jöhetnek, amelyekkel hatékonyan és tisztán lehet biztosítani az AI adatközpontok által igényelt áramot.

Neked ajánljuk

    Tesztek

      Kapcsolódó cikkek

      Vissza az oldal tetejére