Shop menü

AZ INTEL KORÁBBI VEZÉRIGAZGATÓJA SZERINT A PIAC HIBÁSAN REAGÁLT A KÍNAI DEEPSEEK-RE – Ő INKÁBB NVIDIA RÉSZVÉNYEKET VESZ

A nagy nyelvi modell alaposan felforgatta a piacot.
Víg Ferenc (J.o.k.e.r)
Víg Ferenc (J.o.k.e.r)
Az Intel korábbi vezérigazgatója szerint a piac hibásan reagált a kínai DeepSeek-re – Ő inkább Nvidia részvényeket vesz

A kínai fejlesztésű DeepSeek, ami egy igencsak ütőképes és több szempontból is úttörőnek tekinthető nagy nyelvi modell, hatalmas felfordulást okozott az elmúlt napok folyamán, ami az Nvidia számára különösen fájdalmas volt, már ami a részvény-árfolyam eséséből fakadó veszteséget illeti, az ugyanis közel 600 milliárd dollárra rúgott. A részvény-árfolyam persze szépen lassan ismét vissza fog kúszni, ahogy a piac ismét rendezi sorait.

Az Intel korábbi vezérigazgatója, Pat Gelsinger éppen nemrégiben osztotta meg gondolatait a LinkedIn virtuális hasábjain keresztül a hatalmas piaci felfordulással kapcsolatban, amit a DeepSeek okozott, és kifejtette, szerinte teljesen elhibázott volt a piac reakciója. Ez persze számára mindenképpen jól jött, ugyanis úgy gondolja, az Nvidia részvény-árfolyamának óriási esése remek lehetőséget biztosít arra, hogy részvényeket vásároljon, ugyanis arra számít, hogy a részvény-árfolyam menetelése onnan folytatóik majd, ahol a nagy esés előtt abbamaradt.

A szakember szerint a piac reakciója több szempontból is elhibázott volt, ugyanis szerinte az AI-hoz kapcsolódó költségek csökkenése nemhogy csökkenteni, hanem egyenesen növelni fogja a megcélozható piaci méretét. Nem titkolta, kifejezetten örül ennek az elhibázott reakciónak, hiszen profitálhat az alacsonyabb részvény-árfolyamból – ugyanazért az összegért több részvény ütheti a markát. Gelsinger szerint az elmúlt 5 évtizednyi számítástechnika-történelem alapján három nagyon fontos tanulságot lehet leszűrni, amelyeket egy-egy ilyen esemény alkalmával érdemes szem előtt tartani.

Az első az, hogy azzal, ha a számítási igényhez kapcsolódó költségek csökkennek, nem összezsugorítja a piacot, hanem éppen ellenkezőleg: növelni fogja azt. Szerinte jó példa erre mindaz, ami a PC-k és a mobileszközök szegmensében történt korábban: a technológia fejlődésének köszönhetően egyre szélesebb körben váltak elérhetővé a termékek, amelynek köszönhetően szélesebb piaci rétegeket szólítottak meg, ezáltal több is fogyott belőlük. Szerinte az AI kapcsán ugyanez történik, vagyis ahogy az AI egyre elérhetőbb lesz, úgy egyre szélesebb körben kezdik majd használni, ami végső soron az iparág növekedését eredményezi majd.

A második tanulság az, hogy a megszorítások és a nehézségek kifejezetten hasznosak és fontosak ahhoz, hogy új, innovatív ötletek születhessenek meg és váljanak valóra. Rámutatott, hogy a DeepSeek mögött álló kínai csapat az exportkorlátozások és a rendelkezésre álló limitált erőforrás-mennyiség ellenére is világszínvonalú megoldást hozott létre a szokásos költségek töredékéért. Szerinte ez a találékonyság összhangban van azzal, amit a számítástechnikai úttörőinél korábban tapasztalni lehetett, hiszen ők gyakran jelentős korlátozások mellett érték el legjobb eredményeiket.

A harmadik tanulság az, hogy a nyíltság rendkívül fontos az AI fejlődése kapcsán is. Szerinte aggodalomra ad okoz az az irány, ami a zárt, szabadalmaztatott technológiák köré épülő ökoszisztémák felé mutat, hiszen szerinte a nyitott ökoszisztémák rendszerint jobb eredményekre vezetnek. A nyílt megoldások minden alkalommal nyernek, ha megfelelő lendületet és támogatást kapnak. A DeepSeek szerinte új utat mutat az AI modellekkel kapcsolatos munka területén, ahol az elmúlt időszakban egyre zártabbá vált a környezet.

Noha a fentiekről szóló bejegyzés már önmagában is nagyot ment, ezt lehetett még fokozni azzal is, hogy Pat Gelsinger bejelentette, saját startupjánál, a Gloo-nál már használják a DeepSeek R1-et a mérnökök – ezzel is arra utalva, mekkora jelentősége van az új nagy nyelvi modellnek.

Galéria megnyitása

A DeepSeek egyrészt azért robbant nagyot, mert ingyenesen elérhető bárki számára, nincs előfizetéshez kötve, mint a riválisok megoldásai, valamint velük ellentétben nemcsak távoli szerveren futhat, azaz nemcsak a felhőn keresztül lehet elérni, hanem rendelkezésre állnak disztillált modellek is, amelyek okostelefonon, illetve PC-n is futhatnak. Ezek az eredeti, R1-es kiadáshoz képest jelentősen kevesebb erőforrást igényelnek, igaz, a 70 milliárd paraméterből álló verzió futásához azért még mindig szükség van legalább két darab GeForce RTX 3090 Ti-ra.

Az eddigi tesztek alapján a DeepSeek elég jól teljesít a különböző feladatok alkalmával, egyes esetekben sokkal jobb is, mint közvetlen riválisai, akár még a ChatGPT legfrissebb nagy nyelvi modelljét is képes maga mögé utasítani. Ez azért is nagy fegyvertény, mert a DeepSeek tréningezéséhez jelentősen kevesebb erőforrásra volt szükség, mint amit a riválisok megoldásainál megszokhattunk, ám így is jelentős mennyiségű számítási teljesítményt igényel az LLM, de hatékonyság terén már most is rendkívül impresszívnek mondható.

A fejlesztés természetesen nem áll meg, bőven van még munka a szóban forgó nagy nyelvi modellel annak érdekében, hogy még ütőképesebb és még pontosabb lehessen.

Neked ajánljuk

    Tesztek

      Kapcsolódó cikkek

      Vissza az oldal tetejére