Shop menü

AZ NVIDIA FINOMHANGOLTA A LLAMA 3.1-ET, ÉS BEELŐZTE AZ OPENAI LEGJOBB MODELLJÉT

Kisebb paraméterkészlet mellett is jobbnak bizonyult az Nvidia által optimalizált modell, mint a GPT-4o vagy a Claude 3.5 Sonnet.
Szécsi Dániel (DemonDani)
Szécsi Dániel (DemonDani)
Az Nvidia finomhangolta a Llama 3.1-et, és beelőzte az OpenAI legjobb modelljét

Az Nvidia az elmúlt 2 évben brutálisan nagyra nőtt a mesterséges intelligencia vállain, és a cég éppen ezért folyamatosan dolgozik azon, hogy az MI-nek, nyelvi modelleknek jobban kedvezzen. Szinte minden nagy techcéggel szoros kapcsolatot ápolnak a zöldek, és most a Metával közösen egy egészen érdeked projektet mutattak be.

A Meta és az Nvidia együtt létrehozott egy magas szinten optimalizált nyelvi modellt, ami kisebb méret mellett képes felvenni a versenyt sokkal nagyobb modellekkel is. A Llama 3.1 Nemotron 70 milliárd paraméterrel dolgozik, és a legjobbak közé sorolják az előzetes teszteredményei.

A fejlesztők célja az volt a Llama-3.1-Nemotron-70B-Instruct modellel, hogy megmutassák, mit ki lehet hozni egy olyan nyelvi modellből, amit nagy odafigyelés mellett optimalizálnak. A Llama 3.1 a Meta saját fejlesztése, a Nemotron kivitelt azonban már az Nvidia átalakította annak megfelelően, hogy jobb minőségű, pontosabb legyen a nagy nyelvi modell által előállított válasz.

A 70 milliárd paraméteres nyelvi modellek már nem kicsik, de látni kell azt, hogy vannak ennél sokkal nagyobbak, bőven 100 milliárd feletti paraméterszámmal dolgozó megoldások is, és a Llama 3.1 Nemotron összességében a legjobbak közé sorolt be az eredményei alapján. Azért fontos, hogy kisebb méret mellett tudják elérni a nagyobb pontosságot, mert ilyen formában jelentősen lehet javítani a mesterséges intelligencia hatékonyságán. Lecsökkenthető az üzemeltetés költsége.

Az Arena Hard mesterséges intelligencia tesztben 85 pontos eredményt tudott összehozni a Llama 3.1 Nemotron, miközben az OpenAI által fejlesztett GPT-4o csak 79,3 pontot produkál ugyanolyan körülmények között, a Claude 3.5 Sonnet pedig 79,2 pontot tud felmutatni. A RewardBench keretében összesítve 94.1 pontot hozott össze a GPT-4o 86,7 pontja ellenében.

Több tesztet is fel lehet sorolni, amikben diadalmaskodik az Nvidia által finomhangolt Llama nyelvi modell. Az AlpacaEval megmérettetésben már csak egy hajszállal győz, de 57,6 pontot ér el a GPT-4o 57,5 pontja ellenében, a Claude 3.5 Sonnet pedig 52,4 ponttal szerénykedik. Az összetett MT Bench tesztben pedig 8.98 pontot tud összehozni 8,81 (Claude 3.5 Sonnet) és 8,74 pont (GPT-4o) ellenében. (Persze a tesztek egy részére valószínűleg fel is készítették a modellt, mert apró simlisségeket fel lehet fedezni. A „strawberry” tesztet gond nélkül veszi, vagyis meg tudja számolni, mennyiszer szerepel egy betű a strawberry szóban, de a legtöbbször használt példán túl már elvérzik, más szóba beletörik a bicskája.)

Az Llama 3.1 Nemotron kiválóan teljesít olyan tesztekben, amikben a chatbot képességeket mérik fel, az Nvidiánál chatbotként bárki ki is próbálhatja működés közben. Az átlagosnál pontosabb válaszokat tud adni, kevesebbet hallucinál, és remek csevegőpartnernek bizonyulhat. Hatékonyan képes érvelési feladatokat végrehajtani. Programozásban is szépen teljesít, képes a GPT-4o-nak kihívást jelentő feladatokat is gond nélkül teljesíteni. A kontextuális adatkezelésben is magabiztosabb a riválisoknál, így a nagyobb terjedelmű adatok feldolgozásában is jó partnernek bizonyulhat.

Galéria megnyitása

Az Nvidia azzal érte el a pontosság és hatékonyság növekedést a finomhangolás során, hogy a tanításra kiemelt figyelmet szentelt. Olyan anyagokat alkalmazott, mint például a felügyelt adatok, amik ellenőrzött forrásból származnak, tehát nem szívott magában pontatlan vagy félrevezető információkat. Továbbá a megerősítéses tanulást is használtak emberi visszajelzésekkel (RLHF - reinforcement learning from human feedback). Ez a kettős megközelítés egyrészt biztosítja a pontosságot, másrészt az emberi preferenciákhoz igazodást is garantálja.

Lehet helyben futtatni az Nvidia által optimalizált Llama 3.1 Nemotron modellt, ehhez azonban 160 GB-nyi VRAM-ra van szükség. Az iránymutatás szerint vagy négy darab 40 GB VRAM-mal rendelkező kártyára van szükség, vagy két darab 80 GB-ot biztosító eszkzöre. Az Nvidia A100 és H100 gyorsítókártya rendelkeznek ennyi HBM technológiás VRAM-mal.

Neked ajánljuk

    Tesztek

      Kapcsolódó cikkek

      Vissza az oldal tetejére