A Meta a Microsofttal közösen jelentette be az Llama 2 nagy nyelvi modellt, amivel szeretne az OpenAI által létrehozott GPT-4-nek erős riválist állítani. Erre építve különböző fejlesztők nagyon sok érdekes szolgáltatást húzhatnak majd fel. A két vállalat a már meglévő partnerkapcsolatát erősíti tovább ezzel a lépéssel.
A Google és a Microsoft mellett a Metát szokták még emlegetni azok között, akik Big Tech szereplőként a mesterséges intelligenciát magas szintre emelhetik. A Microsoft pedig annak köszönhetően képes egyre több nagy nyelvi modell és generatív MI rendszer mögé beállni, mivel ezek számára az Azure felhőszolgáltatás révén ideális hátteret tud biztosítani.
A Llama második generációja 40 százalékkal több adat felhasználásával lett tréningezve, mint az eredeti Llama, de más szempontból is fejlődött a nagy nyelvi modell. A Meta publikusan elérhető online adatokkal tanította a rendszerét, de ennél többet nem igazán kívánt elárulni ennek kapcsán. Azt is hozzátette, hogy számos nagy nyelvi modellnél jobban teljesít majd, de itt nem a Google-féle PaLM vagy az OpenAI-tól származó GPT lett példaként említve, hanem az MPT és a Falcon.
Érvelésben, kódolásban és kérdések megválaszolásában is jól fog teljesíteni az Llama 2.
A fejlesztők célja, hogy egy olyan szolgáltatást nyújtsanak az emberek számára, ami nemcsak, hogy hatékony és jól teljesíti a feladatokat, hanem biztonságos és transzparens is. Ezért döntöttek úgy, hogy nyílt alapokra helyezik. Beható külső és belső tesztek révén egyaránt igyekeztek arról meggyőződni, hogy a biztonság szempontjából jól teljesít. Azt is felfedte a Meta, hogyan „tuningolják” és értékelik a modellt házon belül.
Több méretben kínálja majd az új modellt a Meta. Három opcióval indul a Llama 2, 70 milliárd paraméterrel dolgozik majd a legjobb kivitelben, de lesznek „hordozhatóbb” verziók is, ezek 13, illetve 7 milliárd paramétert fognak használni. Rengeteg energiát fordított a Meta a szolgáltatás finomhangolására, emberi erőforrásokat is jelentős mértékben mozgatott meg, hogy a nagy nyelvi modell a lehető legjobban működjön a rajtra.
A transzparencia arra is kiterjed, hogy nyíltan elérhető teszteredményekkel mutatta meg a Meta, hogy a hasonló mennyiségű paraméterrel dolgozó rendszerekhez képest mit tud a Llama 2. A „7B” paraméteres Llama 2 az ugyancsak 7 milliárd paraméterrel dolgozó MPT-t és Falcont is stabilan lekörözi, néha kirívó előnnyel. A 13B paraméteres Llama 2 szinte minden esetben jobban teljesít még a 30B paraméteres MPT-nél is, és néha hozza még a 40B paraméteres Falcon tempóját is.
A Meta minden technikai dokumentációt is szabadon elérhetővé tett a Llama 2-vel kapcsolatosan a nyitottság jegyében. A cég azt is elmondta, hogy állítólag több mint 100 ezer fejlesztő kért hozzáférést az első Llama-hoz, de a teljesen nyíltan és ingyenesen igénybe vehető Llama 2 a várakozások szerint sokkal nagyobb érdeklődést fog kiváltani ennél is.
Azt is megtudhattuk, hogy a Meta és a Microsoft partnerkapcsolatába a Qualcomm is betársult. Kiderült, hogy a chiptervező vállalat egy olyan platformon dolgozik, amely képes lenne az Llama futtatására notebookok keretei között. Tehát egy rendkívüli számítási kapacitással szolgáló ARM lapkát tervez olyan laptopokba, amiken a Windows fut.
Idővel a Qualcomm a technológiát átültethetné okostelefonokba, táblagépekbe és más eszközökbe is. A generatív MI direktben elérhető lehet a jövőben érkező virtuális és kiterjesztett valóság szemüvegekkel is, de a Qualcomm és a Meta együttműködése révén a személygépjárművekben is terjedésnek indulhat. Az összehangolt felállásban ezt ráadásul nemcsak energiahatékonyan lehetne megoldani, hanem a költségeken is lehetne spórolni, miközben minden felhasználó személyre szabott MI élményben részesülne.
A Meta a tervek szerint nemcsak az Azure révén fogja biztosítani a nagy nyelvi modelljét a partnerek és a felhasználók számára, hanem az Amazonnal is együtt dolgozik majd, és az AWS-en keresztül is menni fog ez, és kisebb piaci szereplőkkel is igyekszik majd szerződni, hogy az érdeklődőknek legyen választási lehetősége.