Shop menü

GEMINI NÉVEN JÖTT A GOOGLE MINDEN EDDIGINÉL NAGYOBB TUDÁSÚ MI MODELLJE

A Gemini óriási potenciált rejt magában a vállalat szerint, és a jövőben számos területen kerülhet bevetésre a Google szolgáltatások és más alkalmazások mögött.
Szécsi Dániel (DemonDani)
Szécsi Dániel (DemonDani)
Gemini néven jött a Google minden eddiginél nagyobb tudású MI modellje

A Google egy kicsit lemaradt a nagy mesterséges intelligencia versenyben az OpenAI és a Microsoft párosa mögött, de a keresőóriás minden erejével arra fókuszál, hogy ezen a helyzeten változtasson. Most itt a teljesen új nagy nyelvi modell, aminek az érkezését a Google I/O keretében jelentették be.

A generatív MI funkciók működése, azok hatékonysága és kihasználhatósága jelentős mértékben azon múlik, hogy a mögöttük álló nagy nyelvi modell (LLM) mit „enged”. A Google több különböző LLM rendszeren is dolgozik párhuzamosan. Vannak olyan megoldásai, amik egy-egy felhasználási módra vannak kihegyezve, és vannak általánosan alkalmazhatók. A most leleplezett Gemini 1.0 is egy ilyen általános nyelvi modell, melynél az alkotók teljes egészében a rugalmasságot és a sokoldalúságot helyezték az előtérbe.

Galéria megnyitása

Három különböző „méretben” lesz majd elérhető a Gemini, és mindegyik modellt hangzatos nevekkel illeti a Google ahelyett, hogy a paraméterek számát emelnék ki, mint mások. A Gemini Ultra jelenti majd a csúcsot, ez a legnagyobb, minden funkciót magas szinten biztosító modell az új fejlesztés tekintetében. A Gemini Pro egy jól méretezhető, széles körben alkalmazható opció lesz, a Gemini Nano pedig egy „hordozható” megoldás offline futtatásra felkészítve, persze ebből eredően korlátozottabb képességekkel.

Galéria megnyitása

A tervek szerint a Gemini Ultra adatközpontokban, nagy mennyiségű információ feldolgozására lesz használható, hatalmas vállalati infrastruktúrák részeként lesz bevethető a jövőben. A Gemini Pro kerül majd a hétköznapi, de komplex szolgáltatások mögé, például a Google szolgáltatások javát is ez szolgálhatja majd ki. A Gemini Nano pedig már akár mobilappokba is integrálva lehet, natívan futhat androidos környezetben.

Galéria megnyitása

A vállalat nem úgy jelentette be a Geminit most, hogy majd a jövőben lesznek olyan dolgok, ahol ez kerül bevetésre, hanem egyből élesítették is. Az első és legfontosabb, hogy a Bard már erre épül, egészen pontosan a Gemini Pro dolgozik majd a generatív MI chatbot mögött. A Gemini Nano pedig a Pixel 8 Pro okostelefonon csillogtathatja majd meg a tudását, több kisebb-nagyobb funkciót is ellát majd ez úgy, hogy közben nem igényel internetkapcsolatot a mobil, és kiemelkedő biztonságról gondoskodik a helyben kezelt adatok miatt.

Fejlesztőknek és vállalati felhasználóknak a Gemini Pro rövidesen, még december első felében elérhetővé válik. A Google Generative AI Studio és a Vertex AI eszközökön keresztül lehet majd ezt tanulmányozni, munkára fogni a Google Cloudra támaszkodva. Első körben csak angol nyelven üzemel az új nagy nyelvi modell, ami mindenképpen szomorú egy kicsit, de belátható időn belül szélesebb nyelvtámogatás is megoldott lehet.

Galéria megnyitása

A jövőben a Google a Geminit mindenhova eljuttatná. A tervek szerint ezt az LLM rendszert megkapja majd a vállalat keresőmotorja, hogy ezáltal még hatékonyabb legyen, a Google Chrome böngészőben is megjelenthet, a cég irodai szolgáltatásait is átszőheti, sőt mi több, elvileg még a hirdetési platformba is utat találnak ennek. Ilyen formán a nagy nyelvi modell tovább pörgetheti a cég aranytojást tojó tyúkját, hiszen a Google bevételeinek jelentős többsége származik a reklámokból.

Fontos kérdés, hogy a Gemini mire lesz képes a legnagyobb ellenfeléhez, a GPT-4-hez képest. A Google pedig minden jel szerint eléggé magabiztos abban, hogy az újdonsága túlmutat az OpenAI fejlesztésén, noha azt is látni kell, hogy a GPT-4 azért nem mostanában debütált. 32 különböző, széles kört lefedő tesztprogramot és 30 esetben a Gemini jött ki győztesen a megmérettetésekből. Voltak szoros pillanatok, de volt olyan eset is, mikor a fölény jelentős méretet öltött.

A Gemini egyik nagy erénye, hogy teljesen az alapoktól úgy tervezték, hogy többféle adatformával tudjon dolgozni. Szöveges, képi és hanganyagokon egyaránt tréningezte a vállalat az új nagy nyelvi modellt, miközben az OpenAI esetén ez egészen máshogy működik. A jövő mindenképpen a Gemini által járt út, hiszen ezáltal lehet olyan mesterséges intelligenciát létrehozni, ami ténylegesen képes megérteni egészen komplex dolgokat is, és nagyon flexibilisen használható.

Kiemelte a Google, hogy izgalmas volt a projektnek az a része, hogy milyen eredménnyel jár majd, hogy nem külön-külön tréningezik az LLM rendszert a különböző felhasználási formákra. A jelek szerint egyelőre eléggé jól szolgál így a Gemini, és a cég hangsúlyozta, hogy ezáltal lesz az MI lényegesen hatékonyabb. Minden eddiginél több olyan feladat lesz ezáltal, amiben az embereket übereli a nyelvi modell. Elhintette a cég, hogy idővel olyen érzékelési formák is lehetnek bemeneti adatok, mint a tapintás, vagy mozgás, de ez először a Gemini Ultránál lesz érdekes.

Programozásban is nagyon jó lesz a Gemini, ezen a fronton jön az AlphaCode 2 rendszer. A vállalat elmondása szerint az átlagos emberi riválisoknál akár 85 százalékkal jobban teljesíthet a különböző kódolással kapcsolatos feladatokban, miközben az AlphaCode-höz képest is több mint 50 százalékos fejlődést mutat majd a Gemini alapú platform. Számos szoftverfejlesztési feladatot lehet majd rábízni a rendszerre.

Galéria megnyitása

Arra is kénytelen volt kitérni a Google, hogy az új LLM rendszer sem hibátlan. Továbbra is számolni kell azzal, hogy hallucinálhat, téves megállapításokra juthat vagy a valóságnak nem megfelelő információkat tálalhat tényként. Ez lényegében az összes ilyen megoldásra igaz jelenleg, és jó eséllyel még nagyon sokáig így is marad ez. A generatív MI hiába lesz egyre pontosabb az újabb és újabb alapokkal, azért az állításait továbbra is érdemes lehetőség szerint ellenőrizni.

Arról is beszélt a Google, hogy a hatékonyságot tekintve is hatalmas előrelépést hoz a Gemini, házon belül ezt a PaLM-hoz lehet mérni, és kiderült, hogy egyszerre lett az új nagy nyelvi modell lényegesen gyorsabb és olcsóbban futtatható. Teljesen úgy tervezték, hogy a cég rendelkezésére álló leghatékonyabb hardvereket használja ki a lehető legnagyobb mértékben. A vállalat saját Tensor feldolgozó egységeit használja ki elsődlegesen.

A vállalat elindít egy új TPU rendszert is a Geminivel együtt, ami ugyancsak fejlettebb lesz. A TPU v5p MI gyorsító úgy lett kialakítva, hogy adatközpontokban kiemelkedő teljesítményt biztosítson a tréningezési folyamatok közben. Valamint kiemelkedő hatékonyság mellett gondoskodjon a nagy méretű modellek mozgatásáról minden körülmények között.

Galéria megnyitása

Végezetül arról is szót ejtett a Google, hogy a biztonságra is nagy figyelmet szenteltek, minden eddiginél megbízhatóbban üzemel majd az újdonság, ami főleg a vállalatok szempontjából lesz érdekes. Mivel a generatív MI-vel a céges partnereken keresztül lehet jelenleg komoly bevételeket elérni, így fontos szempont volt, hogy ennek a közönségnek is kedvezzen.

Neked ajánljuk

    Tesztek

      Kapcsolódó cikkek

      Vissza az oldal tetejére