A Google az I/O nyitóeseményét szinte kizárólag a mesterséges intelligenciával kapcsolatos fejlesztéseknek szentelte. Ezzel együtt az Android 15 kapcsán is arról beszélt, hogy miként fog az új operációs rendszerbe begyűrűzni az MI.
A Gemini lesz az új személyes asszisztens szolgáltatás, és a tervek szerint érkezik egy új kereső, amit már ez a nyelvi modell fog meghajtani. A Google Assistant az utóbbi időben már folyamatosan egyre jobban a háttérbe szorult, és ez a folyamat a továbbiakban csak még inkább felgyorsulni látszik. A vállalat az eszközökön futó mesterséges intelligenciát is felpörgeti a tervek szerint, és egyre több lesz az „on-device” generatív MI funkció, a meglévő eszközök pedig terjedésnek indulnak.
A Circle to Search 2024 végére már több mint 200 millió androidos okostelefonon lesz elérhető a Google tervei szerint.
A Circle to Search a tavalyi év egyik újítása, az Android 14-gyel karöltve jelent meg, és lépten-nyomon ezt igyekezett reklámozni a cég. A Samsung is átvette az egyszerűsített, a bekarikázásos Google Lens keresőt. Most pedig bejelentette a vállalat, hogy ez új szintre fog lépni, és már a diákoknak is nagyon jól jön majd. „Tanulótárs” lesz a Circle to Search, segíteni fog matematikai feladványok megoldásában. Elég lesz a házit lefényképezni, bekarikázni a megoldandó feladatot, és a szolgáltatás lépésről lépésre kidolgozza az egészet.
Felmerülhet az emberekben az a gondolat, hogy ez mennyire tesz jót a felnövekvő nemzedék számára. A Google is kitért erre, és igyekezett mindenkit megnyugtatni azzal, hogy szerinte ezt nem arra használják majd a fiatalok, hogy egyszerűen csak hamar letudják a feladott házit, hanem értelmezhetik a matematikai feladványokat, látva a levezetést, kibontást. Készül ennek Circle to Search-nek egy még magasabb szintje is, ami már komplex matematikai egyenletekkel is megbirkózik majd, diagramokat, grafikonok fog kezelni. Erre már a LearnLM nyelvi modellt alkalmazza.
Az Android rendszerű mobilokon a Gemini már képes lesz arra, hogy nyomon kövesse, mi történik a kijelzőn, a felhasználók pedig ezzel kapcsolatos utasításokat adhatnak majd neki. Ha éppen egy videót néz az ember a készüléken, és egy jelenettel kapcsolatos kérdése van, elég lesz azonnal a kérdést mondani, nem kell körülírni, hogy mit lát a képen. Az MI feldolgozza a képernyő tartalmát is a kontextuális működés érdekében.
Példaként hozta a Google, hogy YouTube videót is meg lehet majd osztani vele, és összefoglalja annak tartalmát röviden és tömören. De az is megoldható lesz, hogy a felhasználó megnyit egy hosszú és tartalmas dokumentumot, a Gemini pedig abból leszűri azt az információt, amire az embernek éppen szüksége lenne. Ha elromlott egy televízió, megnyitható a készülék használati utasítása, és a Gemini a hibajelenség ismertetését követően megmondhatja majd, hogy mi lehet a megoldás.
Az összefoglalók, videóleiratok készítésére szolgáló funkció integráltan az Androidban nagyon jól hangzik, de azt is hozzá kell tenni, hogy szükség lesz ennek a használatánál a Gemini Advancedre, ami már a cég előfizetéses MI eszköze. Több olyan fejlesztés is jön, ami ehhez kapcsolódik majd, a Google is próbálja az embereket rávezetni arra, hogy minél több szolgáltatásért fizessenek havi díjat. A Gemini Advanced Magyarországon 8790 forintba kerül (Google One AI Premium). Jó hír, hogy ez legalább már 2 TB online tárhellyel is együtt jár.
Mobilon a Google segít majd a tulajdonosoknak átvészelni a mozgalmasabb mindennapokat. Ha nincs előre megtervezett program, a Kereső majd megoldja a mesterséges intelligenciát is munkára fogva. Nem volt idő leszervezni az ebéd helyszínét, vagy váratlanul máshogy alakul az illető napja? A Keresőnek elég lesz megadni a legfontosabb információkat, és rögtön megkeresi azt, hogy hova érdemes beülni például egy ebédre/vacsorára.
Az Android, azon belül is a Pixelek megkapják a Gemini Nano modellt egy továbbfejlesztett változatában. Már a kisebb méretű, kompakt nyelvi modell is képes lesz multimodális működésre, többféle adatformával boldogulhat a munkája során. Ráadásul 10-szer gyorsabb is lesz. A multimodális működés a Google Lens esetében is fontos lesz, hangot és videót egyszerre tud majd feldolgozni, a kamerán látottakról az ember hangban tehet fel kérdéseket, nem kell semmit begépelni.
A hátrányos helyzetű felhasználók eszközhasználatát segítő Talkback is a mesterséges intelligencia révén fog fejlődni az Androidban. Ezen a területen is megjelenik a multimodális működés. Szöveget, képi anyagokat egyaránt kezel majd a generatív MI annak érdekében, hogy például egy látássérültnek megkönnyítse az életét. Ha mondjuk egy ruhát néz az eszköz tulajdonosa, akkor a Talkback nagyon részletesen leírhatja, hogy is néz ki az adott ruhadarab a kép alapján.
A Google korábban bevezette a hívásszűrő funkciót, ami egyelőre még nem üzemel globálisan, de folyamatosan fejlődik. A továbbiakban már a Gemini Nano lesz bevetve az Androidon az átverések kiszűrésére. Itt már konkrétan arról van szó, hogy a helyben futó MI a hívásokat valós időben feldolgozza, „hallja” a beszélgetést, és jelezni fog, ha valami gyanús tevékenységet észlel. Ha mondjuk egy hívásban szóba kerül, hogy valamiért meg kellene adnia a felhasználónak a PIN-kódot, akkor ki fogja írni, hogy egy bank sosem kérne ilyet az ügyfelétől, és felkínálja a hívás azonnali megszakításának lehetőségét.
Hosszú ideje az volt a terv, hogy az Androidot a mesterséges intelligencia teljesen átjárja – állítja a Google.
Az Android 15 első fejlesztői előzetese februárban jelent meg, áprilisban pedig befutott az első béta is. A Google I/O alkalmával a vállalat bejelentette, hogy elkészült az Android 15 béta 2, viszont erről túl sokat nem beszélt a mostani eseményen. Korábban a fejlesztői konferenciák egyik főszereplője az új Android volt, de idén erről is csak a mesterséges intelligenciával kapcsolatos újítások miatt esett szó.