A Google röviddel az I/O fejlesztői konferencia előtt lezavart a kisebb “The Android Show” eseményt. Ennek keretében pedig ugyanúgy jelentős szerepet kapott az MI, mint ahogy arra a Google I/O kapcsán is számítani lehet, persze az Android ökoszisztémával kapcsolatos bejelentések kerültek a középpontba.
A Gemini minden eddiginél többre lesz képes, ennek eredményeként jön a Gemini Intelligence, ami már a legjobb funkciókat fogja össze, és a készülékek proaktív működésére fog fókuszálni. Eddig a mobilokon a Gemini a szöveget és a hangot tudta valós időben kezelni, a jövőben viszont már a képi anyagokra is rálátást kap; a multimodális működéssel együtt nyílik meg a lehetőség az önállósodó eszközvezérlésre.
Hardveres és szoftveres innovációk együtt teremtették meg azt a hátteret, ami lehetővé teszi, hogy a Gemini képes legyen az automatizált munkára. A Galaxy S26 szériánál látott lehetőségeket az Android 17-tel kiterjeszti a Google a támogatott Pixelekre, később pedig más gyártók termékeire is.
A Gemini képes lesz több applikáción keresztül a felhasználó által kiadott feladatokat végrehajtani. A folyamatot állandó figyelemmel lehet kísérni a megjelenítőn, eközben a képernyő szélén körbe színes animáció látszik majd, a Gemini munkáját jelezve. Bármikor beavatkozhat a felhasználó, így megelőzhető, hogy valamit az emberek tudomása nélkül rosszul csináljon a generatív mesterséges intelligencia.
Jön a Chrome-ban is az automatizált böngészés a Geminivel, ennek elérésére megjelenik majd egy Gemini gomb. A böngészőn belül is képes lesz megoldani feladatokat a Gemini, például intézi az utazások foglalásait. Ennek során a személyes adatok önálló megadását a Personal Intelligence fogja intézni. Ezt a funkciót is kiterjeszti a Google, bármilyen alkalmazásban képes lesz a Gemini Intelligence a Personal Intelligence-t bevonni a munkába, mikor személyes adatokat kell megadni.
Arra is képes lehet a rendszer, hogy például a Google Fotók képekről halásszon le például rendszám információt, hogy képes legyen megváltani egy autópálya használati engedélyt önállóan.
A Gemini Intelligence ernyője alatt a Google behozza az Android 17-tel a widgetek létrehozásának lehetőségét is. “Create my widget” címszó alatt jön ez a funkció, és lehetővé teszi majd a felhasználóknak, hogy természetes nyelvi paranccsal hozzanak létre egészen egyedi widgetet olyan adatokkal, amik a saját igényeiknek megfelelnek.
Egy kerékpáros például létrehozhat egy olyan widgetet, amin a várható szélerősség és a csapadék lehetősége rajzolódik ki elsődlegesen, és a hőmérséklet csak mellékesen jelenik meg. További érdekessége ennek a fejlesztésnek, hogy az egyedi widgeteket át lehet majd vinni a Wear OS rendszerű okosórákra is. A Google arról beszélt, hogy ez a fejlesztés fontos lépés a “generatív UI” felé.
Végül bejelentette a Google a Ramblert is a Gemini Intelligence-en belül. A Rambler egy fejlett beszéd-szöveg konverter, ami a diktált dolgokat letisztítva fogja átírni digitális szöveggé. Mire gondolunk itt? Például amikor a felhasználó “ő-zik” vagy hümmög, esetleg megismétel egy szót, azokat magától kivágja, a lényeges információt emeli ki. Továbbá meg is gondolhatja magát az ember, mondhatja, hogy egy találkozó legyen inkább másik helyen, időben. Elsősorban üzenet diktálására szolgál majd ez a Google szerint, de bármi mást, például bevásárlólistát is lehet majd így írni.
Az újítások teljes kihasználásához a felhasználóknak be kell fizetniük a Geminire, minimum a Google AI Pro csomagra van szükség például a Chrome-ban elérhető Gemini használatára. Továbbá ezek nem mennek majd minden Android 17 által támogatott készüléken, de azt most még nem látjuk, hogy pontosan milyen korlátai lesznek a Gemini Intelligence-nek.