Shop menü

EGY TED KONFERENCIÁN BUKKANT FEL A GOOGLE OKOSSZEMÜVEGE

A Google AR/VR részlegének vezetője viselte az eszközt, és bemutatott néhány érdekes lehetőséget a termék kapcsán.
Szécsi Dániel (DemonDani)
Szécsi Dániel (DemonDani)
Egy TED konferencián bukkant fel a Google okosszemüvege

Az okosszemüvegek fejlesztésében a Google-nek valószínűleg minden más piaci szereplőnél több tapasztalata van már. Hiszen a vállalat a 2010-es évek óta aktívan foglalkozik ezzel a termékkategóriával, noha különösebben nagy sikereket eddig nem tudott elérni. A cég most egy újabb prototípuson dolgozik, ami a napokban egy TED előadáson jelent meg.

Shahram Izadi, a Google kiterjesztett és virtuális valóság fejlesztéseiért felelős vezetője viselte a speciális eszközt. A Google mostanra eljutott arra a szintre, hogy a mesterséges intelligenciát igyekszik integrálni a szemüvegbe. A vállalat már a tavalyi Google I/O alkalmával megvillantotta a multimodális működésre képes MI-vel felruházott szemüvegét. Most a TED konferencián valószínűleg ugyanennek a fejlesztésnek az eredményét láthatta a közönség.

Galéria megnyitása

A Google egyszerre több vasat tart a tűzben, a vállalat a Samsunggal közösen egy fejlett virtuális valóság szemüvegen is dolgozik. Korábban a Samsung, a Google és a Qualcomm együtt számolt be arról, hogy iparági összefogásban dolgoznak azon, hogy ezek az eszközök a jövőben megfelelő formában, funkcionalitással eljuthassanak a vásárlókhoz.

Az okosszemüvegeknek nagyon sok érdekes funkciója lehet, és a Google prototípusa kapcsán a TED konferencián több érdekességet is láthatott élesben a közönség. A szemüveg képes tolmácsként funkcionálni, különböző nyelvek között fordítani. A színpadon élesben fordított angol és perzsa nyelvek között, amit Shahram Izadi a Google termékmenedzserével, Nishtha Bhatiával mutatott be. A szemüveg rendelkezik kamerával, és megjelenítővel egyaránt. Egy idegen nyelven írt szöveget le tud úgy fordítani, hogy a kijelzőn írja ár a szöveget, valamint grafikonokat tud elemezni, és az értelmezéshez szöveges infót tud adni.

Galéria megnyitása

A szemüvegnek érintésérzékeny szára van, a megtapintásával lehet különböző gesztusokkal vezérelni, így kapcsolható be az MI alapú digitális asszisztens szolgáltatás is. A Google a Geminit használja a szemüvegben, ami persze nem meglepő, hiszen az utóbbi időben már jóformán csak erre fókuszált néhány kisebb relevanciával bíró projekt mellett. Fontos része a prototípus eszköznek a Gemini Live szolgáltatás mögött is elérhető hangalapú természetes nyelvi eszköz. A Gemini Live mostanra a gép látást is megkapta, ami a demó során használt szemüvegnek is része.

Izadi és Bhatia a TED-en megmutatta azt is, hogy a szemüvegnek van saját „memóriája”. Képes visszaemlékezni azokra a dolgokra, amiket a használat alatt látott. A Google ezt a képességét is megvillantotta már a szemüvegnek tavaly, de most élőben láthatták az emberek, hogy mennyire hatékonyan működik ez a valóságban. A készülékbe ágyazott MI a folyamatos képfeldolgozással képes arra, hogy megmondja a felhasználónak például azt, hogy hol láthatta utoljára az okostelefonját, vagy milyen telefonszám szerepelt azon a névjegyen, amit korábban látott.

Az okosszemüveg kezeli a Google szolgáltatásokat a kapcsolódó okostelefonon keresztül. Bármilyen Google alkalmazással kapcsolatos utasítást lehet neki adni, képes információkat beszerezni a Gmail levelekből, látja a tervezett találkozókat a Google Naptárban, és így tovább. Ha zenét akar hallgatni az ember, akkor lehet a YouTube Music elindítására utasítani a kiegészítőt, és a Google Tékrépen indított navigációhoz is tudja az adatokat közvetíteni, így a felhasználónak vezetés közben le sem kell vennie a szemét az útról.

Egyelőre arról nincs szó, hogy a Google ezt a szemüveget kereskedelmi forgalomba szánná, de nem tudni, hogy mit hoz a jövő. A cég talán a Samsung márkaneve alatt fog bevezetni olyan terméket, ami erre a technológiára épít.

Neked ajánljuk

    Tesztek

      Kapcsolódó cikkek

      Vissza az oldal tetejére