A világbajnokot is legyőzte az AlphaGo

A DeepMind gépi tanulásra képes neurális hálózata öt mérkőzésből négyben megverte Li Szedol dél-koreai góvilágbajnokot.

A világbajnokot is legyőzte az AlphaGo

1. oldal

Az elmúlt napokban újabb fontos eredményt ért el a Google tulajdonában álló DeepMind neurális hálózata, az AlphaGo. A mesterséges rendszer az Európa-bajnok Fan Hui legyőzése után Li Szedol dél-koreai világbajnokot is legyőzte az ősi stratégiai játékban. A kínai eredetű táblajáték összetettsége miatt sokáig kifogott a mesterséges intelligenciák fejlesztőin, holott az elmúlt évtizedek során csaknem minden magasfokú intelligenciát igénylő játékban sikerült a legjobb emberi versenyzőket legyőzni képes gépeket létrehozni. Most azonban ez végre a gó esetében is megvalósult.

Ahogy arról korábbi cikkünkben beszámoltunk, a DeepMind fejlesztői úgynevezett mélytanulás (vagy gépi tanulás) révén sajátíttatták el az AlphaGo-val a játék mesterfogásait. Harminc profi emberi játékos 30 millió lépését táplálták be a rendszerbe, majd saját maga ellen kezdték edzeni a gépet, amely a fejlesztés ezen fázisában egészen új stratégiákat és lépéskombinációkat ötlött ki. A gó legnagyobb nehézsége a lépési lehetőségek óriási számában rejlik, míg ugyanis a sakkban alkalmanként átlagosan 20 lépési lehetőség kínálkozik, a 19x19-es táblán játszott góban ugyanez a szám 200 körüli. És persze mind a kétszáz lehetőség újabb 200 másikat von maga után.

Napjainkban nem létezik olyan mesterséges rendszer, amely ennyi opciót képes lenne egyesével végigzongorázni. A „nyers erő” helyett használták tehát a fejlesztők az edzéseket: a mélytanulás eredményeként a gép képessé vált arra, hogy ne minden opciót, hanem csak a nyerőnek ítélt lehetőségeket vizsgálja meg, és ilyen módon felvegye a versenyt a sokszor rendkívül intuitív módon játszó emberi mesterekkel.

Mielőtt rátérnénk arra, hogy a táblajáték mesteri szintű elsajátításán túl mi tartogat a jövő az AlphaGo és a hasonló rendszerek számára, érdemes kitérni Li Szedol és gépi ellenfele küzdelmére, amely különösen a vége felé vált izgalmassá, és sok dologra rávilágított azzal kapcsolatban, hogy mire képes, és mire nem képes a mesterséges rendszer, illetve az ember. A vetélkedés már a harmadik napon eldőlt, az öt meccsre tervezett sorozatból ugyanis az AlphaGo hármat rögtön megnyert, és ezzel fejlesztői be is zsebelték a megmérettetés 1 millió dolláros fődíját.

Az óriási nyomás alatt álló emberi versenyző azonban a három vereség után fel tudott állni, és a vasárnapi negyedik meccset briliáns játékkal megnyerte. Erre az elemzők értékelése szerint azért volt képes, mert magas szinten alkalmazkodni tudott az előző találkozók alatt megismert ellenfeléhez, amire az AlphaGo viszont még nem képes. Ezt követően az ötödik mérkőzést még nagyobb várakozások előzték meg, mint az elsőt, és bár a meccset végül a gép nyerte, ez az utolsó forduló bizonyult a legizgalmasabbnak, és a legtanulságosabbnak az összes közül.

A gépi játékosnak versenyhelyzetben számos előnye van az emberrel szemben, hiszen nem fárad el és nem izgul, az ötödik meccs során ugyanakkor még a negyedik mérkőzésen látottnál is jobban kiviláglott, hogy mi az AlphaGo legnagyobb gyengéje. A DeepMind rendszere, ahogy már említettük, nem képes az előző napokban megtapasztaltak alapján megváltoztatni stratégiáját, mivel ahhoz, hogy a legfrissebb ismereteket magáévá tegye, hetekig tartó „edzésre” van szüksége.

Mivel erre nem volt idő és lehetőség, az AlphaGo csak abból tudott gazdálkodni, amivel a versenyre érkezett, vagyis nem volt képes menet közben ellenfeléhez igazítani saját játékát. Li Szedolt viszont ebben semmi nem akadályozta meg: ahogy a mérkőzés előre haladt, látszott, hogy mind korábbi győzelméből, mind a vereségekből profitált, és tudását a gép ellen tudta fordítani.

A korábbi meccsekhez képest a dél-koreai jóval gyorsabban játszott. Míg az előző három mérkőzésen rendre időzavarba került, mivel rengeteg idő töltött lépéseinek megtervezésével, az ötödik meccsen 40 perc elteltével ugyanannyi idővel rendelkezett, mint az AlphaGo. Az emberi játékos az előző, győztes meccshez hasonlóan a mérkőzés elejétől fogva agresszív támadásba kezdett, és igyekezett minél több területet elfoglalni.

A negyedik meccset az utólagos elemzések szerint azért tudta megnyerni a dél-koreai, mert a 78. lépésnél olyat lépett, amire az AlphaGo egyáltalán nem számított. Válaszul a gép csaknem végzetes hibát vétett, és innentől nem tudta maga felé billenteni az esélyeket. Az AlphaGo végül egy sor furcsa, kevéssé hatásos lépés után feladta a mérkőzést, mivel nyerési esélyei 20 százalék alá csökkentek.

Az ötödik meccsen nem sikerült hasonlóan váratlant lépnie az emberi versenyzőnek. Az AlphaGo ennek ellenére 1 óra 20 perc elteltével egy elég gyenge lépést produkált, aminek kapcsán az elemzőkben felvetődött az ismételt összeomlás lehetősége. Fontos azonban tudni, hogy hasonló megoldásokra azért is hajlamos a mesterséges rendszer, mivel fő célja a győzelem esélyének növelése, nem pedig a lehető legnagyobb mértékű győzelem elérése. Ennek eredményeként az AlphaGo időnként olyan lépésekkel áll elő, amelyek kifejezetten gyengének tűnnek, hosszabb távon azonban gyümölcsözők lehetnek.

2. oldal

A mérkőzés későbbi szakaszában az AlphaGo egy kifejezetten nagy hibát is vétett, amiből azonban képes volt kimászni. A meccs sorsa sokáig eldöntetlennek tűnt, végül azonban Li Szedolnak ismét problémája akadt az idővel. A DeepMind mérnökei erre a megmérettetésre készülve külön neurális alhálózattal egészítették ki az AlphaGo rendszerét, amely az időbeosztást menedzselte, és úgy tűnik, hogy kiváló munkát végeztek. A dél-koreai végül 5 óra elteltével feladta a meccset, eddigre ugyanis az AlphaGo egyértelműen előnybe került. Azt ugyanakkor az elemzők sem tudták megmondani, hogy hol hibázott az emberi játékos, akinek egyáltalán nem voltak olyan látványos ballépései, mint gépi ellenfelének.

A mérkőzéssorozat az AlphaGo győzelme ellenére megmutatta, hogy a rendszer korántsem tökéletes. Időnként gyermeteg hibákat vét, és nem tud gyorsan alkalmazkodni, így legyőzhető. Ugyanakkor olyan mély gödrökből is képes kimászni, amire az emberi játékosok csak nagyon ritkán alkalmasak, és a gótudásában még fennálló „lyukak” további edzésekkel befoltozhatók lehetnek. Az AlphaGo tehát nem tökéletes, de kétségkívül működő mesterséges intelligencia, amely egy dolgot jobban tud az emberiségnél: gót játszani.

A hasonló mesterséges rendszerek fejlesztőinek célja persze hosszabb távon nem kiváló sakk- vagy góversenyzők létrehozása, még akkor sem, ha a DeepMind alapítója, Demis Hassabis maga is szenvedélyes gójátékos. Ami az AlphaGo-t illeti, ez előbb-utóbb a nagyközönség számára is hozzáférhetővé teszik majd a fejlesztők, hiszen a rendszer két legutóbbi győzelme után világszerte rengeteg gójátékos szeretne megküzdeni a gépi bajnokkal. A cég által létrehozott neurális hálózat ugyanakkor a mélytanulás révén számtalan egyéb célra is alkalmas lehet. Hogy egy rövid időre még a játékok talaján maradjunk, a következő lépést a mesterséges intelligenciák számára a nem teljes információs játékok elsajátítása jelentheti.

Teljes információs játékoknak azokat a játékokat vagy modelleket nevezik a szakértők, amelyekben a szereplők mindegyike tisztában van az összes többi szereplő összes korábbi döntésével. Ilyen a sakk vagy a gó, de egészen más a helyzet a pókerrel vagy az olyan videojátékokkal, mint a például a StarCraft. A Blizzard stratégiai játéka Dél-Koreában már most is annyira népszerű, hogy nagyobb a bajnokságok nézőközönsége stadionokat tölt meg, ez pedig csak fokozódni fog, ha az emberi játékosoknak gépi intelligenciákkal, vagy ez utóbbiaknak egymással kell megküzdeniük.

Ahogy azonban Hassabis is mondja, a gót és más játékokat elsajátító rendszerek tulajdonképpeni célja az, hogy segítségükkel olyan ötleteket teszteljenek a fejlesztők, amelyek egy napon valós problémák megoldására is alkalmazhatók lehetnek. A gépi tanulás mindenütt használható lehet, ahol az adatok gyors elsajátítására és feldolgozására van szükség. A Google már jelenleg is alkalmaz tanulásra képes hálózatokat keresőrendszere és önvezető autói működtetésekor, és ezek a hálózatok rengeteget profitálhatnak azokból a megoldásokból, amelyek az AlphaGo-t mesteri gójátékossá tették.

A DeepMind nagyrészt függetlenül operál a Google többi részétől, ugyanakkor rendszeresen vannak közös projektjei a vállalat más részlegeivel. Ami a „saját” munkákat illeti, az AlphaGo messze nem a cég legnagyobb vállalkozása, hiszen csak 15-en dolgoznak rajta a több száz alkalmazottból. Az egyik nagy projektjük egy, a gót játszó rendszerhez hasonló felépítésű, gépi tanuláson alapuló digitális személyi asszisztens létrehozása, amely nem korlátozott mennyiségű, előre beprogramozott opciót hordoz, hanem valóban „érti”, hogy mit szeretne a felhasználó, és ehhez folyamatosan alkalmazkodik. A másik fontos fejlesztési területet az egészségügy jelentiheti: a DeepMind nemrég partnerségi megállapodást írt alá a brit NHS-szel, bár arról, hogy ennek az együttműködésnek mi lesz a tényleges célja, egyelőre nem sokat tudni.

Ami a másik nagy mesterséges intelligencia fejlesztőt, az IBM-et illeti, ennek rendszere szintén egyre több gyakorlati területen hasznosul. A kognitív tanulásra képes Watsont eredetileg szintén egy játék, a Jeopardy elsajátítására fejlesztették ki. Az egykori szuperszámítógép mára jelentősen átalakult, rendszere a felhőbe költözött, és jelenleg például egy thaiföldi és egy indiai kórház orvosainak segít az emlő-, a tüdő- és a bélrák diagnosztizálásában.

A New York-i Memorial Sloan Kettering Cancer Center munkatársainak részvételével zajló projektben a mesterséges intelligencia tényleges diagnózis felállítására még nem képes, de nagy biztonsággal jelöli meg a gyanús információkat a betegek adatlapján és leletein, így könnyítve meg az orvosok munkáját. A fejlesztők mostanában tehát többek közt látni tanítják a Watsont: a rendszer évek óta analizál képeket, és mostanra jutott el arra a szintre, hogy képi leleteken segítség nélkül képes az anomáliák kiszűrésére.

A mesterséges intelligenciák fontos használati területe lehet a robotika, bár talán ez az alkalmazás áll jelenleg a legtávolabb a tényleges megvalósulástól. A Google az elmúlt években ezt a célt tartva szem előtt több robotikai céget is felvásárolt, köztük a Boston Dynamicsot. Arra ugyanakkor, hogy a fejlesztés alatt álló robotokat egy látáson és egyéb érzékeken alapuló, tanuló rendszer irányítsa, még jónéhány évet várni kell. A DeepMind munkatársait szintén foglalkoztatja a robotika területe. Szerintük az első mesterséges intelligenciával rendelkező robotokat a takarításban és az idős gondozásban lehetne bevetni, de ehhez még rengeteg fejlesztésre van szükség.

Az AlphaGo mostani sikere kétségkívül ráirányította a figyelmet a mesterséges intelligenciák fejlesztésére, még akkor is, ha ez a konkrét rendszer csak egy nagyon szűk területen képes nagyot alkotni. A rendszer elmúlt napokban látott teljesítménye sokak számára lenyűgöző, ugyanakkor többen ijesztőnek is találják, hogy egy gép újabb területen pipálta le az embert. Nem szabad ugyanakkor elfelejteni, hogy az AlphaGo-t emberek építették, emberek tanították meg tanulni, és ha minden jól megy, tudásából is elsősorban mi, emberek fogunk profitálni.

Tesztek

{{ i }}
arrow_backward arrow_forward
{{ content.commentCount }}

{{ content.title }}

{{ content.lead }}
{{ content.rate }} %
{{ content.title }}
{{ totalTranslation }}
{{ orderNumber }}
{{ showMoreLabelTranslation }}
A komment írásához előbb jelentkezz be!
Még nem érkeztek hozzászólások ehhez a cikkhez!
Segíts másoknak, mond el mit gondolsz a cikkről.
{{ showMoreCountLabel }}

Kapcsolódó cikkek

Magazin címlap arrow_forward