Shop menü

A DEEPMIND RENDSZERE LEGYŐZTE EURÓPA LEGJOBB GÓJÁTÉKOSÁT

A szakértők évtizedek óta próbálnak olyan mesterséges rendszereket létrehozni, amelyek a legjobb emberi játékosoknál is jobbak a sakknál is összetettebb játékban.
Jools _
Jools _
A DeepMind rendszere legyőzte Európa legjobb gójátékosát

1. oldal

Jelentős eredményt hoztak nyilvánosságra a héten a mesterséges intelligenciák kutatásának területén, a Google tulajdonában lévő DeepMindrendszere ugyanis legyőztea gó nevű játékban a legutóbbi három Európa-bajnokság győztesét, a kínai születésű, francia színekben szereplő Fan Huit. A hír azért különösen érdekes, mert a stratégián és intuíción alapuló ősi táblás játék évtizedek óta rendre kifogott az intelligens rendszereken dolgozókon.

Az utóbbi években csaknem minden olyan játékban sikerült az legjobb emberi játékosokat legyőző gépeket alkotni, amelyeket az intelligencia fokmérőinek tekintünk, ide értve a sakkot, a Scrabble-t, a reversit és a tévés Jeopardyt is. A gó azonban, amely a hozzáértők szerint a sakknál is összetettebb játék, mostanáig emberi uralom alatt maradt. Néhány nem a Google alkalmazásában álló mesterséges intelligencia szakértő még néhány hete is azon a véleményen volt, hogy még egy jó darabig nem kerül sor arra, hogy egy számítógép megverjen egy vezető gójátékost.

A Google által 2014-ben 400 millió dollárért megvásárolt DeepMind kutatói azonban meglépték, amit sokan lehetetlennek hittek. A várva várt mérkőzésre tavaly októberben került sor a cég londoni székhelyén. Ennek során a DeepMind rendszere, az AlphaGo egymás után öt alkalommal győzte le a kontinens legjobbját. A mérkőzésnek tanúja volt a Nature egyik szerkesztője és a Brit Gószövetség egy képviselője is. „Karrierem legizgalmasabb pillanatait éltem át, mind kutatóként, mind újságíróként” ‒ emlékszik vissza Tanguy Chouard, a Nature szerkesztője az eseményre.

Galéria megnyitása

A héten a Nature oldalain megjelent egy tanulmány, amely részletesen beszámol a DeepMind rendszerének működéséről, és arról, hogyan volt képes a gép a győzelemre. Az AlphaGo legnagyobb fegyvere az úgynevezett mélytanulás (deep learning). A fejlesztők 30 profi gójátékos összesen 30 millió lépését táplálták be a rendszerbe, ez azonban csak a projekt kezdeti lépése volt. A következő fázisban annak érdekében, hogy a gép jobb legyen bármilyen emberi játékosnál, megkezdődtek az „edzések”. Az AlphaGo ezek során saját maga ellen játszott, és közben új lépéskombinációkat ötlött ki, amelyek aztán elősegítették az emberi játékos legyőzését.

Az AlphaGo tehát jóval több egy méretes adatbázisánál, amely gondosan felépített szabályok alapján alkalmazza a beletáplált lépéseket. A fejlesztés egy olyan jövő felé vezet, amelyben a való világban mozgó robotok élesben lesznek képesek új feladatokat elsajátítani, és a környezet változásaira is reagálni tudnak. A DeepMind persze nem az cég, amely ezen dolgozik, a Google, a Facebook és a Microsoft online szolgáltatásai már jelenleg is alkalmazzák a mélytanulást, hogy képeket, szavakat és egyéb információkat ismerjenek fel.

Demis Hassabis, a DeepMind alapítója szerint a gépi tanulás a tudományos kutatásokat is előrelendítheti. A szakértő úgy véli, hogy néhány év múlva a kutatók mesterséges intelligenciákkal együttműködve fognak dolgozni, ami egyrészt megkönnyítheti az adatfeldolgozást és gyorsabbá teheti az elemző munkát, másrészt a gépek a következő lépésekre is javaslatokat tehetnek, segítve az emberi szakértőket a tudományos áttörések felé vezető úton.

A góeredményre visszatérve, a megmérettetésnek még nincs vége, ami az AlphaGo-t illeti. Fan Hui zárt ajtók mögött történt legyőzése után Hassabis és csapata most egy nyílt mérkőzés megszervezésén munkálkodik. A március közepére tervezett találkozón a világ egyik legsikeresebb játékosával, Lee Sedollal fog megmérkőzni a gép Dél-Koreában.

Galéria megnyitása

Az AlphaGo októberi sikerét megelőzően a legnagyobb győzelmet emberi játékos ellen 2014 elején Rémi Coulom gószoftvere, a Crazystoneérte el, amely egy japán versenyen legyőzte Yoda Norimotót. Ez a mérkőzés azonban nem volt teljesen kiegyenlített, hiszen a gép négy lépéses előnyt kapott induláskor, ami igen jelentősnek számít. Coulom az esemény után azt nyilatkozta, hogy még legalább tíz év kell ahhoz, hogy egy gép egy teljesen fair meccsen legyőzzön egy élvonalbeli játékost.

A gó nehézsége a játék természetében rejlik, ugyanis a leghatalmasabb szuperszámítógépek sem rendelkeznek elegendő számítási kapacitással ahhoz, hogy két lépés között minden lehetséges következő lépés következményeit elemezzék. Amikor a Deep Blue 1997-ben legyőzte a sakkvilágelső Garri Kaszparovot, pontosan ezt tette. Az IBM szuperszámítógépe minden potenciális lépést elemzett, így előrébb látott, mint amire az emberi játékos képes volt. A góban ugyanez még ma sem lehetséges, míg ugyanis a sakkban alkalmanként átlagosan 20 lépési lehetőség kínálkozik, a 19x19-es táblán játszott, területfoglalásra törő góban ugyanez a szám 200 körüli, és a 200 közül lépés mindegyik további 200 lehetőséget von maga után. Jelenleg nem létezik olyan mesterséges rendszer, amely emberi idő alatt képes lenne ennyi opciót ellenőrizni.

Olyan heurisztikus keresőalgoritmusok révén, mint amilyen a Monte Carlo-fakeresés, a Crazystone és társai persze számítási kapacitásukhoz képest meglepően sok lépést képesek előre látni. Különböző módszerekkel lehetséges csökkenteni a potenciális lépéssorok számát, így ezek a rendszerek végül alkalmassá váltak néhány nagyon jó gójátékos legyőzésére, a legjobbakkal azonban nem boldogultak. A nagymesterek játéka ugyanis nagyon nagy mértékben intuíción alapul, mivel a világ legjobbjai nem az egyes lépéseket elemezve hozzák meg döntésüket a folytatásról, hanem a tábla átfogó kinézete alapján. „A jó pozíciók jól is mutatnak” ‒ mondja Hassabis, aki maga is aktív gójátékos. „Különös esztétikum jellemzi ezt a játékot, amely pontosan ezért tudott olyan izgalmas maradni az évezredeken keresztül.”

2. oldal

A góval foglalkozó mesterséges intelligencia kutatók végül arra a következtetésre jutottak, hogy mivel hagyományosabb elemzésekkel nem tudnak előrébb lépni, gépi tanulással próbálják felvenni a versenyt az emberi intuícióval. A gó nagyrészt mintázatok felismeréséről szól, a mélytanulás pedig nagyon hatékony ebben, mondja Hassabis.

A mélytanulás neurális hálózatokon alapul, amelyekben a hardverek és a szoftverek az agyi idegsejtekhez hasonló hálózatokba vannak összerendezve. Az ilyen rendszerek, ahogy már említettük, nem „nyers erővel” működnek, vagyis nem állnak neki az összes lehetséges opció végigzongorázásának egy adott szabályrendszer alapján. Ehelyett nagymennyiségű adatot elemeznek, hogy megtanuljanak bizonyos tevékenységeket. Ha elegendően sok kismacska képét töltjük fel egy neurális hálózatba, a rendszer megtanulja felismerni a kismacskákat, és olyan képeken is meg fogja találni ezeket, amelyeket előtte nem látott. Ha beszédeket tartalmazó hanganyagokat kap, idővel felismeri, amit mondunk. Ha pedig elég sok gólépéssel és mérkőzéssel ismerkedik meg, megtanul gót játszani.

A DeepMind és a Facebook fejlesztői abban reménykedtek, hogy a neurális hálózatok arra is megtaníthatók, hogy az emberekhez hasonlóan a tábla állására rápillantva játszanak. A Facebook munkatársai egy nemrégiben megjelent tanulmányban demonstrálták, hogy az elképzelés valóban működőképes. A mélytanulás és a Monte Carlo-fakeresés kombinálása révén a Facebook rendszere képessé vált néhány emberi játékos legyőzésére, de a legjobbakat, és a Crazystone-t, illetve a hozzá hasonló magas szintű rendszereket nem tudta legyűrni.

Galéria megnyitása

A DeepMind még egy lépéssel továbbment. Miután a rendszerbe betáplálták a 30 millió emberi lépést, a neurális hálózat az esetek 57 százalékában képes volt helyesen megjósolni ellenfele következő lépését. Ez nagyon impresszív eredmény, az előző rekord ugyanis csak 44 százalék volt. Hassabis és társai azonban nem elégedtek meg ennyivel, hanem saját maga másolatai ellen kezdték versenyeztetni a rendszert. Az edzések során kiderült, hogy melyik lépések hozzák a legnagyobb jutalmat, így az AlphaGo egyre inkább megtanulta, hogy melyik megoldás működik, és melyik nem.

„Az AlphaGo új stratégiákat talált ki magának, miközben több millió mérkőzést játszott le saját másolatai ellen” ‒ monsja David Silver, a kutatócsoport egyik tagja. Az AlphaGo ezt követően a legjobb gépi rendszerekkel is játszott, majd az eredményeket a kutatók feltöltötték egy második neurális hálózatra. Ez utóbbi egy kicsit hasonlít a Deep Blue-ra, hiszen az első hálózat által javasolt lépések következményeit elemzi. Azonban ez a rendszer is képes tanulni, vagyis nem ellenőriz mechanikusan minden opciót, csak a nyerőnek ítélt stratégiákat, így pedig már a legjobb emberi játékosokkal is versenyre kelhet.

A DeepMind rendszerének működése sok más neurális hálózathoz hasonlóan grafikai processzorokon alapul, az utóbbi évek során ugyanis kiderült, hogy a mélytanuláshoz ezek a legalkalmasabb eszközök. Hassabis elmondása szerint a rendszer egyetlen, megfelelő számú GPU-chippel ellátott számítógépen működtetve is egész tisztességes gójátékos, Fan Hui ellen azonban több gépet vetettek be együttesen. Az Európa-bajnokot legyőző mesterséges intelligencia összesen 170 GPU-n és 1200 CPU-n futott. A világ legjobbja ellen ugyanezt az összeállítást akarják indítani a kutatók, akik azonban közben folyamatosan fejlesztik a rendszert. Coulom szerint a márciusi megmérettetés jóval nehezebb lesz, mint a Fan Hui elleni mérkőzés, de a szakértő az októberi eredmények alapján úgy véli, hogy a gép fog nyerni.

Galéria megnyitása

Az AlphaGo sikere a szakma nagy része szerint óriási jelentőségű, hiszen a góhoz hasonlóan az ilyen rendszerek egy sor más terület stratégiáit is elsajátíthatják, függetlenül attól, hogy háborúról, üzletről vagy pénzügyekről van szó. A dolog ugyanakkor egy picit ijesztő is, hiszen a DeepMind rendszere immár nem csak abból tanul, amit a kutatók beletápláltak. Magával játszva saját adatokat generál, vagyis már nem az ember irányítja minden lépését.

Attól azonban egyelőre nem kell félni, hogy a rendszer a közeljövőben ember feletti intelligenciára tesz szert, és ellenünk fordul. Hassabis és kollégái szoros ellenőrzés alatt tartják kreációjukat, amely ugyan az emberek túlnyomó többségénél már jelenleg is jobb egy nagyon összetett stratégiai játékban, ugyanakkor csak ebben az egy dologban jó. „Egy erősen strukturált helyzetről van szó” ‒ mondja Ryan Calo, a Washington Egyetem mesterséges intelligenciákkal foglalkozó jogi szakértője, aki szerint a létező rendszerek esetében jelenleg még nem beszélhetünk emberi szintű megértésről. Az siker ugyanakkor sok dolgot előre vetít a jövővel kapcsolatban, hiszen ha a DeepMind képes megérteni, hogyan nyerhet a góban, egy napon egy csomó más folyamat felfogására is alkalmas lehet. „Mi van akkor, ha a világegyetem egyetlen hatalmas gójátszma?” ‒ teszi fel a kérdést Calo.

Neked ajánljuk

    Tesztek

      Kapcsolódó cikkek

      Vissza az oldal tetejére