iPon Cikkek

A DeepMind rendszere legyőzte Európa legjobb gójátékosát

Dátum | 2016. 01. 31.
Szerző | Jools
Csoport | EGYÉB

Jelentős eredményt hoztak nyilvánosságra a héten a mesterséges intelligenciák kutatásának területén, a Google tulajdonában lévő DeepMind rendszere ugyanis legyőzte a gó nevű játékban a legutóbbi három Európa-bajnokság győztesét, a kínai születésű, francia színekben szereplő Fan Huit. A hír azért különösen érdekes, mert a stratégián és intuíción alapuló ősi táblás játék évtizedek óta rendre kifogott az intelligens rendszereken dolgozókon. Az utóbbi években csaknem minden olyan játékban sikerült az legjobb emberi játékosokat legyőző gépeket alkotni, amelyeket az intelligencia fokmérőinek tekintünk, ide értve a sakkot, a Scrabble-t, a reversit és a tévés Jeopardyt is. A gó azonban, amely a hozzáértők szerint a sakknál is összetettebb játék, mostanáig emberi uralom alatt maradt. Néhány nem a Google alkalmazásában álló mesterséges intelligencia szakértő még néhány hete is azon a véleményen volt, hogy még egy jó darabig nem kerül sor arra, hogy egy számítógép megverjen egy vezető gójátékost. A Google által 2014-ben 400 millió dollárért megvásárolt DeepMind kutatói azonban meglépték, amit sokan lehetetlennek hittek. A várva várt mérkőzésre tavaly októberben került sor a cég londoni székhelyén. Ennek során a DeepMind rendszere, az AlphaGo egymás után öt alkalommal győzte le a kontinens legjobbját. A mérkőzésnek tanúja volt a Nature egyik szerkesztője és a Brit Gószövetség egy képviselője is. „Karrierem legizgalmasabb pillanatait éltem át, mind kutatóként, mind újságíróként” ‒ emlékszik vissza Tanguy Chouard, a Nature szerkesztője az eseményre.
A héten a Nature oldalain megjelent egy tanulmány, amely részletesen beszámol a DeepMind rendszerének működéséről, és arról, hogyan volt képes a gép a győzelemre. Az AlphaGo legnagyobb fegyvere az úgynevezett mélytanulás (deep learning). A fejlesztők 30 profi gójátékos összesen 30 millió lépését táplálták be a rendszerbe, ez azonban csak a projekt kezdeti lépése volt. A következő fázisban annak érdekében, hogy a gép jobb legyen bármilyen emberi játékosnál, megkezdődtek az „edzések”. Az AlphaGo ezek során saját maga ellen játszott, és közben új lépéskombinációkat ötlött ki, amelyek aztán elősegítették az emberi játékos legyőzését. Az AlphaGo tehát jóval több egy méretes adatbázisánál, amely gondosan felépített szabályok alapján alkalmazza a beletáplált lépéseket. A fejlesztés egy olyan jövő felé vezet, amelyben a való világban mozgó robotok élesben lesznek képesek új feladatokat elsajátítani, és a környezet változásaira is reagálni tudnak. A DeepMind persze nem az cég, amely ezen dolgozik, a Google, a Facebook és a Microsoft online szolgáltatásai már jelenleg is alkalmazzák a mélytanulást, hogy képeket, szavakat és egyéb információkat ismerjenek fel. Demis Hassabis, a DeepMind alapítója szerint a gépi tanulás a tudományos kutatásokat is előrelendítheti. A szakértő úgy véli, hogy néhány év múlva a kutatók mesterséges intelligenciákkal együttműködve fognak dolgozni, ami egyrészt megkönnyítheti az adatfeldolgozást és gyorsabbá teheti az elemző munkát, másrészt a gépek a következő lépésekre is javaslatokat tehetnek, segítve az emberi szakértőket a tudományos áttörések felé vezető úton. A góeredményre visszatérve, a megmérettetésnek még nincs vége, ami az AlphaGo-t illeti. Fan Hui zárt ajtók mögött történt legyőzése után Hassabis és csapata most egy nyílt mérkőzés megszervezésén munkálkodik. A március közepére tervezett találkozón a világ egyik legsikeresebb játékosával, Lee Sedollal fog megmérkőzni a gép Dél-Koreában.
Az AlphaGo októberi sikerét megelőzően a legnagyobb győzelmet emberi játékos ellen 2014 elején Rémi Coulom gószoftvere, a Crazystone érte el, amely egy japán versenyen legyőzte Yoda Norimotót. Ez a mérkőzés azonban nem volt teljesen kiegyenlített, hiszen a gép négy lépéses előnyt kapott induláskor, ami igen jelentősnek számít. Coulom az esemény után azt nyilatkozta, hogy még legalább tíz év kell ahhoz, hogy egy gép egy teljesen fair meccsen legyőzzön egy élvonalbeli játékost. A gó nehézsége a játék természetében rejlik, ugyanis a leghatalmasabb szuperszámítógépek sem rendelkeznek elegendő számítási kapacitással ahhoz, hogy két lépés között minden lehetséges következő lépés következményeit elemezzék. Amikor a Deep Blue 1997-ben legyőzte a sakkvilágelső Garri Kaszparovot, pontosan ezt tette. Az IBM szuperszámítógépe minden potenciális lépést elemzett, így előrébb látott, mint amire az emberi játékos képes volt. A góban ugyanez még ma sem lehetséges, míg ugyanis a sakkban alkalmanként átlagosan 20 lépési lehetőség kínálkozik, a 19x19-es táblán játszott, területfoglalásra törő góban ugyanez a szám 200 körüli, és a 200 közül lépés mindegyik további 200 lehetőséget von maga után. Jelenleg nem létezik olyan mesterséges rendszer, amely emberi idő alatt képes lenne ennyi opciót ellenőrizni. Olyan heurisztikus keresőalgoritmusok révén, mint amilyen a Monte Carlo-fakeresés, a Crazystone és társai persze számítási kapacitásukhoz képest meglepően sok lépést képesek előre látni. Különböző módszerekkel lehetséges csökkenteni a potenciális lépéssorok számát, így ezek a rendszerek végül alkalmassá váltak néhány nagyon jó gójátékos legyőzésére, a legjobbakkal azonban nem boldogultak. A nagymesterek játéka ugyanis nagyon nagy mértékben intuíción alapul, mivel a világ legjobbjai nem az egyes lépéseket elemezve hozzák meg döntésüket a folytatásról, hanem a tábla átfogó kinézete alapján. „A jó pozíciók jól is mutatnak” ‒ mondja Hassabis, aki maga is aktív gójátékos. „Különös esztétikum jellemzi ezt a játékot, amely pontosan ezért tudott olyan izgalmas maradni az évezredeken keresztül.”
A góval foglalkozó mesterséges intelligencia kutatók végül arra a következtetésre jutottak, hogy mivel hagyományosabb elemzésekkel nem tudnak előrébb lépni, gépi tanulással próbálják felvenni a versenyt az emberi intuícióval. A gó nagyrészt mintázatok felismeréséről szól, a mélytanulás pedig nagyon hatékony ebben, mondja Hassabis. A mélytanulás neurális hálózatokon alapul, amelyekben a hardverek és a szoftverek az agyi idegsejtekhez hasonló hálózatokba vannak összerendezve. Az ilyen rendszerek, ahogy már említettük, nem „nyers erővel” működnek, vagyis nem állnak neki az összes lehetséges opció végigzongorázásának egy adott szabályrendszer alapján. Ehelyett nagymennyiségű adatot elemeznek, hogy megtanuljanak bizonyos tevékenységeket. Ha elegendően sok kismacska képét töltjük fel egy neurális hálózatba, a rendszer megtanulja felismerni a kismacskákat, és olyan képeken is meg fogja találni ezeket, amelyeket előtte nem látott. Ha beszédeket tartalmazó hanganyagokat kap, idővel felismeri, amit mondunk. Ha pedig elég sok gólépéssel és mérkőzéssel ismerkedik meg, megtanul gót játszani. A DeepMind és a Facebook fejlesztői abban reménykedtek, hogy a neurális hálózatok arra is megtaníthatók, hogy az emberekhez hasonlóan a tábla állására rápillantva játszanak. A Facebook munkatársai egy nemrégiben megjelent tanulmányban demonstrálták, hogy az elképzelés valóban működőképes. A mélytanulás és a Monte Carlo-fakeresés kombinálása révén a Facebook rendszere képessé vált néhány emberi játékos legyőzésére, de a legjobbakat, és a Crazystone-t, illetve a hozzá hasonló magas szintű rendszereket nem tudta legyűrni.
A DeepMind még egy lépéssel továbbment. Miután a rendszerbe betáplálták a 30 millió emberi lépést, a neurális hálózat az esetek 57 százalékában képes volt helyesen megjósolni ellenfele következő lépését. Ez nagyon impresszív eredmény, az előző rekord ugyanis csak 44 százalék volt. Hassabis és társai azonban nem elégedtek meg ennyivel, hanem saját maga másolatai ellen kezdték versenyeztetni a rendszert. Az edzések során kiderült, hogy melyik lépések hozzák a legnagyobb jutalmat, így az AlphaGo egyre inkább megtanulta, hogy melyik megoldás működik, és melyik nem. „Az AlphaGo új stratégiákat talált ki magának, miközben több millió mérkőzést játszott le saját másolatai ellen” ‒ monsja David Silver, a kutatócsoport egyik tagja. Az AlphaGo ezt követően a legjobb gépi rendszerekkel is játszott, majd az eredményeket a kutatók feltöltötték egy második neurális hálózatra. Ez utóbbi egy kicsit hasonlít a Deep Blue-ra, hiszen az első hálózat által javasolt lépések következményeit elemzi. Azonban ez a rendszer is képes tanulni, vagyis nem ellenőriz mechanikusan minden opciót, csak a nyerőnek ítélt stratégiákat, így pedig már a legjobb emberi játékosokkal is versenyre kelhet. A DeepMind rendszerének működése sok más neurális hálózathoz hasonlóan grafikai processzorokon alapul, az utóbbi évek során ugyanis kiderült, hogy a mélytanuláshoz ezek a legalkalmasabb eszközök. Hassabis elmondása szerint a rendszer egyetlen, megfelelő számú GPU-chippel ellátott számítógépen működtetve is egész tisztességes gójátékos, Fan Hui ellen azonban több gépet vetettek be együttesen. Az Európa-bajnokot legyőző mesterséges intelligencia összesen 170 GPU-n és 1200 CPU-n futott. A világ legjobbja ellen ugyanezt az összeállítást akarják indítani a kutatók, akik azonban közben folyamatosan fejlesztik a rendszert. Coulom szerint a márciusi megmérettetés jóval nehezebb lesz, mint a Fan Hui elleni mérkőzés, de a szakértő az októberi eredmények alapján úgy véli, hogy a gép fog nyerni.
Az AlphaGo sikere a szakma nagy része szerint óriási jelentőségű, hiszen a góhoz hasonlóan az ilyen rendszerek egy sor más terület stratégiáit is elsajátíthatják, függetlenül attól, hogy háborúról, üzletről vagy pénzügyekről van szó. A dolog ugyanakkor egy picit ijesztő is, hiszen a DeepMind rendszere immár nem csak abból tanul, amit a kutatók beletápláltak. Magával játszva saját adatokat generál, vagyis már nem az ember irányítja minden lépését. Attól azonban egyelőre nem kell félni, hogy a rendszer a közeljövőben ember feletti intelligenciára tesz szert, és ellenünk fordul. Hassabis és kollégái szoros ellenőrzés alatt tartják kreációjukat, amely ugyan az emberek túlnyomó többségénél már jelenleg is jobb egy nagyon összetett stratégiai játékban, ugyanakkor csak ebben az egy dologban jó. „Egy erősen strukturált helyzetről van szó” ‒ mondja Ryan Calo, a Washington Egyetem mesterséges intelligenciákkal foglalkozó jogi szakértője, aki szerint a létező rendszerek esetében jelenleg még nem beszélhetünk emberi szintű megértésről. Az siker ugyanakkor sok dolgot előre vetít a jövővel kapcsolatban, hiszen ha a DeepMind képes megérteni, hogyan nyerhet a góban, egy napon egy csomó más folyamat felfogására is alkalmas lehet. „Mi van akkor, ha a világegyetem egyetlen hatalmas gójátszma?” ‒ teszi fel a kérdést Calo.
Új hozzászólás írásához előbb jelentkezz be!

Eddigi hozzászólások

15. gombabacsi
2016.01.31. 13:56
sakk: 8x8, néhány bit per mező
go: kb 20x20, néhány bit per mező
szabályok: viszonylag egyszerű természeti törvények mindkét játékban

persze, nagy teljesítmények ezek a számítógépek, és a programok, de egy x*x mezős kis egyszerű világokban történő eseményekről van szó mindkettőben... hol van ez a világhoz képest?
 
Válasz írásához előbb jelentkezz be!
14. nyerek01
2016.01.31. 14:39
Amikor a gép legyőzni valamiben az embert akkor onnantól kezdve jobb nála, és ez nem változik. Legyőzték az embert sakkban, soha nem fogja ember legyőzni sakkban a programot. Ezt általánositsd, itt nincs oda-vissza játszma, adok-kapok stb. Egyszer jobbak valamiben és örökre igy is marad. Csak fejlődik...
 
Válasz írásához előbb jelentkezz be!
13. gombabacsi nyere...
2016.01.31. 16:34
értem én, csak az, hogy sakkban, meg góban legyőzi, az - a mögötte lévő fejlesztési munkát értékelve persze - egy jó nagy nudli ahhoz viszonyítva amit az emberi agy tud.

főleg ha hozzávesszük hogy mindez az emberissség meggazdagabb történelmi periódusában történt, aminél elég nagy eséllyel csak szegényebb periódus lesz
 
Válasz írásához előbb jelentkezz be!
12. Zotya21 gomba...
2016.01.31. 16:55
ha új lépéskombinációkat talált ki akár beírhatja a rakéta indító kódokat is
vagy átállhat terminátor gyártásra is
 
Válasz írásához előbb jelentkezz be!
11. YellowFlas...
2016.01.31. 18:08
Kezdhetünk félni?
 
Válasz írásához előbb jelentkezz be!
10. Resike nyere...
2016.02.01. 23:01
Fatális baromság.

A sakk algoritmusok kb egy idősek a számítógéppel, ezzel a játékkal meg még nem foglalkoztak annyi ideje ezért volt az ember veretlen.

Az meg a másik, hogy a körökre osztott játékokban ha tökéletesen játszol, mindig is az fog nagyobb eséllyel nyerni aki kezd.
 
Válasz írásához előbb jelentkezz be!
9. nigrablack Resik...
2016.02.02. 08:35
Te biztos hogy nyerek01 üzenetére akartál válaszolni?
Ha igen, az első mondatod baromság, a második irreveláns. A harmadik meg pont azt erősíti meg, amit nyerek01 állít.
 
Válasz írásához előbb jelentkezz be!
8. ianbrenner
2016.02.02. 16:11
"A sakk algoritmusok kb egy idősek a számítógéppel, ezzel a játékkal meg még nem foglalkoztak annyi ideje ezért volt az ember veretlen."

Tudtommal a go-nak sokkal több szintje (értsd versenyzői szintje) van mint a sakknak, ami azt is jelzi, hogy sokkal összetettebb, sokkal több lépésben lesz valaki 'nagymester'.

"Az meg a másik, hogy a körökre osztott játékokban ha tökéletesen játszol, mindig is az fog nagyobb eséllyel nyerni aki kezd."

Ugye simán elképzelhető olyan játék, ahol a kezdő van vesztő pozícióban (hadd ne kelljen egyszerű példákat hoznom). Arról nem is beszélve, hogy az általad emlegetett tökélese játék azt sejteti, hogy minden lépés minden végkimenetelét végiggondolja a gép, ami azért a go esetében sokáig nem lesz még így.

Összességében a hozzászólásod tartalmi minősége nem indokolja, hogy mások beírását baromságnak tituláld.
 
Válasz írásához előbb jelentkezz be!
7. pdx06
2016.02.02. 16:32
Semmi érdekes nincs ebben a hírben, egy számítógép alig egy másodperc alatt képes minden lehetséges variációt és következményt kiszámolni tehát nem tartom nagy számnak ha legyőzi az embert. Találkoztam már olyan amőba játékkal amiben egyszerűen nem lehetett győzni a gép ellen. A rubik kockát is kirakják szempillantás alatt tehát nincs min csodálkozni.
 
Válasz írásához előbb jelentkezz be!
6. Resike ianbr...
2016.02.02. 16:37
Pont, hogy a Go-ban aki kezd az n helyre rakhatja le az első bábuját, a második fél már csak n-1-re, és ezt az előnyt a kezdő játékos mindvégig megtartja. Ergo a második fél jó pár millió lépésvariáció hátránnyal játszik.
Akkor most miről beszélünk?

"Legyőzték az embert sakkban, soha nem fogja ember legyőzni sakkban a programot."

Sajnos nem találom azt a videót amikor a 2000-es évek körül az akkor legokosabb ~3000 ELO-s sakk programot a program tervezője 10 lépésben megvert.
 
Válasz írásához előbb jelentkezz be!
5. punchman pdx06
2016.02.03. 08:24
Fogadjunk, hogy nem olvastad a cikket. Ez már abból is jól látszik, hogy hírnek nevezed.

u.i. Mellesleg a go pont azért nem egyszerű feladat, mert a "számítógép" nem képes a kvázi végtelen lehetőséget előre kiszámolni. A go intuitív játék, intuíciót pedig viszonylag nehéz programozni. Ami a mostani áttöréshez kellett, hogy a gép képes legyen önállóan tanulni és jobbá válni, mint az ellenfele. Ez a mesterséges intelligenciának egy olyan területe volt, amiben eddig az ember sokkal jobb volt.
 
Válasz írásához előbb jelentkezz be!
4. Atesz1987 Resik...
2016.02.05. 14:47
Javaslom megnézésre a Csodálatos elme című filmet, ott Russel Crowe is pontosan így gondolkodik, még is veszít
 
Válasz írásához előbb jelentkezz be!
3. Resike Atesz...
2016.02.06. 20:45
Persze, hogy drámaibb legyen a hatás.
 
Válasz írásához előbb jelentkezz be!
2016.03.16. 02:18
"Akkor most miről beszélünk?"

https://hu.wikipedia.org/wiki/Nim

"Sajnos nem találom azt a videót amikor a 2000-es évek körül az akkor legokosabb ~3000 ELO-s sakk programot a program tervezője 10 lépésben megvert."

Ezt nem tudom, mire kéne vélnem. Egy ~3000 ELO-s gépet nem lehet 10 (10-10?) lépésben megverni.

(azok nem adják fel tiszthátrány esetén, ugye? (a goprogram feladja, mondjuk az kegyetlen unalmas lenne, ha végig kéne játszani))

Egyébként, simán elképzelhető, hogy vannak lokális jó lépések a sakkon (és a gón) belül, amiket külön el kell magyarázni a gépnek, mert az algoritmusa nem szűri ki.

Mindazonáltal annyira hihetetlennek hangzik ez a történet, hogy nem hiszem el
 
Válasz írásához előbb jelentkezz be!
1. kiskoller pdx06
2016.05.17. 12:24
Sokkal több lehetséges játékállás van Go-ban, mint amennyi atom az univerzumban.
10^170 vs 10^80

Persze, determinisztikus, könnyen értelmezhető játék, de egyáltalán nem lehet brute force-al a lehetséges lépéseknek még a töredékét sem kiszámolni.

A program intuíciót használt fel, saját hibáiból és az ellenfél stílusából tanult, ami hatalmas teljesítmény.
 
Válasz írásához előbb jelentkezz be!