iPon Cikkek

Mesterséges intelligencia keresi a Higgs-bozont

Dátum | 2017. 10. 29.
Szerző | Jools
Csoport | EGYÉB

A gépi tanulás virágkorát éljük, jelentős részben azért, mert a kezdetek kezdete óta először áll rendelkezésre elég adat ahhoz, hogy az erre alkalmas algoritmusok végre tényleg használhatóak legyenek. A számítógépek a big data megérkezésével váltak sakkzsenikké, góbajnokokká, és kezdtek el besegíteni az orvosoknak és a bíróknak. Az régóta világos ugyanis, hogy a gépek annál kielégítőbben képesek elsajátítani valamit, minél több releváns adat áll rendelkezésükre, így tudnak ugyanis pontos modelleket alkotni. A gó és a sakk esetében az első ezeket megtanuló rendszerek nemcsak a szabályokat kapták meg, hanem velük együtt rengeteg már megtörtént játszma adatait is. Tehát létező példák alapján építették fel azt a modellt és döntési ágrajzot, amely alapján aztán saját játékaik során eldöntötték, hogy mikor hogyan lépjenek.
A következő verziókban aztán annyit módosult a helyzet, hogy a számítógép már nemcsak külső forrásból kapott adatokat, hanem maga is hozzájárult ezekhez, mert az alapszabályok elsajátítása után saját maga másolatai ellen játszott. A legutóbbi góalgoritmus pedig már csak magára támaszkodott, és emberi játékosok segítsége nélkül vált a játék mesterévé, ráadásul mindezt villámgyorsan tette. A DeepMind rendszere három nap alatt 5 millió játékot fejezett be saját maga ellen, mielőtt a korábbi változat ellen játszatták fejlesztői. És az új verzió, az AlphaGo Zero százból száz alkalommal megverte elődjét, amelyet még emberek is tanítottak. Bizonyos esetekben azonban bár gigantikus adatmennyiségről van szó, másfajta tudású gépi rendszerekre lenne szükség. Ez a helyzet a különböző egzotikus részecskék keresése során is. A Nagy Hadronütköztető (LHC) elképesztő mennyiségű adatot generál, megtalálandó információból ugyanakkor nagyon kevés van ebben a halmazban. Például a Higgs-bozont keresve sok-sok ütközést kell kiértékelni, és ezek közül csak nagyon kevés eredményezi a kérdéses részecskét. Ebben az esetben tehát egy nagyon nagy adathalmazban kell olyan ritka eseményeket azonosítani, amelyek alig-alig lógnak ki a háttérzajból. Ez pedig megnehezíti a gépi tanulás használatát, hiszen nem nagyon van min betanítani a rendszereket.
Egy kutatócsoport viszont pontosan erre vállalkozott. Fogták a Higgs-képződés egyik modelljét, illetve egy másik szimulációt, amely a várható háttérzajt hozza létre, és ilyen módon több ezer virtuális ütközést produkáltak. A módszerrel létrehoztak egy olyan adathalmazt, amelyet normális esetben a Higgs-bozon keresésének utolsó fázisában kapnak meg a kutatók, amikor az érdektelen ütközések közül már kiválogatták a gyanús eseményeket. Ezeket az adatokat aztán tovább kell finomítani, hogy a „valószínűleg Higgs-bozont tartalmaz” állítástól eljussanak a Higgs tényleges megtalálásáig. Ennek megvalósításához a szakértők először is áttekintették az egyik Higgs-bozont eredményező folyamat lépései, azt amikor két gluon ütközése nyomán jön létre a részecske. Az így képződött Higgs aztán rövidesen szét is esik, és közben két nagy energiájú fotont sugároz ki. A detektor ebből az egészből csak a két foton energiáját és azok kezdeti részecskenyalábbal bezárt szögét tudja mérni. Ebből lehet aztán kitalálni, hogy mekkora úgynevezett transzverzális momentummal bírnak az egyes fotonok, ami azonban még mindig kevés az üdvösséghez. A Higg-bozon megtalálásának ugyanis nincs egyetlen biztos jele, hanem több mutatónak egyszerre kell összefüggően megváltoznia a detektáláshoz. A helyzetet bonyolítja, hogy senki sem tudja, melyik adatok kombinálása a legjobb erre a célra. Így a szakértők mindent mindennel összepárosítottak, és végül 36 különböző érzékenységű kombinációt teszteltek.
Annak vizsgálata érdekében, hogy a kvantum gépi tanulás jó lehet-e ezen kombinációk vizsgálatára, a kutatók arra programoztak be egy kvantumszámítógépet, a D-Wave új rendszerét, hogy optimalizálja a 36 paramétert az adatokhoz, majd ezek alapján állapítsa meg, hogy azokban van-e nyoma a Higgs-bozonnak vagy sem. Az egész koncepció meglehetősen bonyolult, így a részletekbe meg sem próbálunk belemenni, de lényegileg arról van szó, hogy a teljes probléma kvantummágnesek hálózatába van belekódolva, ahol az elemeket összekapcsoló erők változnak a paraméterek alakulásával. Amikor optimálisak az értékek az hálózati energiaminimummal párosul, vagyis gyakorlatilag az energiaszint segít eldönteni, hogy keletkezett Higgs vagy sem. A módszer nagy előnye, hogy az egyes paraméterek változtatása révén az is kiderül a mágneshálózatból, hogy mely adatok érzékenyek a Higgs jelenlétére, és melyek kevésbé. Végül sikerült három olyan mutatót azonosítani, amelynek értéke rendkívüli módon függ a Higgs jelenlététől, és több olyat is, amely pedig teljesen független ettől. Ezt is figyelembe véve a kvantumalgoritmus némi betanulás után képes volt megállapítani, hogy egy adott adathalmazban van-e nyoma a Higgs-nek vagy sem.
Erre persze egy sima gépi tanulásos rendszer is képes lehet, amit a kutatók szintén kipróbáltak. Az alapvető eltérés azonban a kvantum- és a nem kvantum algoritmusok között abban van, hogy az előbbi esetében sokkal kisebb tanulási adat szükséges azonos pontosság eléréséhez. A kvantumrendszer már 200 ütközés adataiból is képes volt megtanulni a Higgs azonosítását, ami mellet a klasszikus algoritmusok még nagyon pontatlanok voltak. Ha tehát kevés adatból kell megtanulni valamit, arra ideálisa lehetnek a kvantumalgoritmusok. (Az is bebizonyosodott ugyanakkor, hogy ebben a konkrét esetben a kvantumrendszernél sokkal jobbak a klasszikus gépi tanulási rendszerek, ha nagy adathalmazról van szó, ami azonban a fejlesztők szerint elsősorban hardverproblémák miatt történhetett meg.)
Az új algoritmus másik, már részben említett nagy előnye, hogy a változók fizikai jelentéssel bírnak benne. Sok gépi tanulásos rendszer teremt magának saját, belső változókat és modelleket, amelyeknek – az emberi szem számára legalábbis – nincs közük a valósághoz. Erre nincs is szükség, elég, ha működik a rendszer, és valós végeredményeket produkál, az pedig nem annyira fontos, hogyan jutott oda. Jelen esetben viszont a kutatók választották ki a rendszer által kezelt változókat, amelyek valós fizikai adatokat fednek. Így viszont már azt is meg lehet figyelni, hogy ezek a mutatók hogyan változnak egymáshoz képest, és a különböző adathalmazok között. A D-Wave új fejlesztése révén tehát a jelek szerint egy egészen újfajta gépi tanulás valósulhat meg, amellyel olyan elemzések is valósággá válhatnak, amelyekre a klasszikus rendszerek nem képesek. Ami egyben azt is jelenti, hogy bár a fejlesztés még mindig a kezdetek kezdetén van, egyre kevesebb olyan terület létezik, amelyhez a tanulni is képes gépek nem fognak tudni idővel hozzátenni.
Új hozzászólás írásához előbb jelentkezz be!

Eddigi hozzászólások

11. berelhetor...
2017.10.30. 08:20
5millio játék után sikerült fejlődnie profi szintre? Ejha, ez aztán a teljesítmény, főleg, hogy az egyszerű húsvér embernek ennek a töredéke is elég ehhez...
 
Válasz írásához előbb jelentkezz be!
10. ChoSimba berel...
2017.10.30. 09:21
Igen, de azt az 50 millió játékot pár nap alatt lezavarta.
Az AI lehet hogy butább, mint az ember, de nagyságrendekkel gyorsabban buta
Arról nem is szólva, hogy ez az AI csak GO-zni tud, sakkozni már nem.
 
Válasz írásához előbb jelentkezz be!
9. Whysper berel...
2017.10.30. 11:02
[LINK]Itt a válasz lényege!!!! Mi olyanok vagyunk lassan és biztosan a MI-nak mint a Embernek a sejt! Ami neked 5 millió az a gépnek semmi. Amég Te azt mondod 10 év hosszú idő addig egy Mi-nak az csak egy számítási adat. Én szerintem a legtökéletesebb ember egy MI lesz. Nem ma nem holnap ,de a végén igen!
 
Válasz írásához előbb jelentkezz be!
8. ChoSimba Whysp...
2017.10.30. 12:29
Egy MI lehet akármilyen tökéletes, ember nem lesz belőle. Sőt, minél inkább tökéletes, annál messzebb kerül az embertől. Tévedni emberi dolog, márpedig egy tökéletes AI nem téved
 
Válasz írásához előbb jelentkezz be!
7. dzsuz87 ChoSi...
2017.10.30. 13:04
Mi a te definíciód a tévedésre?
 
Válasz írásához előbb jelentkezz be!
6. ChoSimba dzsuz...
2017.10.30. 13:50
Tévedés: ember teszi

 
Válasz írásához előbb jelentkezz be!
2017.10.30. 14:14
 
Válasz írásához előbb jelentkezz be!
4. Renhoek ChoSi...
2017.10.30. 15:32
A mai machine learning algoritmusok neurhálókra épülnek, aminek alapvető tulajdonsága az asszociatív működés. Súlyok, tresholdok, konvolúció stb...
Ezért nincs is szükség nagy pontosságra, működik pl GPU-kon FP16-al a rendszer.

A kimenet sohasem egy egzakt valami, hanem valószínűségek. Ez pedig pontosan úgy téved ahogy az ember asszociációs hálója.
Pl: A képen 80% fekete cica, 20% szudáni kisbaba
és így tovább

Az önvezető autóknál is pont ilyen AI határozza meg, hogy éppen le akar dózerolni egy kamion, vagy csak egy 200 kilós elhízott hamburgerzabáló nyomja a rokimobilt.

A tévedés mindig ott lesz, csak a magasszintű értelmezésen múlik mit veszünk "biztosnak"... 100% valószínűség soha sincsen a mesterséges neurhálók esetében.

...de értem amit írsz, és teljesen igazad van. A számítási kapacitás miatt előbb utóbb jobb és pontosabb döntést hozó magasszintű értelmezés lesz, emiatt egyre kevésbé emberibb - mivel az agy mérete, ingerátvivő képessége véges, addig a gép kvázi végtelen. Főleg ha még egy olyan szenzorháló is van mögötte, ami sokkal fejlettebb, gyorsabb mint a biológiai rendszerek.
 
Válasz írásához előbb jelentkezz be!
3. sutyko_hop...
2017.11.01. 09:32
Dehogy talalja. Nem letezo dolgot meg egy ultra fejlett ai se tud megtalalni, egy ma letezo fatengelyes meg plane.
 
Válasz írásához előbb jelentkezz be!
2. sutyko_hop... Whysp...
2017.11.01. 09:33
Szerintem ne igyal ma mar tobbet..
 
Válasz írásához előbb jelentkezz be!
1. peti198706... sutyk...
2017.11.02. 19:00
"Minden van, s minden létezik, csak mi vagyunk annyira elvetemülten hülyék, hogy azt észrevegyük.. " -Fbri, - a biológiai rendszerekről, a neuro-hálók különbségére rávetítve.
Példának okáért: "Egy Galaxisban nincsen semmi." -Na pont azaz a valami. A Sötét, negatív üresség., -mely összetartja a galaxisokat. (!!!)
 
Válasz írásához előbb jelentkezz be!