iPon Hírek

Hardver alapú GPU-virtualizáció – elsőként az AMD-től

Dátum | 2015. 09. 02.
Szerző | J.o.k.e.r
Csoport | FŐ EGYSÉG

Az AMD be készül törni a GPU virtualizáción alapuló szolgáltatások piacára, méghozzá nem is akármilyen megoldással: a vállalat állítása szerint elkészítette a világ első hardveres GPU virtualizációs megoldását, ami az AMD Multiuser GPU nevet viseli. Egy-egy Multiuser GPU konfiguráció egy GPU-val maximum 15 felhasználót képes egyidejűleg kiszolgálni.
2-6 felhasználó esetén munkaállomás-szintű teljesítményre lehet számítani, ami GPU-intenzív alkalmazások futtatását is lehetővé teszi. Amennyiben egy Multiuser GPU 6-10 felhasználót szolgál ki, akkor leginkább CAD/CAM/CAE szoftverek futtatására lesz elég a teljesítmény, míg 10-nél több felhasználó esetén már csak az irodai-szintű, alacsony terhelést jelentő alkalmazások futtatása lesz zökkenőmentesen megoldható. A Multiuser GPU alapját különböző FirePro sorozatú videokártyák biztosítják majd, a hardveres GPU virtualizáció pedig több előnyt is nyújt szoftveres társához képest – mint amilyen például az Nvidia GRID. Utóbbi egyébként éppen most ért mérföldkőhöz, hisz elkészült a 2.0-s kiadás, ami egyebek mellett már CUDA támogatást is kínál.
Az AMD szerint a hardver alapú megoldás a szoftvereshez képest sokkal biztonságosabb, hiszen a hardveres GPU virtualizáció esetében minden felhasználó saját memóriaszeletet kap a GPU-hoz társított fedélzeti memóriából. Emellett szintén az előnyök közé sorolható az is, hogy a rendelkezésre álló teljesítmény sokkal stabilabb, kiszámíthatóbb, mint a szoftveres megoldásoknál – nem fordulhat elő, hogy a rendelkezésre álló GPU teljesítmény nagy részét valamely felhasználó egymagában foglalja le. Nagyon fontos előny az is, hogy a hardveres GPU virtualizációt alkalmazó rendszereknél ugyanaz a driver áll rendelkezésre, ami a helyi munkaállomásoknál is, így a virtualizált GPU-ra támaszkodó környezetben is elérhető a natív OpenCL 2.0-s, az OpenGL 4.4-es és a DirectX 12-es támogatás is – azaz a virtualizált és a valós környezet közötti határvonal még inkább elmosódik.
A Multiuser GPU technológia az SR-IOV (Single Root I/O Virtualization) szabványra támaszkodik, amelyet a PCI Special Interest Group szakemberei fejlesztettek ki, és amely egy teljes egészében nyílt szabvány. A Multiuser GPU használatához VMWare vSphere vagy ESXi 5.5-ös, illetve újabb környezetre van szükség, maga technológia pedig támogatja a népszerű távoli hozzáférési protokollokat, amelyek között a Horizon View, a Citrix Xen Desktop és a Teradici Workstation Host Software egyaránt szerepel – hogy csak néhány példát említsünk. Az AMD egyelőre nem rántotta le a Multiuser GPU technológiához tartozó hardverkomponensek pontos technikai paramétereiről, mint ahogy várható megjelenésükkel és várható listaáraikkal kapcsolatban sem árult el részleteket.
Új hozzászólás írásához előbb jelentkezz be!

Eddigi hozzászólások

30. thedevelop...
2015.09.02. 08:03
Tök jó.
 
Válasz írásához előbb jelentkezz be!
29. RealDreamQ
2015.09.02. 08:50
Akkor ez végül is csupán csak hardveres gyorsítókártya volna , amihez XY 2-3... stb user is hozzáfér és besegít a számolásban ? Pl van otthon 2db gép és mindegyik ua a feladatot látja el , legyen az CAD , Videofeldolgozás stb... akkor egy ilyen gyorsítókártya erősségét ellehet / meglehet osztani a másik géppel , mert ennek csak a hardveres számolás, gyorsítás a feladata . (?)

Valaki aki jártas a témában kissé bővebben érthetően leírhatná , köszi.
 
Válasz írásához előbb jelentkezz be!
28. atti2010 RealD...
2015.09.02. 09:03
Nagyjából igen erről van szó, van egy központi szerver amihez 2-6.. gép csatlakozik és ha valamelyik felhasználónak renderelni vagy számolni stb. kell akkor csatlakozik a kártyához ami úgy működhet mint egy megosztott meghajtó.
 
Válasz írásához előbb jelentkezz be!
27. Meteoreso
2015.09.02. 09:32
Tervezőirodába kb jó máshova nem.
Hacsak nem apuka tervező anyuka is és otthon dolgoznak és a gyerekük is tervező lesz )))
 
Válasz írásához előbb jelentkezz be!
2015.09.02. 09:42
Viszont az milyen szép is lenne, ha egy ilyen megoldás a jövőben rendes otthoni felhasználásra is jó lenne és elég lenne csak egy VGA-t venni a családba és az kiszolgálná az asszony és gyerek(ek) gépeit is. Kíváncsi vagyok, hogy eljutunk-e egyszer erre a pontra (valszin nem, mert üzleti szempontból nem kifizetődő, ha 3 kártya helyett csak 1et vesznek, még ha az drágább is)
 
Válasz írásához előbb jelentkezz be!
25. 5hR3kY FaL
2015.09.02. 09:56
Vehetsz a jövőben ilyen megoldást otthonra. Csak mivel egy ilyen kártya üzleti felhasználásra készül, így tuti hogy FirePro árazású lesz, így olcsóbb lesz 3 consumer kártyát vegyél a három gépbe mint egy darab millió forint fölöttit.
 
Válasz írásához előbb jelentkezz be!
24. RealDreamQ
2015.09.02. 10:01
atti2010

akkor csatlakozik a kártyához ami úgy működhet mint egy megosztott meghajtó.

Szóval , ha jól értelmezem , akkor ha a fő számítógépben van eme célhardver és hálózatba van még pl 2-3 gép , akkor eme gyorsítókártyát már automatikusan érzékeli ha szükség van a teljesítményére a munkához ? Mert ugye ez akkor nem szoftveresen megyen , mert hardver alapú a dolog. Ha ketten csatiznak a célhardverhez , akkor a teljesítmény és memória ketté osztódik , ellenben ha egy 3. ügyfél is belép , igényli a hardveres számolást , ez esetben azonnal harmadolja az erót / memóriát .
Köszi atti

Meteoreso
Hagy ezt a fellengzős apucis anyucis gyerekes dolgot , érdemileg adnál segítséget , vagy inkább ne is szólj
 
Válasz írásához előbb jelentkezz be!
23. tarkatehen RealD...
2015.09.02. 10:13
Illetve megadhatod, hogy mennyi erőforrást kap egy adott felhasználó a kártyából. Ahogy atti2010 is írta, ezt úgy képzeld el mint egy megosztott meghajtót, többen tudják hasznáni egyszerre.
 
Válasz írásához előbb jelentkezz be!
22. vash_hu
2015.09.02. 10:36
Nem, srácok, ez egy virtual desktop technológia. Van egy szerver, ahoz catlakozik x darab konzol, ami kb csak lehozza a képet meg visszaküldi az egeret, billentyűt, semmi mást nem tud, viszont nagyon pici. A felhasználók a szerveren dolgoznak, de érzésre olyan, mintha saját gépük lenne.
 
Válasz írásához előbb jelentkezz be!
21. atti2010 vash_...
2015.09.02. 11:52
Lényegében ugyanaz, van egy központi géped amihez csatlakozol most hogy a kliens gép milyen szinten az már ne olyan lényeges de ha megnézed az ábrát akkor a csatlakoztatott gép lehet telefon, tablet, vagy laptop ami magával vonja hogy PC is lehet, vagyis ez lényegtelen hogy mivel hogy csatlakozol a lényeg hogy el tudod rajta végezni az adott feladatot, a lényege hogy ezt nem szoftveresen teszi mint az Nvidia megoldása hanem hardveresen.
 
Válasz írásához előbb jelentkezz be!
20. ferenczga FaL
2015.09.02. 13:51
Nekem az jutott eszembe, hogy asztalon mindenkinél IGP-vel szerelt gépek (böngészni, házit írni elég), +1 központi egység egy valami ilyesmi combos VGA-val, ami adott esetben két testvért is ki tud szolgálni, ha azok éppen partiban akarnak játszani egy modern játékkal Ultra4kakármi felbontáson ...
 
Válasz írásához előbb jelentkezz be!
2015.09.02. 13:54
igen igen, pont így de szép is lenne
 
Válasz írásához előbb jelentkezz be!
18. ChoSimba
2015.09.02. 13:54
Beindult az AMD marketing gépezet,
A táblázat igaz ugyan, mert csak annyit írtak, hogy nVidia GRID.
Ami az 1.0-ás verziót engedi sejtetni.
De ha a 2.0-t nézzük, akkor a táblázatból csak 1 sor igaz, az OpenCL 2.0 támogatás hiánya.
- az nVidia GRID vGPU nem szoftveres, hanem hardveres szintén
- nem 8 hanem 16 usert támogat per GPU, dualGPU esetében tehát (pl. Tesla M60) 32-őt. Szerverenként max. 128-at.

Arról nem is beszélve, hogy az "elsőként" sem annyira pontos, hiszen megjelenési dátuma sincs, míg a GRID 2.0 már letölthető.
Sőt, ahogy nézem, a zöld prezentáció a piros előtt zajlott

Ennyi.
 
Válasz írásához előbb jelentkezz be!
17. atti2010 ChoSi...
2015.09.02. 13:57
És ezt csak te tudod vagy van egy meggyőző weboldal is?
 
Válasz írásához előbb jelentkezz be!
16. ChoSimba atti2...
2015.09.02. 14:03
nvidia.com ?

De segítek:

[GRID datasheet PDF]

[vGPU PDF]
 
Válasz írásához előbb jelentkezz be!
15. vash_hu
2015.09.02. 14:05
Nemrég volt cikk itt is róla
 
Válasz írásához előbb jelentkezz be!
14. atti2010 ChoSi...
2015.09.02. 14:14
Pont ez a lényeg hogy amíg az Nvidianál virtuálisan működik minden szoftverből megoldva addig az AMD hardveres.
 
Válasz írásához előbb jelentkezz be!
13. ChoSimba atti2...
2015.09.02. 14:42
Nem is értem, mi a csudának linkelem még be is a doksit, ha képtelen vagy elolvasni és értelmezni....
De kiemelem neked, mert látom sok a betű.

"With GRID vGPU technology, NVIDIA engineers virtualized
the GPU in hardware
, allowing multiple virtual machines to
share one physical GPU without the need for software handholding
and API abstraction..."

 
Válasz írásához előbb jelentkezz be!
12. Terror ChoSi...
2015.09.02. 14:57
Hiába linkelsz angol szöveget, ha nem beszél angolul, és hiába magyarázod neki a tartalmát magyarul, ha magyarul sem beszél. Ez már a DX-es cikk alatt kiderült. A kommentjeit google translate-tel fordítja ki tudja milyen nyelvről, ezért nem használ toldalékokat sem, vagy ha igen, rosszul. Számok és rövidítések esetében egyáltalán nem, mert akkor a fordítómotor nem rakja ki.
 
Válasz írásához előbb jelentkezz be!
11. atti2010 Terro...
2015.09.02. 16:16
Hülyeséget lehet linkelni de ki a franc olvassa el? Gondolom az Ipon cikkírók is mind hülyék csak Terror az okos.
 
Válasz írásához előbb jelentkezz be!
10. ChoSimba atti2...
2015.09.02. 17:00
Az ipon cikk írók egyáltalán nem hülyék, csak fair módon 1:1-ben leadják az AMD bullshitjét.
 
Válasz írásához előbb jelentkezz be!
9. Terror atti2...
2015.09.02. 17:34
Szóval egy hivatalos linkkel alátámasztott tényre az a reakciód, hogy "ki a franc olvassa el"? Csak az, aki tud olvasni. Analfabéta utcaseprők nyilván nem. Nekik elég a mese is.
 
Válasz írásához előbb jelentkezz be!
8. dbelam feren...
2015.09.02. 19:31
Majdnem.
Ezek inkább úgy működnek, hogy van egy szerverterem 32 csilliárd exabyte tárhellyel, rammal, dinnyeföldnyi processzorral, stb-vel, és van sok-sok dolgos dolgozó, éppen igényelt teljesítménnyel.
Amikor egy dolgozó kevesebb erőforrást igényel, míg a másik többet, a nagy szerverben el tud oszlani a terhelés. Ugyanez lesz ezzel a GPU-val, egy sokadik erőforrás.

Csak annyi különbséggel, hogy nem átküld pár számítást, hanem kapsz rajta egy fiókot, és akár egy tablettel is ugyanazt a teljesítményt kapod meg RDP-n keresztül (remote desktop - távoli asztal) mert gyakorlatilag csak a képet küldi át.
 
Válasz írásához előbb jelentkezz be!
7. Humbuk feren...
2015.09.02. 19:54
Ezek a megoldások nem játékra vannak, szóval nem fog az akárhány lurkó quad ultra 56kban játszani...

Nem véletlen, hogy a legtöbb ilyen kártya nem alkalmaz 2-3 slotos hűtést a gamer kártyákhoz hasonlóan, mert ennek a kapacitása nagy és nem a teljesítménye.
Nézd meg mennyit eszik egy ilyen kártya a gamer kártyákhoz képest. Szóval más a felhasználási terület.


Más: csak, hogy a ködöt is oszlassuk, nem csak millás workstation kártyák vannak, ahogy gamer videokariból sem csak 200.000-es létezik.


ON: Az egészből számomra az a lényeg, hogy hardveres a megoldás, ami, mint tudjuk, sokkal jobb a szoftveres virtualizációnál...
Azért én kíváncsi lennék, hogy a processzor erőt, hogy osztja meg, vagy ezek rendszerek 100%osan gpu-n futnak proci nélkül?? Aki érti, elmondhatna néhány dolgot az ilyen megoldások operációs rendszer beli oldaláról is.
 
Válasz írásához előbb jelentkezz be!
6. ChoSimba Humbu...
2015.09.02. 20:34
Ezek nem proci nélkül futnak, hanem a proci mellett.
Ez az egész csupán arról szól, hogy a VM-ek most már kaphatnak GPU-t is "hardveresen".
Ehhez tudni kell azt, hogy eddig úgy működött a dolog, hogy a hypervisorban volt egy fordító, ami VM felől érkező GPU parancsokat átfordította a valós GPU felé. Ez volt a szoftveres mód. Ami azért "rossz", mert ez a fordító nem up-to-date, meg kellett várni ameddig mondjuk a VMWare kiadja az újabb változatot. Tehát el volt maradva a valós GPU driver képességeihez képest. És a fordítás sem éppen nulla időt emészt fel. Plusz még egyéb nyalánkságok.
Ezzel az új móddal a hypervisor be tudja állítani a GPU-n azt, hogy kvázi szétdarabolja X felé és ezeket a kis X-eket odaadja direktben a VM-eknek. Ez a GPU-pass-through.
A hypervisor eddig is oda tudta adni a GPU-t egy VM-nek, de csak egynek. A többiek "GPU nélkül" maradtak. Mármint munkára használható GPU nélkül.
Most viszont mindenki kaphat egy kicsit belőle direktben, nem kell a hypervisornak elvégeznie a parancs fordítást.
Ez tulajdonképpen ugyanaz, amit a CPU-val eddig is csináltak VM környezetben.
Az X magos processzort szétkapták az Y db VM-hez, ahol jellemzően X > Y.
Mondom jellemzően, mert egyébként költséghatékonysági okokból lehet X < Y is. Ez az [i]over provisioning[i].
Ilyenkor egy CPU mag akár több VM-ben is "jelen lehet".
Ez elsőre butaságnak tűnhet, mert a CPU-n osztozkodó VM-ek egymással versenyeznek a futásidőért.
Gyakorlatilag akkor használják, ha a VM-ek CPU terhelése kisebb mint a CPU számítási kapacitása. Így nem zavarják végül is egymást. Pl. teszt rendszerekben, ahol nincs terhelés vagy ideiglenes. Na de eltértünk a témától
Szóval ez a megoldás ugyanaz, mint amit a CPU esetében manapság látunk VM fronton.
A GPU direkt (hardveres) szétosztása a VM-ek között.

És de, ezek is zabálnak mint az asztali GPU-k. A korábbi K sorozatú kártyák is képesek voltak 200W felett cuppogtatni a wattokat.
Az új T60-as Tesla is 300W TDP-vel bír, bár ez dualGPU-s.

Szóval nagy taps, rég vártuk, örülünk Vincent
 
Válasz írásához előbb jelentkezz be!
2015.09.03. 12:23
"A hypervisor eddig is oda tudta adni a GPU-t egy VM-nek, de csak egynek."

Ha 4 gpu van a hostban akkor azokat oda lehet adni 1-4 VM-nek tetszőleges elosztásban.
 
Válasz írásához előbb jelentkezz be!
4. kiskoller Humbu...
2015.09.03. 13:12
"Nem véletlen, hogy a legtöbb ilyen kártya nem alkalmaz 2-3 slotos hűtést a gamer kártyákhoz hasonlóan, mert ennek a kapacitása nagy és nem a teljesítménye."

Mit értesz kapacitás alatt?
 
Válasz írásához előbb jelentkezz be!
3. ChoSimba kisko...
2015.09.03. 13:58
A rajta lévő kondenzátorokat
 
Válasz írásához előbb jelentkezz be!
2. Humbuk
2015.09.04. 23:55
Azt értettem kapacitás alatt: hogy mennyi halat tud fogni 1ms alatt

@ChoSimba: Nem a nagytesókra gondoltam, de tény, hogy sok WS-es kártyán alig van hűtés vagy teljesen passzív... Nálam a felvett áram -> hőfejlődés egyenes arányban vannak.
Természetesen nem mind 1 mire van használva.

A kapacitás útvesztőjébe nem szeretnék belekeveredni, valami olyasmi volt a fejemben, hogy bizonyos feladatokat gyorsabban-jobban tud ellátni a WS-es kártya (és többet), mint a gamer változat. (Tehát kapacitás: befogadó képesség-teljesítőképesség)


 
Válasz írásához előbb jelentkezz be!
1. ChoSimba Humbu...
2015.09.05. 10:24
Azért nincs rajta hűtés, mert azok a "kis" kártyák. Nem a csúcskártyák.
A csúcskártyák mindkét gyártónál benyalják a 2-300W-ot, amit ugye hűtés nélkül nem lehet járatni.
Mi több, azok a kártyák gyakran órákig, napokig futnak maximális teljesítményen (renderelés, stb).
Consumer piacon is a kis kártyáknak nincs olyan komoly hűtése, sőt ugye vannak passzív kártyák is az alsó szegmensben.
 
Válasz írásához előbb jelentkezz be!