iPon Hírek

Részben nyílt forráskódú lett az Nvidia PhysX

Dátum | 2015. 03. 06.
Szerző | J.o.k.e.r
Csoport | SZOFTVER

Megnyílt az Nvidia PhysX CPU implementációja Az Nvidia részben nyílt forráskódúvá tette saját, házon belül fejlesztett technológiáját, a PhysX-et, ami CPU és/vagy GPU alapú számításokkal próbál élethű fizikát csempészni a különböző játékokba és alkalmazásokba. A PhysX részben nyílt forráskódúvá tételéről a GDC-s Epic rendezvényen esett szó, ahol egyebek mellett az Nvidia következő csúcskártyáját, a GeForce GTX Titan X modellt is megtekinthették a szerencsések. Az időzítés persze nem véletlen, hiszen nemrégiben az Unreal Engine 4 is hozzáférhető lett bárki számára, amelynek szerves részét képezi az Nvidia PhysX eljárása. A nyitás a legfrissebb, 3.3.3-as kiadást érinti.
A PhysX-et viszont csak részben nyitotta meg az Nvidia, ugyanis jelenleg csak a CPU alapú implementáció kódjához férhetnek hozzá az érdeklődők, a GPU-specifikus kódbázis a jelek szerint továbbra is zárt marad. Az Nvidia – Sweeney elmondása szerint – a kód esetében elfogad majd módosításokat, a PhysX főágát pedig időközönként módosítani, frissíteni fogják a cég szakemberei. A PhysX nyílt forráskódú részének frissítéseit a jövőben megjelenő Unreal Engine kiadásokon keresztül érheti el a programozói közösség. A PhysX SDK mostantól több operációs rendszer alatt is elérhető A PhysX-szel kapcsolatban egyéb bejelentést is tartogatott a GDC 2015 idejére a vállalat, ami szintén komoly jelentőséggel bír. A PhysX SDK a Windows után mostantól Android, OS X és Linux alatt is elérhetővé vált. Az SDK és a forráskód az Nvidia GameWorks gyűjteményén keresztül is elérhető, a hozzáféréshez szükséges leírás pedig itt található.
Új hozzászólás írásához előbb jelentkezz be!

Eddigi hozzászólások

32. Meteoreso
2015.03.06. 09:30
"ugyanis jelenleg csak a CPU alapú implementáció kódjához férhetnek hozzá az érdeklődők, a GPU-specifikus kódbázis a jelek szerint továbbra is zárt marad."
A GPU vagyis a videókártya nagyságrenddel gyorsabb számításokra képes mint a CPU, azaz elmondhatjuk hagynak beleszólni úgy 1 ezrelékben a történésekhez, majd ha oké amit írsz saját jogdíjjal átemelik a GPUhoz
 
Válasz írásához előbb jelentkezz be!
31. CyberPunk6... Meteo...
2015.03.06. 10:17
"A GPU vagyis a videókártya nagyságrenddel gyorsabb számításokra képes mint a CPU"

Bizonyos számításokban gyorsabb, mint a CPU, más számításokban lassabb és vannak olyan dolgok amire nem is képes, de a cpu igen.
Egyszerűen nincs is értelme az összevetésnek ÁLTALÁNOS szempontból. Tehát általánosan nem jelenthető ki ilyen, amit leírtál.

Inkább úgy akarhattad írni, hogy a physX nagyságrendekkel gyorsabb gpu-n, mint cpu-n és akkor nem is lehetne már belekötni.
 
Válasz írásához előbb jelentkezz be!
30. gab78
2015.03.06. 10:25
Ha jól lenne CPU-ra optimalizálva és kihasználná a modern utasításkészletek kínálta előnyöket, akkor az esetek jó részében egyáltalán nem kellene GPU-s gyorsítás.

Ez egy kényszer, a konzolok miatt. Semmi több.
 
Válasz írásához előbb jelentkezz be!
29. CyberPunk6... gab78
2015.03.06. 10:30
Nem, a cpu egész más felépítésű, a sok lebegőpontos és párhuzamos számítás terén (a fizika (persze vannak kivételek) tipikusan ilyen (és a grafika is, ezért használják arra)) a fasorban sincs egy cpu egy gpuhoz képest.

Azon egyszerű és nyilvánvaló okból, hogy egyáltalán nem is erre tervezték.

Azt a feladat dönti el, hogy melyiket érdemes használni.
 
Válasz írásához előbb jelentkezz be!
28. rini
2015.03.06. 11:53
Ez egyrészt igaz de másrészt nem feltétlenül állja meg a helyét. Való és igaz, hogy a gpu alapvetően hasonló feladatokra van tervezve de ez az adott program megírásától függ. Lehet úgy is írni, hogy sokkal gyorsabban fusson cpu használatával mint gpu-val. Az más kérdés, hogy leginkább a programok írói a gpu erejét igyekeznek ilyen célokra kihasználni. Másrészt azért vannak olyan programok amelyek éppen a cpu erejével teszik meg ugyan ezt. A grafika megjelenítéséért felelős csak a kártya. De van olyan eset is amikor mindkettő egyszerre dolgozik a végeredmény érdekében. Egyik sincs alárendelve a másiknak csak bizonyos dolgot az egyik, míg mást a másik dolgozza fel.
 
Válasz írásához előbb jelentkezz be!
27. CyberPunk6... rini
2015.03.06. 12:11
Nyilván lehet a gpu-n is egy szálon egészekkel számolni, meg számlázó programot futtatni, csak minek. Nyilvánvalóan hülyeség.

A legtöbb esetben nem a programozón múlik, hogy melyikkel lehet jobban futtatni valamit, hanem a feladaton.
Márcsak azért sem, mert a kettő FIZIKAI felépítésében eltér, ezért azt semmilyen szoftveres módon nem fogod megváltoztatni.
Meg lehet erőszakolni, csak semmi értelme.


Egyébként a párhuzamos programokat meg lehet csinálni sorosan is (sokáig így is zajlott), csak barmi sokáig fog tartani mire végez vele a gép.
Ellenben a soros végrehajtást sokszor nem lehet felbontani párhuzamos lépésekre (előző eredményére építő számítások).


Az nyilvánvaló, hogy legtöbbször mind a kettő dolgozik ,sokszor nem is ugyanazon, de az adott feladat nagyságrendekkel nagyobb része fut a gpu-n, és azon nagyságrendekkel gyorsabb lesz normálisan megírva. Ha csak közepesen megírják gpu-ra, akkor a legjobb megoldás sem fogja megközelíteni cpu-n annak a sebességét.

Mert a kialakítása fizikailag más, és a gpu alkalmasabb a feladatra.
 
Válasz írásához előbb jelentkezz be!
26. vash_hu
2015.03.06. 13:11
Ennél nagyobb hülyeséget itt még nem olvastam, pedig erős a mezőny
 
Válasz írásához előbb jelentkezz be!
25. 5hR3kY
2015.03.06. 13:22
Ha azt csinálsz a CUDA magokkal amit akarsz, akkor telepíts már rá egy Windowst!
 
Válasz írásához előbb jelentkezz be!
24. tibaimp
2015.03.06. 13:54
"GPU-specifikus kódbázis a jelek szerint továbbra is zárt marad" -- vagyis az amd ne férjen hozzá, ha viszont cpu-val számoltatod akkor kell az erős cpu is (intel i7-es), vagy veszel nvidia vga-át.
De kedvesek...adtak is meg nem is....
 
Válasz írásához előbb jelentkezz be!
23. vash_hu
2015.03.06. 14:37
Inkább te linkelj valamit megbízható forrásból ami alátámasztja ezt a hülyeséget (mármint, hogy az AMD csak textúrázik oszt jónapot). Jó, hogy nem már azt írtad, hogy az AMD kártyákon kicsi beépített kínaiak rajzolják a képet HB-s ceruzával...
 
Válasz írásához előbb jelentkezz be!
22. CyberPunk6... vash_...
2015.03.06. 14:47
Mindenki tudja, hogy legalább 4H-s ceruza kell, hogy hd-ban tudjanak rajzolni
 
Válasz írásához előbb jelentkezz be!
21. I.Jozsef83 Cyber...
2015.03.06. 14:51
Pediglen tökéletesen jól írja Meteoreso ! GPU magasan veri CPU teljesítményét ! Nézz csak egy egyszerű FHD lejátszást ... de jobb ha utánnanézel dolgoknak ! NEM minden VGA -ra igaz és jellemző ! Egy i7 szenved , amíg egy jobb VGA GPU -ja már végzett a lekódolással Nem az a lényeg hogy milyen felépítésűűű

Valamí hír kellett NV oldalról nehogy feledésbe merüljön . Hatalmas hőstett NV részéről .
 
Válasz írásához előbb jelentkezz be!
20. Phantomstr...
2015.03.06. 14:51
Pedig mióta minden prociban van IGP lenne értelme például a fizikát arra hagyni és a DGPU-t meghagyni a többi feladatra. Mondjuk ez a sírba küldené az Athlon II-ket és FX-eket, de utóbbit már rég ki kellett volna vonni a piacról, előbbit pedig ki sem adni.
 
Válasz írásához előbb jelentkezz be!
19. I.Jozsef83 Phant...
2015.03.06. 14:54
Pedig mióta minden prociban van IGP lenne értelme például a fizikát arra hagyni és a DGPU-t meghagyni a többi feladatra. Mondjuk ez a sírba küldené az Athlon II-ket és FX-eket, de utóbbit már rég ki kellett volna vonni a piacról, előbbit pedig ki sem adni.

Nem kellene kezdeni már megint mással foglalkozni , mint amiről a hír szól ! Inkább nem is minősítelek , szánalmas vagy.
 
Válasz írásához előbb jelentkezz be!
18. I.Jozsef83 rini
2015.03.06. 14:58
A grafika megjelenítéséért felelős csak a kártya.

Ez még az S3 Trio korszakában igaz volt
aztán jött a 3D korszak a VGA -ra támaszkodva + CPU segítségre... és egyre erősebb VGA-ra .
 
Válasz írásához előbb jelentkezz be!
17. CyberPunk6... I.Joz...
2015.03.06. 15:05
Ha szerinted nem számít, hogy a gpu és a cpu totál másként épül fel, és ebből következően alkalmasak más feladatokra, akkor inkább hagyjuk is.

Akkor miért nem gpu-t használunk cpu helyett is?
 
Válasz írásához előbb jelentkezz be!
16. I.Jozsef83 gab78
2015.03.06. 15:09
Rosszul közelíted meg te gyerek a lényeget , vagy a te szájízednek így felel meg , de :
azért helyeződött át a dolog a GPU-ra , GPU oldalra ,mert sokkalta ( többszöröse ) nagyobb a számítási teljesítménye ! Nem véletlen növelik a Shader procik számát a GPU -ban , de ha jobban tetszik csudamagok .
 
Válasz írásához előbb jelentkezz be!
15. iattilagy
2015.03.06. 15:11
Te mit tolsz? Mert erős cucc lehet. Az opencl szerinted mire való? Teljesen jó, hogy mindenki olyan dolgokról nyilatkozik, amikról max a neten olvasott, két sort. A GCN radeont pont computera lett kifejlesztve és ebben sokkal jobb az nv desktop gpuknál. (NV-nél külön vonal van, de az szerverekbe való) A konzolokba meg főleg, mert ott az egységes címtér miatt nem kell másolgatni.
 
Válasz írásához előbb jelentkezz be!
14. I.Jozsef83 Cyber...
2015.03.06. 15:14
Miért akarnál CPU -ból GPU-t is csinálni ? Akkor legyen fordítva GPU kapjon meg minden CPU utasításkészletet , és legyen 4magos a GPU Melyik lenne életképesebb megoldás ?
 
Válasz írásához előbb jelentkezz be!
13. Phantomstr... I.Joz...
2015.03.06. 15:18
Személyeskedés nélkül nem tudsz reagálni egy hozzászólásra, de én vagyok a szánalmas.
 
Válasz írásához előbb jelentkezz be!
12. I.Jozsef83 Phant...
2015.03.06. 15:28
NVidiás hírnél nem az AMD-t kellene gyalázni ! Plusz te érzed annak , ez meg nem az én problemám , sorry .
 
Válasz írásához előbb jelentkezz be!
11. Phantomstr... I.Joz...
2015.03.06. 15:34
A hír arról szól, hogy a Physx CPU-n alkalmazható része nyitott lett, én pedig megjegyeztem, hogy mióta minden CPU-ban van IGP, ezzel már nem érdemes szarakodni és ez kinyírna pár régebbi modellt. Ez se nem off, se nem gyalázás.
 
Válasz írásához előbb jelentkezz be!
10. CyberPunk6... I.Joz...
2015.03.06. 16:13
Te most trollkodsz vagy mi van?
Mintha direkt adnád a hülyét.

Nem hiszem el, hogy nem direkt csinálod
 
Válasz írásához előbb jelentkezz be!
9. csabi02 I.Joz...
2015.03.06. 19:00
Mindig azokat oltod akik képben vannak,hihetetlen vagy
 
Válasz írásához előbb jelentkezz be!
8. csabi02 tibai...
2015.03.06. 19:02
ott a lényeg!
 
Válasz írásához előbb jelentkezz be!
7. Humbuk
2015.03.06. 21:30
I.Jozsef83: Ahogy CyberPunk is írja, hiába tűnik erősebbnek a GPU, minden program olyan környezeten fut amelyre tervezték! Baromi egyszerű! Hiába erős a kamion, ha egy 4ed akkora kocsival 3x olyan gyorsan tudsz menni az autópályán... Persze a kamion meg elhúzza a nagyterhet...
Mégsem kamionnal járunk mindenhova... (nem mellesleg mekkora teljesítmény kell ehhez? 150-200W? amikor a proci néha 50-60Wból is kijön...)

A lényeg, hogy mindent a helyén kell kezelni! A procinak is meg van a létjogosultsága és a gpunak is.

ON: Ennek a hírnek azért kell örülni, mert ez is olyan a sorban, amely a linuxra is ad egy pici morzsát! Szépen lassan úgy néz ki, hogy elindulhatunk abban a sötét alagútban amely a linux nagyobb elterjedése felé vezethet! (sok új játék is van stb..)
 
Válasz írásához előbb jelentkezz be!
6. 5hR3kY
2015.03.06. 21:52
Én nem vagyok képben? Nálad a probléma ha még az OpenCL-t sem ismered, csak mint jó zöld szemüveges az nVidia zárt kihalófélben lévő CUDA-ját mantrázod. Amúgy meg írhatsz a csoda CUDA-ra akármilyen programot, de játékban csak arra használhatod amire a játékkészítők engedik, ott nincs sok választásod.
 
Válasz írásához előbb jelentkezz be!
5. _DiEGO_
2015.03.06. 23:17
Lényeg , hogy minél több szoftver kap GPU támogatást . És miért is ? Mert egy AMD vagy NV GPU sokszorosa akármelyik CPU -nak ! ennyi .

Humbuk

Te egy , egy 4ed akkora kocsival 3x olyan gyorsan eltudod vinni a szállítmányt a megadott helyre mint egy odaillő kamionnal ? gratula öreg . Mert itt a teljesítményről van szó !!!
És nem tűnik , hanem állítás : erősebb is . De olyan alkalmazást nézz ahol van mind CPU és GPU támogatás is ! és próbáld csak ki csak CPU -val kiszámoltatni - majd ugyanazt GPU -val .
szerintem mindenki tudja ki a befutó magasan . És igen , ahogy ezt jól írtad :
A lényeg, hogy mindent a helyén kell kezelni! csak tudni is kell azt alkalmazni

Az utolsó kettő mondatod az helytálló .


 
Válasz írásához előbb jelentkezz be!
4. CyberPunk6...
2015.03.07. 00:37
Feladom, rá kellett ébrednem, hogy itt egy csomóan azt hiszik, hogy a gpu csak egy szupergyors cpu, és még véletlenül sem akarnak elszakadni ettől a hülyeségtől.



Még egy utolsó próba nagyon lebutítva:



A gpu nagyon sok kicsi egység, amik egyszerre tudnak dolgozni.
A cpu meg néhány baromi erős.

Nyilván ezer kis feladatot a gpu fog tudni gyorsabban elvégezni.
Egy olyan feladatot viszont, ahol az aktuális számításhoz szükség van az előző eredményére, azt már a cpu fogja jobban csinálni. Mert hiába van sok egység a gpu-ban, ha kell a korábbi eredmény, akkor nem tud addig számolni, és az egyes egységeik sokkal gyengébbek, mint a cpunak.


Aki felfogja felfogja, a többiek nyomják tovább a hülyeséget, viszlát.


http://prohardver.hu/tudastar/a_processzorok_tipusai.html
 
Válasz írásához előbb jelentkezz be!
3. Humbuk
2015.03.07. 13:10
_DIEGO_: Csak a te kedvedért!
"Ahogy CyberPunk is írja, hiába tűnik erősebbnek a GPU, minden program olyan környezeten fut amelyre tervezték!"

Ez a mondat arról szól, hogy minden okkal történik! Vagyis ha egy progi CPU-ra van optimalizálva, annak mérnökinformatikai okai vannak (Lásd C.Punk leírásait)

"Baromi egyszerű! Hiába erős a kamion, ha egy 4ed akkora kocsival 3x olyan gyorsan tudsz menni az autópályán..."

Ez a rész a kamion erejéről és az autó gyorsaságáról szól! Attól, hogy valami erős, nem feltétlenül gyors!

"Persze a kamion meg elhúzza a nagyterhet..."

Hiába gyors az autó, mégis kamionnal szállítjuk az árut, mert a kamion van kifejlesztve áru szállításra.

"Mégsem kamionnal járunk mindenhova..."

Bár a kamion nagyon erős, személyi autóval még is könnyebben jutunk el bárhova és nem a sokkal magasabb fogyasztású kamiont választjuk.

"(nem mellesleg mekkora teljesítmény kell ehhez? 150-200W? amikor a proci néha 50-60Wból is kijön...)"

Itt ()-be megjegyzem a VGA és CPU közötti brutális teljesítmény különbséget is!! Csak, hogy az sem elhanyagolható!

Szóval mit is értettél félre? Szerintem elég világos volt az amit leírtam.
A gratulációt meg elfogadom, mert nem az én szövegértési modulomban van kékhalál.
=========================================================
Ha van egy nagyon hosszú hatáslánc (értékekre kell várni, eredményekre), akkor a processzor jobb megoldás! Mert irgalmatlanul gyors, brutális számítási kapacitással!

Ha van sok-sok rövid egymástól független láncolat (aminek az eredményeit később fűzzük össze) akkor a GPU nyer brutális számítási kapacitásával.

A processzor mindent hosszú láncban számol (még a független láncolatokat is), a gpu meg alig bírja kiszámolni a hosszú láncolatokat, mert nem tudja felbontani pici részekre.

Ennél érthetőbben nekem sem megy a leírás...
szerk: "De olyan alkalmazást nézz ahol van mind CPU és GPU támogatás is !" Annyit érts meg kérlek, hogy ez a két dolog egy rendszert alkot... Az operációs rendszer kell hogy fusson a cpu-n, mert OP rendszer nélkül nem igen fogod használni a gpu-t!! NEM! NEM! AZ nvidiás csak vga-kból álló szuperszámítógép sem jó mindenre.
 
Válasz írásához előbb jelentkezz be!
2. kiskoller Cyber...
2015.03.07. 14:12
Gratulálok, kalapomat emelem!

Kemény kitartás kell, hogy ennyire a többiek szájába rágd a dolgot, én már a második idióta hsz. után feladtam volna
 
Válasz írásához előbb jelentkezz be!
1. I_love_Nap...
2015.03.08. 11:17
Örülök, hogy az nv tett végre valamit ami a piac hasznára válik!
 
Válasz írásához előbb jelentkezz be!