iPon Hírek

AMD: a PhysX halálra van ítélve

Dátum | 2008. 12. 12.
Szerző | J.o.k.e.r
Csoport | MEGJELENÍTÉS

Az AMD egyik illetékese, név szerint Goldfrey Cheng, egy elég érdekes nyilatkozatot adott a bit-tech.net munkatársainak. A srácok Mr. Cheng-et arról kérdezték, hogy mi a véleménye az Nvidia PhysX technológiájáról, illetve annak jövőjéről. Az AMD Grafikai részlegének Technikai Marketing Igazgatója meglehetősen furcsa és meglepő kijelentéseket tett.

Cheng állítása szerint azzal, hogy ők kiemelt módon támogatják az OpenCL és a DirectX 11-es technológiákat, a zárt, termékekhez köthető szabványok - mint amilyen az Nvidia PhysX megoldása, ami csak a vállalat kártyáival működik együtt - el fognak tűni a piacról, vagyis halálra vannak ítélve. Cheng később hozzátette, hogy véleménye szerint a végleges játékokban a GPU által támogatott fizikai számítási módnak a játékmenet szerves részét kell képeznie és nem kizárólag a látványelem szerepét kell, hogy betöltse. Amennyiben a GPU-s fizikai támogatás csak a látvány miatt kerül a játékba, az eljárás szerepe leértékelődik, jelentőségét és értelmét veszti.


Cheng érvelésében bizony bőven van logika. A főbb játékfejlesztő vállalatok jelenleg csak és kizárólag a látványelemekre korlátozzák a PhysX támogatás alkalmazását, kitűnő példa erre a Mirror's Edge. Ezek a fejlesztők valószínűleg továbbra sem használják majd a látványelemeken kívül másra a PhysX támogatást, legalábbis addig szinte biztosan nem, amíg ugyanazokat az effekteket, illetve eljárásokat nem tudják elérni az AMD és az Nvidia kártyáin egyaránt. Ha nem így tesznek, és valamelyik gyártó mellett elkötelezik magukat, azzal rengeteg vásárlót veszíthetnek.

De hogy mi is az AMD valódi célja azon kívül, hogy leértékeli az Nvidia PhysX megoldását? A vállalat bejelentése szerint jelenleg  és a továbbiakban is együttműködnek a Havok szakembereivel a hardveres fizikai támogatás megalkotásának érdekében. Az, hogy ennek az együttműködésnek az első gyümölcsét mikor láthatjuk, egyelőre rejtély, erről ugyanis nem szolgált információkkal az AMD illetékese.

Új hozzászólás írásához előbb jelentkezz be!

Eddigi hozzászólások

17. cizoe
2008.12.12. 11:42
Amúgy a cikk utolsó két bekezdésével teljes mértékben egyetértek.
 
Válasz írásához előbb jelentkezz be!
16. cizoe
2008.12.12. 11:59
Hát ha az Intel nem sokára beszáll a versenybe, jelen állás szerint csak az ATI/AMD nek lesz esélye felvenni a versenyt a Larrabee-vel. És szerintem ezt tudja mindhárom fél nagyon jól. Ez a physx egy az utolsó kaparások közül, amit az NV tesz a dekstop piacon maradásért (tipikus gamer megtévesztés a céljuk - "némá ottegy függöny, gyádejó"
 
Válasz írásához előbb jelentkezz be!
15. cizoe
2008.12.12. 12:21
Lesz itt verseny, ha jön az Intel... :blink:
 
Válasz írásához előbb jelentkezz be!
14. cizoe
2008.12.12. 12:29
Ja. De nem nagyon tartozik a témába (az előzö kommented az vicces volt ,ez nem).
 
Válasz írásához előbb jelentkezz be!
13. StevyXIX
2008.12.12. 12:33
Hát nem thermaltake tápot raknék bele az biztos ...
meg 1000 wattos táp is nagyon kell egy ilyen gépbe ...
és a memória is jó érzéssel lett kiválasztva ...
egy merevlemezt kicsit nehéz raidbe kötni
de amúgy jó gép
 
Válasz írásához előbb jelentkezz be!
12. cizoe
2008.12.12. 12:44
(Vendég_z_* @ 2008 Dec 12, 12:39) Szóval majd lehet venni a 100k ft-os ati kártyákat. Aztán örömködhedtek.
 
Válasz írásához előbb jelentkezz be!
11. cizoe
2008.12.12. 12:55
Nvidia nem nagyon róhat fel technológiai hiányosságokat az ATI/Intel szemére. Mindig a Physx-szal (nem is saját fejlesztésük), meg a CUDA-val jönnek, közben meg csak transzisztorokat képesek pakolni a kártyákba meg matricákat gyártani...
 
Válasz írásához előbb jelentkezz be!
10. StevyXIX
2008.12.12. 14:01
PhysX nem nyújt többet semmivel sem, csupán a fizikai számítások számításának a terhét átveszi a videokártyától így az annyival gyorsabb lesz.
 
Válasz írásához előbb jelentkezz be!
9. Vajaskenye...
2008.12.12. 14:23
(Vendég_Gpety_* @ 2008 Dec 12, 12:45) Nem csak látványelemekre használni a Physix-et játékokban? Ugyan mi másra lehetne még, hisz azért van és arra nagyon is jó, egyre látványosabb.
Bírom az ilyen kijelentéseket. Kíváncsi volnék, ha az Intelt, vagy az Nv-t megkérdeznék, hogy mi az AMD jöv?je. A válasz a címben olvasható lenne.

De okos vagy :rolleyes: . A PhysX-nek az a lényege, hogy a GPU átvehet számításigényes feladatokat a CPU-tól, tehermentesítve azt. Ez által a CPU mással is foglalkozhat, így egy gyorsabb válaszidej? rendszert eredményezve. A nevében arra utal, hogy eredetileg fizikai számítások gyorsítására van szánva. Egy játékban ez például azt eredményezheti, hogy több objektum kölcsönhatását tudja a rendszer valós id?ben lemodellezni.
 
Válasz írásához előbb jelentkezz be!
8. leviske
2008.12.12. 14:24
mihaly.hermann: Jaaaaj, nyugodj meg. Lesz itt verseny.
 
Válasz írásához előbb jelentkezz be!
7. StevyXIX
2008.12.12. 15:19
Hát te se vagy kivétel, ha ezt benyögted ide ...
 
Válasz írásához előbb jelentkezz be!
6. leviske
2008.12.12. 16:08
hdd: Igaz, kicsit túlzóan fogalmaztam.

Bár abból ítélve, hogy a Dice lett volna (és még mindíg lehet) az első csapat, akik teljes mértékben kihasználják az R600 architektura adottságait, azt merem mondani, hogy némileg az AMD felé húznak, bár még nem néztem Mirror's Edge tesztet, hogy ez még mindíg fen áll-e. A Crytek a Cinema 2.0 bejelentése óta tagja az ATi-s csapatok táborának. Ezekből ítélve én kétlem, hogy az EA vasszigorral tartatná be a fejlesztőkkel, hogy a GeForce-okat részesítsék előnyben.
 
Válasz írásához előbb jelentkezz be!
5. Multitask
2008.12.13. 14:53
Mert te jobb vagy...
 
Válasz írásához előbb jelentkezz be!
4. leviske
2008.12.13. 18:44
Para: Az Intel nem is szándékozik jelenleg komolyabban beszállni a VGA piacra. Ha véletlenül 2009-ben előállnak egy diszkrét VGA megoldással, az maximum a középkategóriába lesz elég. A Larrabee távol nem erre a terepre lett/lesz készítve, ez eddig is nyilvánvaló volt. Az Intel komolyabban majd inkább a következő konzolgeneráció megjelenésénél tud majd labdába rúgni. Viszont abban az időben már távol nem NV-s és ATi-s tapasztalatokra lesz komolyabban szükség, ezért is valószínűsítik sokan, hogy az NV, X86 fejlesztés hiányában valószínűleg ki fog lépni a desktopVGA piacról. Bár távol nem volna lehetetlen, hogy előtudnának húzni egy X86-s fejlesztést, de az eddigi lépéseik nem arra utalnak, hogy ez várható volna.

hun: Járnak az iPon-ra érdekes formák. Nem kell velük különösebben foglalkozni.

"Szerencse, hogy vannak itt akik terjesztik az igét. Az nem baj, hogy a valósághoz nincs köze, és elvakultsággal átitatoot jónéhány hozzászólás, azért Te mondd csak, hogy én vagyok a pöcsfej."

Remélem nem én vagyok az egyikük
 
Válasz írásához előbb jelentkezz be!
3. bszoke88
2008.12.13. 23:41
hagyjuk a személyeskedést és mások sértegetését!!!
 
Válasz írásához előbb jelentkezz be!
2. StevyXIX
2008.12.14. 20:44
Majd valaki kitalálja, hogy a víz megjelenítésére és annak megnyilvánulására csinál egy hardware-t (nevezzük egyszerűen Hydronak) és ez leveszi majd terhet a gép "válláról" így az annyival gyorsabb lesz, majd ez után jön még valaki aki a nap sugarait és annak visszaverődésiet fogja külön hardware-en számoltatni. mert hű de jó lesz majd.
Végül lesz egy rakás vacak kütyü mind mást számol, te meg vedd meg, mert ez ennyit az meg annyit gyorsít.
NEM!
minek vannak ilyen erős nagy számítások elvégzésre képes kártyák, mint amd 4800-asok vagy GTX200-ek ???
Hát ezért, hogy ezeket mind kiszámolják, nem kell ide külön hardware egyszerűen programot kell írni, hogy ezek a videokártyák számolják ki a fizikát és ne a processzor. Hidd el megvan bennük rá a potenciál, a processzor majd bele gebed, de ezeknek nem gond ezt a kis számítást elvégezni erre születtek, hát akkor írjanak rá programot így már nem a processzort fogja terhelni a számítások elvégzése. A cuda is ebbe az irányba halad, gpu-k általános célú felhasználása, így nem hiszem, hogy ezt lehetetlen lenne megoldani.
Talán a havokkal majd megoldják.
Ez csak egy újabb mézesmadzag, Nvidia látja a vesztét, nem lesz piaca a különálló gpu-nak és próbálkozik, de ezek elég gyenge próbálkozások (EA-nek biztos jól jött a gázsi, elég erős a visszaesésük, projekteket törölnek el, mert nem megy a biznisz ...).
 
Válasz írásához előbb jelentkezz be!
1. bszoke88
2008.12.14. 21:21
persze, itt ismét a pénzről van szó, a mai videókártyákból és processzorokból sokkal többet is ki lehetne hozni, csak a programozók lusták ill. az adott cégek a határidőre mennek, nem a minőségre...
 
Válasz írásához előbb jelentkezz be!