iPon Hírek

AMD: komplett OpenCL SDK, Radeon HD 5900

Dátum | 2009. 10. 14.
Szerző | J.o.k.e.r
Csoport | MEGJELENÍTÉS

Fejlesztők, figyelem! Megérkezett az AMD Stream SDK v2.0 béta változata

Az OpenCL programnyelv esetében ismét egy nagy mérföldkőhöz érkezett az AMD: a vállalat elkészült AMD Stream SDK v2.0 béta névre keresztelt komplett fejlesztőrendszerével, amely még ugyan csak béta verzióban érhető el, de már tökéletesen megfelel az OpenCL 1.0-s szabvány minden specifikációjának és előírásának. Az újítás, azaz az OpenCL lehetővé teszi, hogy a videokártyánk grafikus processzorát általános számítási feladatokra is befoghassuk. A komplett fejlesztőkörnyezet megjelenése már csak azért is jó hír, mert így elkezdődhetnek végre a GPU alapú programok fejlesztési munkálatai, így egyre több és több alkalmazás profitálhat majd a GPU-k hatalmas számítási teljesítményéből.

A fejlesztőrendszer regisztráció nélkül, bárki számára elérhető. A vállalat a fejlesztők számára az AMD Stream SDK v2.0 béta mellett a szükséges videokártya drivereket is elérhetővé tette, maga a fejlesztőkörnyezet pedig Windows 7, Windows Vista, Windows XP, openSUSE 11-es és Ubuntu 9.04-es operációs rendszerekhez egyaránt elérhető 32- és 64 bites formában egyaránt.

A támogatott videokártya sorozatok között a Radeon HD 4000-es és a Radeon HD 5000-es családok foglalnak helyet. Érdekesség, hogy a fejlesztőcsomag és az OpenCL nyelv használatával a programkódok x86-os, az SSE3-es utasításkészlet támogatásával felvértezett processzorokon is futtathatóak, így igen komplex programok írására nyílik lehetőség.

Radeon HD 5900-asokra utaló nyomok a béta OpenCL driverekben

Az AMD Stream SDK v2.0 béta megjelenésével számos béta meghajtóprogram is megjelent a gyártó videokártyáihoz, amelyekben érdekes sorokra bukkantak a szemfüles külföldi kollégák. A driverekben a Radeon HD 5700-as és Radeon HD 5800-as videokártyák mellett rejtélyes módon Radeon HD 5900-as termékekről is találhatunk két sort.

Az ominózus driver-részlet:

"ATI Radeon HD 5700 Series" = ati2mtag_Evergreen, PCIVEN_1002&DEV_68B8
"ATI Radeon HD 5700 Series " = ati2mtag_Evergreen, PCIVEN_1002&DEV_68B9
"ATI Radeon HD 5700 Series " = ati2mtag_Evergreen, PCIVEN_1002&DEV_68BE
"ATI Radeon HD 5800 Series" = ati2mtag_Evergreen, PCIVEN_1002&DEV_6898
"ATI Radeon HD 5800 Series " = ati2mtag_Evergreen, PCIVEN_1002&DEV_6899
"ATI Radeon HD 5900 Series" = ati2mtag_Evergreen, PCIVEN_1002&DEV_689C
"ATI Radeon HD 5900 Series " = ati2mtag_Evergreen, PCIVEN_1002&DEV_689D

"EG CEDAR" = ati2mtag_Evergreen, PCIVEN_1002&DEV_68E8
"EG CEDAR " = ati2mtag_Evergreen, PCIVEN_1002&DEV_68E9
"EG CEDAR " = ati2mtag_Evergreen, PCIVEN_1002&DEV_68F8
"EG CEDAR " = ati2mtag_Evergreen, PCIVEN_1002&DEV_68F9
"EG CEDAR " = ati2mtag_Evergreen, PCIVEN_1002&DEV_68FE
"EG REDWOOD" = ati2mtag_Evergreen, PCIVEN_1002&DEV_68C8
"EG REDWOOD " = ati2mtag_Evergreen, PCIVEN_1002&DEV_68C9
"EG REDWOOD " = ati2mtag_Evergreen, PCIVEN_1002&DEV_68D8
"EG REDWOOD " = ati2mtag_Evergreen, PCIVEN_1002&DEV_68D9
"EG REDWOOD " = ati2mtag_Evergreen, PCIVEN_1002&DEV_68DE


Egyelőre csak találgatások folynak azzal kapcsolatban, hogy ez a két sor pontosan milyen termékekre is utal, de egyesek szerint itt csak arról van szó, hogy a gyártó a Radeon HD 5870 x2-es modelljét Radeon HD 5900-as néven írta be a béta driverbe. Ez a magyarázat kissé logikátlannak hangzik, de van ennél hihetőbb is. A források szerint a Radeon HD 5900-as kártyák az egy GPU-val ellátott Nvidia Fermi egységek ellen szállnak harcba, és ezek tulajdonképpen nem lesznek mások, mint felsőkategóriás videokártyák. A sorok érdekesek, de hivatalos magyarázat híján felesleges is tovább találgatni. Majd meglátjuk, mit hoz a jövő. A Cedar és Redwood kódnevek egyébként DirectX 11-es támogatással ellátott alsókategóriás videokártyákat takarnak, amelyeket az AMD a következő év első negyedévében dob majd piacra.

Új hozzászólás írásához előbb jelentkezz be!

Eddigi hozzászólások

21. csab959
2009.10.14. 18:15
VISSZA A HIRHEZ

érdekes..:|
 
Válasz írásához előbb jelentkezz be!
20. leviske
2009.10.14. 18:22
Már nem emlékszem, arról van hivatalos bejelentés, hogy a Hemlock-ra a HD5800X2 széria fog épülni?

Egyáltalán nem tartom lehetetlennek, hogy a Hemlock esetében két, egybetokozott Cypresst lehet majd tisztelni és erre fel már nem X2-esként érkezik, hanem 900-asként.

Ezzel tudnák ennek a számozásnak bebiztosítani a létét, ha a későbbiekben lesznek 4 GPU-s kártyák.

MOD: Közben az egybetokozást ki is zárnám, mert most jut eszembe, hogy attól már a Hemlockról már jött ki kép....

Viszont akkor is max a X2-esekről lehet szó, hiszen felépítésükből adódóan egy 1GPU-s változat DX11 alatt, tesszelláció esetén nehezen nyomná le az X2-t, maximum, ha az összesített magméret megközelítőleg ugyan akkora, mint az X2-é, aminek gazdaságilag nem lenne sok értelme...
 
Válasz írásához előbb jelentkezz be!
19. rabib
2009.10.14. 18:22
Hát annyi minden történik mostanában, hogy már követni sem lehet. De kíváncsi vagyok, hogy tényleg mit takar az a két sor.
 
Válasz írásához előbb jelentkezz be!
18. danikollar
2009.10.14. 18:40
Mondjuk szerintem a 2. magyarázat tűnik a legértelmesebbnek, hogy lesz 5900-as széria és az lesz igazából a Fermi ellenfele.
 
Válasz írásához előbb jelentkezz be!
17. leviske
2009.10.14. 18:46
(danikollar @ 2009 Oct 14, 18:40) Mondjuk szerintem a 2. magyarázat t?nik a legértelmesebbnek, hogy lesz 5900-as széria és az lesz igazából a Fermi ellenfele.

Ezzel, mint írtam, az a gond, hogy az X2-n teljesítményben nem tudnak túlmutatni, ha a DX11-es játékokat vesszük alapnak. Így nem lenne sok értelme kiadni a 900-as szériát.

Így szerintem viszont pont az 1. válasz a legreálisabb, vagy, ha 3.-at képzelünk és az az, hogy nem lesznek X2-esek, hanem helyettük a Hemlock-ra a 900-as széria épül.
 
Válasz írásához előbb jelentkezz be!
16. rini
2009.10.14. 19:25
Ha ez lesz amit mondtál akkor az a mag túltesz az nV magméreténél, nem is kicsit. A jelenlegi 334 és ha ezt megduplázod egy tokban. Rá se merek gondolni mekkora lesz ennek a fogyasztása és a hőtermelése terhelésnél. Az 5870 is sok házban nem fér el vagy alig fér el, azt pedig kétlem, hogy ez kisebb lenne. Talán 28 nanométeren.
 
Válasz írásához előbb jelentkezz be!
15. leviske
2009.10.14. 19:54
(rini @ 2009 Oct 14, 19:25)

Pont emiatt nincs értelme. F?ként, hogy ezzel a magmérettel, DX11 alatt még mindig "csak" az X2 szintjénél tartanának.... Semmi értelme. Az meg ugye kicsit korai, hogy egy átmeneti, vérfrissítés szériát megemlítsenek a Stream 2 bétában, mikor a 900-asok ez esetben ~fél év múlva lennének várhatók.
 
Válasz írásához előbb jelentkezz be!
14. rini
2009.10.14. 20:29
Szerintem kicsit optimalizálják a magokat és várják a nagyobb teljesítményű gddr5 memóriákat. Esetleg készítenek egy nagyobb sávszélességű nyákot és ebből lesz a59xx-as sorozat.
 
Válasz írásához előbb jelentkezz be!
13. leviske
2009.10.14. 21:40
Srácok. A tesszelláció igényei miatt szinte semmi pluszt nem nyújtana, ha "kicsit gyúrnak a magon" és "nagyobb sávszélességet kap".

Idézet az iPon HD5870 cikkből: "Immár két raszteregység foglal benne helyet, ami eddig abszolút nem volt jellemző a GPU-kra. Az AMD szerint erre azért volt szükség, mert adott órajelen egyetlen egyszerűen nem lett volna képes kiszolgálni a Cypresst, ezáltal pedig visszafogta volna a teljesítményét. Az eddigi nyilatkozatok alapján úgy néz ki, nem kell szoftveres támogatás mindkettő használatához, a hardver ezt elfedi a programok elől, és önmaga gondoskodik a megfelelő terheléselosztásról."

Ahhoz, hogy a Cypress-re rá lehessen duplázni DX11 alatt, négy raszteregység kell. Így ahhoz, hogy egyáltalán a X2-t beérjék, megközelítőleg a Cypress méretének a kétszeresére van szükség. De még ha optimisták vagyunk, akkor is a 1,5x-ére. És ennek nem is volna értelme, hiszen úgyis csak az X2 szintjét hoznák (miután elvileg DX11 alatt a CrossFireX is jobban kihasznált lesz, így még a CFX hiányosságait sem lehetne felhozni ellenérvként). Anno nem hülyeségből lett kitalálva a jelenlegi rendszer... sokkal gazdaságosabb az enthusiast kategóriát egyszerűen, csak két felső-középkategóriás chippel kiszolgálni és a MS mondhatni nagyon jól az AMD keze alá is dolgozott azzal, hogy a DX11-ben kötelezővé lett téve a párhuzamosítás és a több GPU-t/CPU-t tartalmazó rendszerek kihasználása.

Összegezve: A HD5900-asoknak akkor van értelme, ha a Hemlockra épülnek és ezzel az 800X2 szériának vége.
 
Válasz írásához előbb jelentkezz be!
12. rini
2009.10.15. 08:56
leviske - A tesszelláció kihasználtsága még igen messze van. Még fogalmuk sincs arról, hogy mi lesz a játékok legmegfelelőbb kihasználtsága tesszelláció terén. Majd néhány program után tudják optimalizálni rá a magokat. Hiába tudják, hogy mi a szabály, nagyon sok program máshogy fogja megvalósítani. Ha az eggyel kisebb magot választják duplázásra még akkor is hatalmas lesz a magméret.
Lejjebb meg nem mehet mert az 5870 is az 5770 duplája egy tokon belül. Ugyan azt fogják csinálni mint a 4870-nel is tették bár szerintem kap egy új nyákot 384 bittel és egy kis optimalizálást a mag. A más nyák miatt fogják 5900-nak hívni őket.A csúcs az 5870x2 lesz ezután is, hiába lesz felette egy sorozat.Szerintem azért igyekeznek vele mert ők már tudnak valamit az nV kártyájáról amit velünk nem osztanak meg.
 
Válasz írásához előbb jelentkezz be!
11. leviske
2009.10.15. 09:30
rini: Az AMD már jó pár generáció óta teszteli a tesszellációt. Plusz ott az Xbox... Már biztos sikerült kitapasztalni a gyakorlati gyenge pontokat. Az meg, hogy nincs kihasználva, elég fura érv, mikor az összes fejlesztőcsapat a tesszellációra bukott rá, amint meglátták a DX11 specifikációi közt. Szinte az összes (vagy egyszerűen csak az összes?) eddig bejelentett DX11-re épülő játék kihasználja a tesszellációt, és akkor még ott a FE2, ami sejtésem szerint DX11 játékok terén lazán lehet majd olyan felkapott, mint a UE3 DX10 téren.

Azt meg kétlem, hogy a nagyobb sávszélesség bármi pluszt tudna nyújtani sebességben. Ha tud is, akkor is max az képzelhető el, hogy a HD5890 kapja azt a plusz sávszélességet. Marketing szempontból egyszerűen nincs értelme a HD5900 szériának, csak akkor, ha a Hemlock-ra épül. A Fermi ellen meg majd meglátjuk, hogy mire lesz szükség. Ha az nVIDIA eltalálta a dolgokat (kétséges), akkor úgyis csak a Hemlock lesz méltó ellenfél, ha meg nem találta el, akkor a Cypress magában is bőven elegendő lesz. Esetleg jöhet a HD5890...
 
Válasz írásához előbb jelentkezz be!
10. rini
2009.10.15. 10:41
leviske - Jó pár generáció óta teszteli az igaz. Hogy előbbre jár azt is elfogadom de eddig szinte semmi sem használta ki. Az hogy az xbox 360 és az azutáni kártyák tudják az nem azt jelenti, hogy ki is használják sőt még legalább egy év mire elég olyan játék lesz ami ténylegesen ki is használja. Úgy 6-7 játékról van szó, de érkezik közben 10 olyan játék ami meg nem támogatja a tesszellációt.
A nagyobb sávszélesség biztos hogy tud sebességet növelni nagyobb felbontáson és szűrökkel mert mint az a tesztekből is kiderült az 5870 pontosan ennek van híján. Azt nem tartom kizártnak, hogy ez lesz az 5890.
Nézd én úgy látom az nV kártyája a speckok alapján erősebb lesz 10.1-ig mint az 5870. Dx 11-ről nincs véleményem addig amíg nem láttam teszteket róla. Azért felhívnám a figyelmedet arra, hogy az nV is rendelkezik tesszellátor tapasztalattal, mivel rendelkezik olyan céggel amelynek ez a specialitása és évek óta ebben utazik.
 
Válasz írásához előbb jelentkezz be!
9. arkman
2009.10.15. 10:59
"Azért felhívnám a figyelmedet arra, hogy az nV is rendelkezik tesszellátor tapasztalattal, mivel rendelkezik olyan céggel amelynek ez a specialitása és évek óta ebben utazik." Link vagy valami? Ha lenne biztos, hogy nem emulálnák a tesszellálást.
 
Válasz írásához előbb jelentkezz be!
8. leviske
2009.10.15. 11:39
rini: Szerinted ők maguk nem tudnak teremteni megfelelő tesztkörnyezetet a tesszelláció számára? Nem kell ehhez kész játék, főként úgy, hogy Ők nyomták a fejlesztők kezébe a Tessellation SDK-t. Talán csak megtudnak írni egy programot, amivel elő jön(nek) a szűk keresztmetszet(ek).

Az, meg hogy az nVIDIA kezében van olyan gárda, akiknek van tapasztalata a tesszelláció terén, nem mond semmit, miután azt jelen állás szerint szinte biztos emulálni fogják. Emulálással meg kétlem, hogy túl tudnának lépni a Cypress-en. És akkor arról még nem esett szó, hogy még mi mindent fog emulálni a Fermi... Én nem tudnám le ilyen előre, hogy DX10.1-ig a Fermi erősebb lesz. Egyelőre még az is kérdés, hogy a GTX295-ön mennyire fognak túltenni DX9 téren.

DX11-hez meg javasolnám, hogy less meg pár BattleForge tesztet.
 
Válasz írásához előbb jelentkezz be!
7. rini
2009.10.15. 11:44
arkman - Linket nem tudok adni pedig valahol itt olvastam. Azért ragadt meg a fejemben mert a Godzilla című filmnél ez a cég csinálta a számítógépes látványelemeket tesszellátoros megoldásokkal.
Még valami eszembe jutott az 5900-as sorozatról, hogy az x2-es kártyák is magasabb kódnévvel indultak a driverekben.
http://en.wikipedia.org/wiki/Comparison_of...rocessing_units
3870x2 - R680, 4870x2 - R700, R600 - 2900
 
Válasz írásához előbb jelentkezz be!
6. rini
2009.10.15. 13:10
gab78 - Fogalmam sincs, hogy melyik az a cég a felsoroltak közül de német cégről van szó.Azért is emlékszem rá mert akkoriban fogalmam sem volt arról, hogy mi a tesszelláció.Az hogy a tesszelációt szoftveresen vagy hardveresen csinálod az attól még tesszelláció marad. Legfeljebb sebességben lesz különbség. Sehol sincs kikötve, hogy a tesszeláció csak hardveres lehet.

- Köszi! Mondtál egy játék címet 4 ÉV ideje alatt amely használja az xbox360 tesszellációját. Ha 10 lenne az is nagyon kevés lenne.

-Elolvashattad volna a következő hírt is 10. hó 13.-án
Az NVIDIA cáfolja, hogy kivonulna a felsőházból
"Az új kártyák megjelenése mellett a gyártókhoz közeli forrásokból felröppent az a hír, hogy a GeForce GTX 200 szériás kártyák forgalmazása megszűnik. Erről a tegnap be is számoltunk, de az NVIDIA hivatalosan cáfolta az információt. A vállalat elmondása szerint valószínűleg félreértésről van szó, így az említett modellek továbbra is elérhetőek maradnak. A zöldek új generációs architektúrája is sínen van, és várhatóan novemberben meg is érkezik. Ezek alapján aggodalomra semmi ok, a verseny továbbra is kiélezett marad."

-Ha valóban romlik a minőség akkor jogos a felháborodás, de te hol olvastad azt, hogy romlik a minősége a Vantagenek az intel megoldásánál. Mert ezt nem írta senki a cikkben. A cikkben azt irták, hogy az nV és az ATI csalt a driverekkel mert romlót a minősége az adott programnak és ezáltal többnek mutatták a kártyájukat mint amit tudnak.
 
Válasz írásához előbb jelentkezz be!
5. rini
2009.10.15. 14:35
gab78 - Légyszíves olvasd el a cikket még egyszer. Amit most bemásoltál nekem azt a cikkíró az ATI és nV.-re írta. A tisztességtelent azért írta a cikk írója mert az Intel megsértette a
Futuremark 3DMark Vantage Driver Approval Policyét, azaz a Driver Hitelesítő Szabályzatát, amely megtilt mindenféle ehhez hasonló optimalizációt. Hangsúlyozom nem csalt csak megsértette.
- Legyen igazad. A 4 év alatt hány játék jött ki az xbox360-ra és ebből hány támogatta? Na ez a felesleges munka.
-Hát egy előző generációs grafikus kártyát hasonlítasz össze egy újjal akkor tényleg nem változtat semmit.
-Azért azt kétlem, hogy lövése sincs, hogy hogyan lehetne ezt megvalósítani. Ennyire ne nézd hülyének azokat a mérnököket akik ott dolgoznak.Tudod kinek nincs ehhez lövése? Neked meg nekem meg a fórum 99%-nak. Fogalmunk sincs, hogy ezek mit, hogy, miért csinálják csak szeretünk úgy tenni mintha tudnánk és örülünk ha valamit eltalálunk.
 
Válasz írásához előbb jelentkezz be!
4. rini
2009.10.15. 17:10
Ó nem kerülte el a figyelmemet mint ahogy te sem tettél fel screenshotot arról, hogy az Intel grafikus kártyája hamis képet adna így én sem tudok ilyet feltenni. De most eszembejutott egy kérdés. Most te az Intelt véded vagy támadod ebben az ügyben, mert lehet, hogy elbeszélünk egymás mellett, mível az említett idézetett nem én másoltam be az eredeti cikkből.

- Négy év alatt nem fejlesztenek sokan? Átlagossan 4-8 játék jelenik meg havonta xbox360-ra. Akkor ez nem mellékvágány szerinted. Nem úgy kezdödik egy program fejlesztése, hogy megmondom milyen platformra akarom elkészíteni? Mit támogat az adott platform? Ha támogatja a tesszellációt akkor miért nem teszik bele. Plusz munka meg nincs idő? Aki jó játékot akar készíteni az megcsinálja akkor is ha több idő és több munka a játék elkészítése.

-Arra nem gondolsz, hogy esetleg ők máshogy látják a jövőt. Nem a harveres tesszelációt támogatják hanem a szoftverest.Tényleg elhiszed, hogy 1 éve fejlesztenek egy grafikus kártyát az őt támogató programokkal együtt.

-Bocsánat ha megsértetelek, nem személyeskedésnek szántam, de ez akkor is így van. Mi akkor értenénk hozzá ha te lennél az AMD tervező főmérnöke én meg az nV-é. Nem is lenne rossz bár akkor hamar csödbe menének.
 
Válasz írásához előbb jelentkezz be!
3. arkman
2009.10.16. 10:52
Nincs minőségromlás az intel féle ""csalásnál""
 
Válasz írásához előbb jelentkezz be!
2. Ver_Pistik...
2009.10.16. 11:08
Én csak a tesszelációra reagálnék mint laikus (ezért kéretik nem leugatni hanem okosan elmagyarázni ha tévedek az okfejtésemben).

1. ötlet : kell egy game. 2. kérdés : na de mire? Hm legyen xbox360. 3. felismerés : az jó mert akkor végre tesszelálhatunk. 4. kompromisszum: az nem lesz mert akkor nem tudjuk rendesen portolni pcre ha jól fogy a boxon. 5. indoklás: na de miért nem? Válasz: Hát mert a felhasználók bizonyos (erre most nem térnék ki) százaléka nvidiát használ az meg nem tesszelál. Na bammeg!Tényleg. 6. Konklúzió: a PC -s lehetőség miatt nem teszünk bele tesszelációt.

Szerintem ez lehet az ok de hangsúlyozom ez csak a szerény elképzelésem az okokról.
 
Válasz írásához előbb jelentkezz be!
1. leviske
2009.10.16. 11:35
Vér_Pistike: Igen, a "DX10korszakban" ezért nem lett kihasználva a Radeonokban a tesszellátor.

Viszont egy DX11 játéknál a DX11 kártyákat veszik figyelembe. A DX11-ben pedig meg van követelve a tesszelláció, amit a Radeonok hardveresen, a GeForce-ok emulálva (de ők is "tesszellálnak"
 
Válasz írásához előbb jelentkezz be!