iPon Hírek

AMD: 2011-től jön a DX11 a noteszgépeknél

Dátum | 2009. 04. 10.
Szerző | J.o.k.e.r
Csoport | NOTEBOOK

Az AMD a legfrissebb menetrend szerint 2011-re már rendelkezni fog olyan integrált videó vezérlővel ellátott platformmal , amely DirectX 11-es támogatással bír majd. Az AMD APU (Accelerated Processing Unit) névre keresztelt megoldása hasonló lesz az Intel terveiben szereplő termékekhez, már ami a felépítését illeti: egy tokozásban kaphat helyet a processzormag, az északi híd, benne az integrált videó vezérlővel, plusz a memóriavezérlő és a PCI Express vezérlő is. A gyártó első APU egységei Llan kódnévvel lesznek ellátva és várhatóan a Sabine platform részét fogják képezni.


A 2011-ben megjelenő Llano APU akkoriban jön ki, amikor a DirectX 11 várhatóan már szélesebb körben használatos lesz. Az iGPU, vagyis a beépített videó vezérlő UVD 3.0-s motorral, azaz az AMD hardveres videó lejátszást gyorsító megoldásának következő generációjával lesz ellátva. Az Llano a hírek szerint 32 nm-es csíkszélességgel készül, négy darab x86-os processzormaggal, DDR3-1600 MHz-es memóriatámogatást biztosító memória vezérlővel, 128 bites lebegőpontos műveletek végrehajtására képes egységekkel (ilyen van a jelenlegi Phenomokban is) és BGA tokozással bír.


A Llano mellé SB9xxM sorozatú déli hidat fog alkalmazni a gyártó. Az SB9xxM várhatóan USB 3.0-s vezérlővel rendelkezik majd, amely 16 darab portot kínál, de jelen lesz 6 darab SATA port, integrált audió vezérlő és egy órajel generátort is a termékben.

Új hozzászólás írásához előbb jelentkezz be!

Eddigi hozzászólások

17. Svindler
2009.04.10. 11:18
VISSZA A HÍRHEZ
 
Válasz írásához előbb jelentkezz be!
16. Vardar
2009.04.10. 11:24
Ahogy a Budapestet, úgy a Danube-ot sem fogják megtartani elnevezésként. Semmi magyar név nem lesz
 
Válasz írásához előbb jelentkezz be!
15. Insignia
2009.04.10. 13:35
Milyen jó hogy nekem már intelből sikerült vennem 2008ban olyan notit amiben ddr3-1066van.... és 45nm-es proci jólvan AMD még mindig 2 év lemaradás
 
Válasz írásához előbb jelentkezz be!
14. leviske
2009.04.10. 21:12
Insignia: Ja, hát igen,,, hiszen az 1066MHz-es DDR3 megegyezik a 1600MHz-es DDR3 memóriákkal és ugyebár az Intel vezette be először a processzorba integrált memóriavezérlőt... 45nm meg már a Tigrisben is jelen lesz, tehát nem tudom milyen 2 évről beszélsz. Esetleg javasoljak-e online matematika gyorstalpalót?
 
Válasz írásához előbb jelentkezz be!
13. shabbarule...
2009.04.11. 17:45
leviske:

45nm-es mobil procik 2008 januárjában startoltak el Intelnél, a Caspian mobil 45nm-es procik AMD-nél nagy valószínűséggel év vége felé fognak elstartolani, ez közel 2 év difi. DDR3-1600-as modulokat jelenleg még nem gyártanak(az ilyen OC modulokat felejtsd el, az nem mainstream termék), 2010 első felében várhatók. Az év vége felé startoló 32nm-es 2 magos Nehalemek már igen nagy valószínűséggel DDR3-1333-cal jönnek. DDR3-1600 nagy valószínűséggel Intelnél is a következő generációs Sandy Bridge termékeknél lesz úgy jővő év vége felé.

Intelnél a DX11 nagy valószínűséggel vagy kicsit előbb jön vagy egyidőben AMD-vel. A következő generációs Sandy Bridge platform hasonló időben startol, ahogy az AMD Bulldozer platformja. Abba már hasonlóan integrált CPU+GPU megoldás lesz, így a GMA további használata nem túl esélyes, a helyét nagy valószínűséggel a Larrabee veszi át. Az pedig tudni fogja a DX11-et, hisz csak a rá írt softwaren múlik mit támogat. Később akár DX12-őt támogató sw-t is kaphat, már ha egyáltalán lesz még további DX változat.
 
Válasz írásához előbb jelentkezz be!
12. leviske
2009.04.11. 18:20
shabbarulez: A Tigris nem nyáron érkezik? Csak mert az akkor még rosszindulatúan nézve is másfél év a difi a 45nm-re váltásban, nem kettő... A DDR3 esetén pedig nem kimondottan az 1600 vs. 1066 volta lényeg, hanem az, hogy az Intel mikortól is kezd notebook vonalon integrál memóriavezérlőt használni? Csak mert egy különálló memóriavezérlővel az AMD is lazán útjára tudta volna indítani rég a DDR3 támogatást. Bár az is igaz, hogy már most is útjának tudná indítani, tehát nem értem, hogy miért nem teszik... Tény, hogy DDR3 terén nem technológiai okok miatt vannak lemaradva.
 
Válasz írásához előbb jelentkezz be!
11. sirpalee
2009.04.11. 18:33
Leviske oszd meg velünk szépen az információidat, és magyarázd el szépen miért is nem lesz dx12?
 
Válasz írásához előbb jelentkezz be!
10. leviske
2009.04.11. 18:53
sirpalee: Mert már nem volna értelme... A Larrabee bevezetésével (persze nem a legelső generációra gondolok, ami várhatóan nem lesz egy csúcskategóriás, GPU verő valami) elég szabad kezet kapnak majd a fejlesztők, nem lesz szükségük olyan "megkötésekre", mint amilyen a DirectX. A software render fog egyre inkább teret nyerni...
 
Válasz írásához előbb jelentkezz be!
9. StevyXIX
2009.04.11. 19:09
Talán ...
 
Válasz írásához előbb jelentkezz be!
8. sirpalee
2009.04.11. 19:11
Aham, szóval minden alapos információ nélkül okoskodsz. Gratulálok.

A larrabee még egyelőre nagyon kétesélyes, főleg amiatt, hogy külön api-t kell hozzá használni, emiatt nem fog elterjedni első körben a játékfejlesztők között. Akkor van esélye, ha valamelyik konzolbe beépítik, de anélkül egyelőre nem. De persze attól is függ, hogy az intel mennyi pénzt öl bele, de maximum olyan játékok jönnek ki amik támogatják, nem pedig amik ráépülnek (hiszen a piac nagy részét elvesztenék).

A larrabee szép koncepció, csak gondolom tisztában vagy vele (hiszen a DX11 api alapos ismerete és programozási tapasztalata nélkül nem állítanád, hogy nem lesz 12), hogy a 11 is iszonyú szabadsági fokokat kapott a compute shader személyében. És nyilván ezt a vonalat fogják tovább vinni.
 
Válasz írásához előbb jelentkezz be!
7. leviske
2009.04.11. 19:31
sirpalee: "emiatt nem fog elterjedni első körben a játékfejlesztők között"
Ki írta, hogy rögtön terjedni fog? Én nem... Sőt, direkt kiemeltem, hogy nem rögtön fog terjedni, tekintve, hogy akkor még újdonság lesz és az Intel is az lasóbb szegmensekbe szánja.

"Akkor van esélye, ha valamelyik konzolbe beépítik"
John Carmack szerintem elég ahhoz, hogy meglegyen a komoly "esélye" a terjedésre... És az nVIDIA erős kapálódzása megint egy jel.
 
Válasz írásához előbb jelentkezz be!
6. sirpalee
2009.04.12. 12:08
"Igen, egyelőre valószínűleg csak hobby szinten fejlesztik, de reménykedjünk benne, hogy hátha komolyan gondolják a dolgot."

Úgy értettem a pénz beleölését, hogy a játékfejlesztőknek mennyit fognak fizetni (lásd NVidia szindróma). Bár a larrabee-ra valszeg elsőnek a profi grafikai vonal fog rákapni, mint ahogy most indulnak az első gpu-t kihasználó megoldások is.

"Ez abban az esetben lehet igaz, ha az AMD nem áll elő egy hasonló megoldással..."

Az amd stream processing téren az OpenCL mellé állt, és a DX fejlesztése elsősorban a microsofton múlik, akik persze kommunikálnak a hardverfejlesztőkkel. De mivel a következő xboxban dx api lesz, így mindeki kompatibilis lesz vele. És az MS újra kezd lassan visszatérni a PC piacra, ezt segítené elő a DX11 is.

"John Carmack szerintem elég ahhoz, hogy meglegyen a komoly "esélye" a terjedésre... És az nVIDIA erős kapálódzása megint egy jel. "

Carmack nem larrabee, hanem a raytracing mellé állt. De ha megnézed carmack elég nagyot bukott az id tech 4-el, és elég valószínű, hogy az id tech 5 is bukni fog, mivel elkésett. Aki akart jelenlegi konzol generációra motort, megvette az unreal engine 3-at. Jó ha 10-en licenszelik az id tech 5-t...

De raytracing / rasterizer témában nem a játékfejlesztőket kell elővenni. Nézd meg a profi grafikai rész, két nagy render engine van a piacon a mental ray és a renderman. A mental ray egy raytracing alapú megoldás, míg a renderman raster alapú. Lassan kezdenek rájönni, hogy tisztán az egyik sem jó, mivel vannak olyan problémák, amire az egyik jobb a másik rosszabb. Ezért az elmúlt években gőzerővel pakolják be a másik módszer megoldásait. A renderman behal ha raytracelni kell (bár talán már kezd javulni a helyzet, de a transformersnél még mindig előrenderelt reflection mapeket használtak), a mental ray meg sokat bugzik ha rasterizálni kell (hónapokat töltöttem azzal, hogy raytracerben és rasterben is ugyanúgy nézzen ki az összes shaderünk, nem szép dolog...). A jövő a hibrid megoldásoké, próbálkozik vele pár kisebb cég, de mindegyik bebukik ott, hogy kis jelenetre tökéletesen működik, de ha már komoly dolgokról van szó, akkor behal az összes.

Aki tisztán az egyik megoldást választja (raytracer v raster) az hülye, és vak körülnézni a játékfejlesztésen túli problémákra.

És az új DX apival pont efelé megy el a rendszer, ha akarsz akár raytracer módban is futhat a rendszered, a nagy részét videókarin számolva. És a következő apikban ezt fogják kibővíteni, hogy minnél általánosabb legyen a compute shader rész, a raster rész sokat fejlődött, de még mindig hasonló alapelveket használ, mint a dx9 generáció idején, csak finomabb, hatékonyabb és gyorsabb lett.
 
Válasz írásához előbb jelentkezz be!
5. leviske
2009.04.12. 15:22
Így már számomra is elfogadható/emészthető.
 
Válasz írásához előbb jelentkezz be!
4. sirpalee
2009.04.12. 21:53
Eléggé valósznűtlennek tartom, hogy csak úgy megszüntetnék a directx fejlesztését...

De a DX egy olyan úton halad, amivel előbb utóbb egy larrabee-hez hasonló megoldássá válik, csak hát sokkal nagyobb támogatói bázissal fog rendelkezni. A larrabee-t sem kell félteni, mert legrosszabb esetben támogatni fogja a dx12-es változatot is, akárcsak a 11-eset, hiszen meg lehet írni.

A DX11-nél nyíltan az a cél, hogy megkönnyítsék az xbox360-> pc átjárhatóságot.

Az nvidiával az a baj, elszúrták a dx10 szerkezetet. A legtöbb új funkciót sokkal lassabban támogatják mint a konkurensek, egyetlen előnyük az sokkal nagyobb textúraerő. De ezt az ATIk nyers shader ereje egyensúlyozza. Ha igazán kihasználnák a dx10-es szerkezetet, szép lassan elhullana az összes nvidia. Hogy tudták elrontani azt nem tudom, de ez a fejlesztők körében ismert dolog, és az összes nvidia optimizációs doksiban fel vannak sorolva miket nem szabad használni (és ezek főleg új dx10-es featurek). Ami a 8-9-200 szériával megy, az szánalmas kapálódzás. Ati meg kockáztatott azzal a szerkezettel ami x360-ban is volt, és a 4xxx-re beérett.
 
Válasz írásához előbb jelentkezz be!
3. leviske
2009.04.12. 23:56
sirpalee:

Eddig azt olvastam itt-ott, hogy az nVIDIA direkt lépte így meg a DX10-et, hogy kiüsse végleg az ATi-t az R600 idején és a CUDA-t állítsa be fejlesztési alapnak a DX helyett. Ez így reális, vagy csak én értem félre a mondanivalóját a dolognak és írom rosszul...?

Egyébként ha végülis a DX egy Larrabee féle felépítés felé halad, akkor azért csak reális, hogy egy idő után felesleges lesz fejleszteni, vagy félreértelek? Kb mekkora lépés a DX11-től a Larrabee féle megoldás? Meddig tudja a MS "húzni" a DX-et? Vagy maga a Larrabee se jelentené a DX végét, csak egy "új kezdetet" jelentene a DX "életében"? Vagy még annyit sem?
 
Válasz írásához előbb jelentkezz be!
2. sirpalee
2009.04.13. 09:46
Larrabee-hez hasonló megoldás, nem pedig egyenlő vele. Ezt úgy értettem, hogy az összes létező fázis programozhatóvá válik előbb utóbb.

Az intel megoldása pedig azért nem lehet egyedulrakodó, mert azért ott van az nvidia és ati, akik uralják a játékkártyák és professzionális kártyák világát. Ahova az intel éveken keresztül nem tudott bejutni, ők sem fogják szépen hagyni, hogy a larrabee átvegyen minden szerepet...

Az hogy mekkora lépés fogalmam sincs, a legnagyobb különséget az jelenti egyelőre, hogy a larrabee egységei képesek szabadon elérni a memóriát, onnan írni olvasni. Dx11-nél ugye csak a beállított resource-ket éred el (de már léteznek írható resource-k is), és a compute shader sem képes csak úgy visszaírni a memóriába. Viszont ennek a szál szintű szinkronizációja nagyságrendekkel egyszerűbb mint az intelesé, és nyilvánvalóan gyorsabb is. (vannak interlocked írások közös constansokba, de ha jól emlékszem ezek maximum 64kbyte méretűek lehetnek összesen, de több nem is igazán kell) Az előzetes tesztek alapján, egy compute shaderes post process megoldás 2szer gyorsabb mintha a hagyományos screen aligned quados megoldás menne. De egyrészt nem tudom hogy mérték (mivel még nincs hardver, legalábbis a gdc idején nem volt), másrészt meg akkor derül ki az új technológiák használhatósága, ha lesz tényleges hardver.

Anno a geometry shaderért is mindenki odavolt, míg nem derült ki, hogy közel sem lett olyan gyors mint amilyennek akarták (ATI-n még el-el megyeget, de nvidián szinte azonnal ledöglik, egy középkategóriás ati legyorsulja geometry shaderben a gtx280-asat is akár). Szóval egyelőre szkeptikus vagyok, de jó hír, hogy a 10-es és 10.1-es feature levelen is elérhető lesz a compute shader 4./4.1, bizonyos korlátozásokkal (csak thread indexnek megfelelő helyekre tudnak írni stb...), de még nem volt időm sajnos kipróbálni, hogy viszik-e már a driverek.

Az nvidiás dologra nem tudok reagálni, kizártnak tartom, hogy direkt szúrták el az architektúrát. A cuda meg nem tudná leváltani a dx-et, másra van szánva.

Nem kell isteníteni a larrabee-t nem biztos, hogy megoldás lesz minden problémára. Hamarosan (pár hónap) lesz egy szoftveres emulációs környezet, a programozásához, és teszteléséhez, az sokat elmond az api tényleges szabadságáról, és kezelhetőségéről, DX11 már tesztelhető egy jó ideje (az api használhatóságáról, csak szuperlltívuszokban tudok nyilatkozni), csak még a sebessége kérdéses, de ha tartják az eltervezettekhez magukat, akkor nagy durranás lesz.
 
Válasz írásához előbb jelentkezz be!
1. leviske
2009.04.13. 12:55
sirpalee: Értem, kösz.
 
Válasz írásához előbb jelentkezz be!