iPon Cikkek

Cayman akcióban: HD6900-asok

Dátum | 2010. 12. 23.
Szerző | Svindler
Csoport | MEGJELENÍTÉS

Szép lassan ez az év is véget ér, de hogy a hátra lévő napokban se unatkozzunk, az AMD gyorsan elénk tolta az eddigi legerősebb egy GPU-val szerelt VGA-it. A mérnökök semmit sem bíztak a véletlenre és a HD6900-as sorozat chipjeiben nem spóroltak a tranzisztorokkal: körülbelül 2.6 milliárd található a Caymanban, ami már eléggé közelít a GF1x0 3 milliárdjához. Az igazsághoz hozzátartozik, hogy egyik cég sem így képzelte az év zárását, de nagy kedvencük, aki tavaly is megtréfálta őket, újfent okozott meglepetéseket. A TSMC ugyanis búcsút intett a 32nm-es gyártástechnológiának, így a riválisok kénytelenek mindent kihozni a 40nm-esből, amíg a félvezetőkkel foglalkozó gyártó óriás át nem áll a 28nm-es technológiára. Az erősen kérdéses, hogy ez mikor fog bekövetkezni, úgyhogy lássuk, hogy miből élünk, mi lesz abból, ha az AMD nagyobb chipet tervez, és még az architektúrát is piszkálja.

Cayman alias HD69x0

A Cayman nem egy HD5000-es Radeon amibe még több shadert pakoltak, már az alapjait is megpiszkálták. Azért revolúcióra nem kell gondolni, most is kicsi, de hasznos léptekben haladunk előre, nézzük meg együtt, hogy mik ezek.


Aki látta anno a Cypress (HD58x0) vagy a Barts (HD68x0) ábráját, annak ismerős lehet a fenti kép, de a szemfülesek azonnal kiszúrhatják rajta az első komoly változtatást, amire régóta várunk: két teljes értékű Graphics engine van. Mit is jelent ez tömören? Csak hogy a legfontosabbakat emeljük ki, két tesszelátort, amik már a Bartsban bemutatott fejlettebb változatok és két háromszög feldolgozását órajelenként. Geometriában a GF110 még így is erősebb, de már jóval kevesebb az esély arra, hogy ez limitálja a Radeont. Természetesen megnéztük, hogy mit ér ez a duplázás a gyakorlatban, de egyelőre maradjunk az architektúránál, mert az tartogat még meglepetéseket, haladjunk hát szépen lefelé. Akárcsak a Barts-ban, most is két szálkezelő került a GPU-ba, amik dirigálnak a SIMD shader processzoroknak, amikből ezúttal 2*12 található a chipen. Mindegyikben 16 stream processzor dolgozik, amik négy-négy ALU-val (végrehajtó egységgel) rendelkeznek. A 2007-ben megjelent 2900XT óta a Radeonok stream processzorai öt ALU-val dolgoztak, ezekből négy végezte az egyszerű műveleteket, míg az ötödik speciális műveletekért felelt. Egy stream processzor csak egy parancsot kaphatott órajelenként, így az ALU-k vezérlését egy VLIW parancsszóval oldották meg (Very Long Instruction Word – Nagyon Hosszú Parancsszó), ami tartalmazta mind az öt végrehajtó egységhez a végrehajtandó feladatokat. Ez csak azért volt problémás, mert nehéz volt olyan VLIW mintákat készíteni, amik biztosították az optimális kihasználtságot, izzadhattak hát a szoftvermérnökök is. Biztos sokan emlékeznek még arra, hogy anno mennyire érdemes volt mindig feltelepíteni a legfrissebb drivert, mert néha bizony nem kis teljesítménytöbbletet hordozott. A Cayman szakít az eddigi hagyományokkal és kukázza az ötödik, speciális ALU-t, marad négy darab egy stream processzorban, azok négyen viszont bármilyen utasítást végrehajtanak.


A fenti képen az látszik, hogy egy órajel alatt mire képes a stream processzor. A változás miatt ráadásul biztosítani a maximális kihasználtságot, így az AMD becslése szerint ugyanannyi ALU esetén körülbelül +10% sebességgel számolhatunk. Valószínűleg most sokan gondolkodóba esnek, hogy ez így teljesen logikus, akkor miért kellett erőltetni az eddigi formulát? A kérdésre egy másik kérdés a válasz: mire akarjuk használni a GPU-t? Az AMD mérnökei anno nem véletlenül hozták létre az 5 ALU-s architektúrát, mert a válasz a kérdésre egyértelműen az volt, hogy grafikára. Ebben az esetben megfelelő kihasználtság mellett (a driverek már nagyon régóta jók) kevesebb tranzisztorból meg lehet úszni ugyanannyi végrehajtó egységet, hiszen ötből négy csak alapműveletekkel foglalkozik. De mi van akkor, ha már a GPGPU felhasználás felé kacsintgatunk? Az esetek nagy részében a chip egy igen komoly része kihasználatlan maradna. Miért lépett az AMD arra az útra, amin az nVidia már majdnem eltaknyolt egyszer? A gamer magyarázat az lehetne a kérdésre, hogy most, hogy van DirectCompute és OpenCL, egyre több dolgot fog átvenni a GPU a CPU válláról, nem árt az, ha minél jobban képes teljesíteni az adott feladatot. Valószínűleg ez is szerepet játszott a döntésben, de talán még fontosabb az a tény, hogy a HPC piacról az nVidia Teslái igen szép szeletet hasítottak ki. A GF100 is Teslaként tombol igazán, sok extrát kapott, ami a játékosoknak teljesen felesleges. Az AMD most felvette a kesztyűt, ezt bizonyítja az is, hogy a memóriavezérlő ECC támogatást kapott (a belső cache-ek még nem védettek), és a 4 ALU-s (VLIW4) architektúra a jobb kihasználtság mellett magasabb teljesítményt is nyújt 64 bites lebegőpontos számok esetén, mert a 32 biteshez képest nem az ötödére esik vissza a feldolgozási sebesség, csak a negyedére.

Ami még érdekes lehet, hogy a Caymanban „csak” 1536 ALU (vagy shader, kinek hogy tetszik) található mikor már a Cypressben is 1600 volt. A fentiek miatt ez nem probléma, a jobb ütemezés biztosítja a jobb kihasználtságot, és egy kicsit az órejelet is megemelték. Pár hónapja még olyan pletykákat olvashattunk, hogy 1920 shader lesz a 6900-asokban. A források már valószínűleg tudták, hogy 24 tömbben lesznek a shaderek, de azt nem, hogy architektúra váltás lesz. 24*16*4=1536, míg 24*16*5=1920.

Kitartás, már nincs sok hátra, ráadásul az egyszerűbb részek következnek. Az eddig kivesézett változtatásokon kívül a Cayman természetesen örökölt mindent, amit a Barts-ban már láthattunk, így megtalálható benne az UVD3-as motor a videók lejátszásához és a legfrissebb kimenet szabványok támogatása is, beleértve a HDMI 1.4a-t és a DisplayPort 1.2-t. A referencia kártyák esetében kapunk is két DVI-t, egy HDMI-t és két mini-DisplayPortot, így néhány megkötéstől eltekintve annyi monitort fűzhetünk a kártyánkra, amennyit nem szégyellünk. Egy hárommonitoros Eyefinity-nek például semmi akadálya.

Ez még azonban nem minden, hátra van egy utolsó dolog, aminek azok fognak örülni, akik a maximális képminőségre törekednek, vagy csak szimplán szeretnének minél jobb képminőséget elérni, minél kevesebb fps csökkenéssel. Az eddigi lehetőségek mellett felbukkant az EQAA, ami működésében szinte ugyanolyan, mint az nVidia CSAA-ja, csak más elnevezési sémát követve. Az AMD-jé talán egy kicsit logikusabb (akit érdekel a teljes lista, annak érdemes megnéznie a TechReport táblázatát, szépen összefoglalták: klikk), de ami a legfontosabb, mostantól könnyebben összehasonlítható lesz majd az nVidia és AMD kártyák AA teljesítménye. A Radeonok az EQAA mellett természetesen megőrizték a HD6800-asoknál bemutatott Morphological AA-t, ami együtt használható a többi AA-val, és továbbra is van él-érzékelő élsimítás. Idő hiányában mi most nem foglalkoztunk 4x MSAA feletti módokkal, az összes tesztnél ahol volt élsimítás ezt használtuk, de a jövőben még biztos visszatérünk a témára.

Az architektúráról nem is érdemes jelenleg többet beszélni, mert minden más maradt a régebbi chipekből, így például a 256 bites (4*64) memória-vezérlő is. Ez persze nem olyan széles, mint az nVidiánál a csúcskártyákon használt 384 bites, de cserébe olyan órajeleken használja a rá aggatott GDDR5-ös memóriákat, amilyenekre a GeForce-ok csak legszebb álmaikban gondolnak. A végeredmény hasonló sávszélesség kisebb adatbusszal, így majdnem egálban van a Cayman és a GF110.

Kukkantsunk is a GPU-n kívülre, mert úgy látszik az nVidia TDP-re vigyázó Power Throttling-ja megihlette az AMD-t is, ugyanis hasonló védelmet kaptak a HD6900-as kártyák is. A lényege az egésznek, hogy a kártya monitorozza önmaga fogyasztását, és ha kilépne a megadott TDP értékből, akkor kicsit visszafogja magát, hogy ez ne történjen meg. Mivel a játékok nem igazán tudnak 100%-os terheltséget biztosítani a VGA számára, így nem kell attól tartani, hogy a teljesítmény ugrálni fog Crysis alatt, de aki aggódik, az nyugodtan megnézheti az új driverek Overdrive fülét: látni fog egy új csúszkát benne. A konkurensével szemben az AMD szabad kezet ad az általa PowerTune-nak nevezett technológia használatában, beállíthatjuk, hogy a megadott TDP-hez képest mi legyen a maximális, amit megengedünk a kártyánknak. Ezt mínusz 20 és plusz 20 százalék között tologathatjuk, így ha a minimális fogyasztás a cél, akkor akár azt is elérhetjük. Az egész ráadásul független a tuningtól, nem kell TDP-t emelnünk azért, hogy órajeleket emeljünk, maximum sűrűbben fogja vissza magát a kártya, de az idő nagy részében még így is a megemelt órajeleken fog futni. Extra tuningosok és 3DMark userek pedig nyugodtan nyissanak azzal, hogy beállítják a +20%-ot.

Most hogy mindent tudunk, lássuk a mai mezőny résztvevőit (a táblázat nagyítható):


A nagy tranzisztorszámról már beszéltünk, de a GPU méretéről még nem. Ebben még mindig elég jó helyen áll az AMD, a GF110 körülbelül 35%-kal nagyobb, ami nem egy elhanyagolható tény a gyártási költségeket nézve. A 24 shader blokkhoz most is 4-4 textúrázó csatlakozik, így a HD6970 esetében már 96 áll rendelkezésre, amik FP16-os textúrákat felezett sebességgel szűrnek. Sebességet tippelgetni az architektúra váltás miatt nehéz lenne, de ha csak abból indulunk ki, amit az AMD mondott, akkor általános esetekben a HD5870-nél 10%-kal magasabb teljesítményre számíthatunk, míg például olyan tesztekben, ahol az erős tesszeláció is szerepet játszik már ennél jóval nagyobb különbségeknek is szemtanúi lehetünk. Amiket még érdemes megnézni a táblázatban, azok a memória adatok. A már említett óriási órajel a HD6970 esetében effektíve 5500MHz, aminek köszönhetően 384 bites adatsín ide vagy oda, nincs 10% különbség a GTX580 és a HD6970 között. A másik érdekesség, hogy a referencia kártyákon 2GB memória lesz, ennyi még az nVidia csúcskártyáin sincsen. Hogy szükség van-e rá az már más kérdés, de ha többmonitoros rendszerben gondolkozunk, akkor biztos nem árt. Aki pedig úgy érzi, hogy elég neki az 1GB is (az esetek túlnyomó többségében ez így van), az várhat egy kicsit az 1GB-os példányok megjelenésére, amik pár ezer forinttal olcsóbbak lesznek.

ASUS HD6850 és HD6870

A nálunk járt Radeonok az ASUS istállójából kerültek ki, de egy +10MHz-es tuningot leszámítva teljesen referencia példányok voltak. Hogy korrektek legyünk, mi még ezt a 10MHz-et is eltüntettük, az összes tesztet referencia értékeken teszteltük. A referencia hűtő egyébként ugyanúgy egy hőkamrás megoldás, mint a GTX580-nál, és ezúttal nincs méretbeli különbség sem a Radeonok között, mindkét kártya pont ugyanakkora és ugyanazokkal a kimenetekkel, így csak a PCI-E tápcsatlakozók alapján különböztethetőek meg első ránézésre. A HD6950 beéri két hattűssel, míg a HD6970-nek egy nyolctűsre és egy hattűsre van szüksége.

HD6950
A nálunk járt példányoknak még üresjáratban is volt némi alapzaja, de semmi zavaró. Teljes terhelésen már kicsit más a helyzet, FurMark-ot használva bizony elég hangossá válnak az új Radeonok, és játékok alatt is hallatják szépen a hangjukat, körülbelül a GTX570-580 szintjén vannak, érződik a megemelkedett fogyasztás.

HD6970 - és most lehet a különbségekre vadászni
A HD6800-asokkal ellentétben a Cayman-es kártyákon két CrossFire csatlakozó található, ami azt jelenti, hogy építhetünk belőlük három-, vagy akár négykártyás CF rendszereket is, csak aztán bírja a tápegységünk. Apró, ám fontos figyelmesség, hogy a CF csatlakozók mellett van egy kis tolókapcsoló is, amivel a kártyán elhelyezett két BIOS között válthatunk. Ha valamiért az egyikkel meghalna a kártya (pl. túl magas órajeleket állítottunk be bennük), akkor nem kell egyből kiugrani az ablakon, csak finoman a másik állásba tolni a kapcsolót.

Tesztkonfiguráció
Alaplap: Gigabyte X58A-UD3R
Processzor: Intel Core i7-930@3,73GHz
Memória: 3x1GB Kingmax DDR3-1333
Grafikus kártyák: ASUS GTX460 1G, GTX470, GTX480, GTX580, HD5870, HD5970, HD6870, HD6950 és HD6970 és Gigabyte GTX570
Tápegység: Chieftec 850W
Operációs rendszer: Windows 7 Home Premium 64bit minden frissítéssel
Driverek: Catalyst 10.12(a), GeForce 260.99 és 263.09
 


Üresjáratban mindkét kártya ugyanúgy leveszi a GPU órajelét és feszültségét, így (tekintve az azonos hűtőt) semmi meglepő nincs abban, hogy ugyanolyan eredményeket érnek el. Terhelésre már más a helyzet, itt a legdrasztikusabb GPU izzasztóhoz, a FurMark-hoz fordultunk, és a PowerTune-ban is beállítottunk +20%-ot a TDP-re, hogy véletlenül se játsszon az órajelekkel a kártya. A végeredmény így simán 90 fok felett van, de a GTX480 kártyagyilkos hőfokait így se sikerült elérni (szerencsére).


Üresjáratban a fogyasztási grafikon teljesen hasonló képet mutat, a két kártya (leszámítva a mérési hibát) wattra ugyanannyit eszik. H.A.W.X. 2 alatt szépen kijön a TDP-ben is meghatározott 50 wattos különbség, míg a FurMark érdekes módon nagyon megizzasztotta a HD6970-et, érthetetlen módon +100W-ot mértünk a HD6950-hez képest. A 10%-kal magasabb órajel, és a kicsit magasabb feszültség (1.1V vs. 1.15V) ezt nem indokolja, különös. Így a HD6970 már megközelíti az energiazabáló csúcs-GF-eket, még ha utol nem is éri őket (a GTX570 azért hiányzik FurMark alatt, mert lefogta az órajeleit).

Tuningos méréseket külön nem végeztünk, mert a HD6950-nek a Catalyst mindössze 5%-os emelést enged (840MHz), ezt vitte is zokszó nélkül. A HD6970 esetében nagyobb a mozgásterünk (950MHz a max. érték), de nem tudtunk élni vele, alapfeszültségen csak 910MHz környékére jutottunk, ami még 5% sincs, ezért kár tologatni a csúszkákat, foglalkozzunk inkább a tesztekkel, a sort pár szintetikussal nyitjuk.


A már jól ismert Vantage alatt a HD6950 szépen beáll a HD5870 mellé, míg a HD6970 inkább a GTX570-hez idomul.


A friss tesztprogramban már felborulnak az előbb látott erőviszonyok. Performance módban az erősebb tesszelátoroknak hála az új Radeonok jobban elhúznak elődeiktől, és a HD6870 is utoléri a HD5870-et. Extreme módban már nem a tesszelátorok jelentik a szűk keresztmetszetet, inkább shader izomzatra van szükség, aminek köszönhetően a HD5970 meglép az egymáshoz nagyon közel teljesítő kártyáktól.


A Heaven benchmarkot azért vettük elő, mert még maximális beállításokon is elég sokat számít benne a tesszelátor ereje, így jól lehet érzékeltetni vele a különböző generációk közötti különbséget. A HD6970 simán párban van a két GPU-s HD5970-nel, míg a 6950 csak szimplán nagyon meglép az elődöktől. Bár a GF-ek még mindig valamivel jobb helyen végeznek, valós játékokban abszolút nem valószínű, hogy a tesszelátorai korlátoznák a Cayman alapú Radeonokat.


Stalker alatt szokás szerint attól függ a sorrend, hogy a benchmark melyik tesztjét vizsgáljuk, de elmondható, hogy átlagban a HD6970 a GTX570 és 580 között van, míg kistestvére valamivel alattuk, de még jóval a GTX470 felett.


Akárcsak az első Lost Planet, a második is erősen az nVidia kártyáknak kedvez. Igazából még mindig nem értjük miért ilyen erőforrás-igényes, a benchmarkban látható kidolgozott óriás lény mellett látni pár csúnya megoldást is benne, így az összkép nem indokolja, hogy csúcskártyákon alig menjen 30fps-sel. Valószínűleg itt még van többlet a Radeon driverekben, kérdés, hogy tartják-e olyan fontosnak a játékot, hogy ezt ki is aknázzák.


A Crysis Warhead maxon szereti a memória sávszélességet is, ez látszik a diagramon. Ezen felül a shaderek ereje számít még, így a HD6870 beszorul a „szokásos helyére”, és a Cayman alapú kártyákból is csak az erősebbik képes meglépni a HD5870-től, újfent GTX570 körüli sebességet láthatunk.


nVidia logo ide vagy oda, Metro 2033-ban a HD6970 már a GTX580 felé közelít, és inkább a HD6950 tűnik a GTX570 ellenfelének.


AVP-ben érdemes megfigyelni az eddigi Radeonokhoz képest a különbséget. Egész eddig az volt a formula, hogy alapbeállítások mellett a Radeonok nagyon szépen teljesítettek, míg ha mindent feltekertünk a maximumra, akkor már a GF-ek kerültek az előtérbe, mert az AMD kártyáinak a sebessége túl sokat esett vissza. Nos, a HD6900-asoknál már egyértelműen nem ez a helyzet, jóval kisebb visszaesést tapasztalhatunk, így a HD6970 megint a GTX570 előtt végez, a HD6950 pedig újfent bizonyítja, hogy jó lesz a HD5870 helyére.


A HD5970 azért hiányzik az ábráról, mert a Final Fantasy XIV bench ablakban fut, és így nem működik a CF, tehát rossz eredményeket képes felmutatni, amik nem a valós teljesítményét mutatják. A többieknél semmi extrát nem láthatunk, a HD6970 sokadjára is a GTX570 mellett végez, a HD6950 pedig a HD5870-nel van párban.


World in Conflict alatt is hasonló a helyzet, de itt néhány százalékkal a GTX570 előrébb végez, mint riválisa.


Mafia alatt fordul a helyzet, megint a HD6950 van inkább párban a GTX570-nel, ilyen diagramot is láthattunk már párat.


Just Cause-ban általában jól teljesítenek a Radeonok, a HD6900-asok mégsem képesek itt igazán nagyot villantani. Ha nem is sokkal, de lemaradnak a GeForce-októl.


A Far Cry-on nincs mit magyarázni, még a leggyengébb kártyát sem tudja igazán megizzasztani, de még mindig a GF-eket szereti jobban.


Akárcsak a Borderlands, ezt is megszokhattuk már az utóbbi hónapokban.


A Bad Company 2-ben aztán újra helyreáll a rend, a HD6970 is beáll a versenytársa mellé.


Az öregedő CoD motor már nem igazán képes komoly kihívásokat támasztani a jelenlegi kártyáknak (jövőre már a Black Ops-szal tesztelünk), de még mindig szereti a GF-eket.


Hawx2-ben érdekes módon nem mutatkozik meg eléggé a jóval erősebb tesszelációs képesség, úgy látszik még lesz mit gyúrni a drivereken.

Újfent túl vagyunk rengeteg teszten, összesítsük hát az eddig látottakat. Az első diagramon az összes eredmény együtt látható, csak a két nappal ezelőttihez képest némi pontosítással (az AVP véletlenül másfélszeres súllyal szerepelt).


Most is szeretnénk felhívni rá a figyelmet, hogy pár, nVidiához elég közel álló játék miatt egy kicsit torz az összkép. Ettől függetlenül a HD6950 könnyen hozza a HD5870 és GTX470 szintjét (sőt), míg a HD6970 a GTX570 környékén van, csak pár százalék különbség van köztük még ebben, a GeForce-ok számára kicsit kedvező helyzetben is. Többen is érdeklődtek már az után, hogy nálunk miért képesek előrébb végezni a GF-ek, mint sok másik tesztben. Az egész csak a játékok összetételétől függ, mi próbálunk minél többet belerakni a tesztjeinkbe, így viszont ott van néhány, más oldalak által mellőzött teszt is, melyek az nVidiát tüntetik fel jobb színben. Jövőre már mi is nyugdíjba küldünk párat (pl. Far Cry 2), de lesz, ami így is marad (pl. H.A.W.X. 2). Azonban mivel sokan csak a képeket nézegetik és nekik a fentiből az jön le, hogy GF > Radeon, megmutatjuk a jelenlegi helyzet reálisabb oldalát. Fogtuk az összesítést, és kivettünk belőle minden olyan játékot, amiben még a leggyengébb ma tesztelt VGA is 60 fps felett teljesít, hiszen általában ezekben tudnak irreálisan magas eredményeket felmutatni a GeForce-ok. Ezek négy játékot jelent: Far Cry 2, H.A.W.X. 2, Modern Warfare 2, Borderlands. Nézzük csak hogy alakult ettől a kép:


Érdekes, ugye? A HD6950 egyből elszakad a GTX470-től, így az nVidiának tényleg szüksége lesz a GTX560-ra, míg a HD6970 pont ugyanúgy teljesít, mint a GTX570, tökéletes riválisai egymásnak. Minden csak nézőpont kérdése tehát, fontos, hogy tudjuk helyén kezelni a dolgokat. Akkor már csak az a kérdés maradt, hogy a különböző árszinteken mit érdemes venni? A HD6950-nek nem nagyon van ellenfele egyelőre, mert a GTX470-nél drágább, de gyorsabb is, így teremtett magának egy új kategóriát. A HD6970 már érdekesebb kérdés, hiszen ha úgy vesszük, egy szinten van a GTX570-nel. A 2GB-os példányai pár ezer forinttal drágábbak, míg a jövőben megjelenő 1GB-os példányai pedig valószínűleg kb. egy áron lesznek az nVidia kártyájával, tehát az ár biztos nem segít a döntésben. A legtöbb embernél valószínűleg marad a szimpátia, mint döntő tényező, ezt pedig ha nincsenek előismeretek, akkor erősen befolyásolhatja az, hogy épp abba a fórumba néz-e be először a leendő vásárló, ahol az nVidia drivereket szidják, vagy abba, amelyikben az AMD-ket. Mindenkinek vannak ilyen-olyan tapasztalatai, de a tény az, hogy a két cég szoftverei stabilitás szempontjából nagyon hasonló szinten vannak. A mostani teszt készítésénél nekünk a GeForce-ok fagytak ki például a nekik nagyon kedvező Far Cry 2 alatt, de láttunk már fordított példát is, kár ez alapján ítélni. Azoknak tehát, akik nem döntöttek el előre mindent, maradnak az extra tulajdonságok. A GeForce-oknál ott a CUDA, a PhysX, és a még mindig gyorsabb tesszeláció, bár utóbbi már nem biztos, hogy olyan nagy előny, ha például a 3DMark 11-ből indulunk ki. Sőt, igazából egyik plusz sem életbevágó, viszont ez elmondható a Radeonok esetében is, ahol az extrák sorában olyanokat találunk, mint a szélesebb körű élsimítási lehetőségek, a legfejlettebb csatlakozók támogatása, akár négymonitoros Eyefinity támogatás (vagy 6, ha kihasználjuk a DisplayPort 1.2 lehetőségeit), vagy a két BIOS. Rossz döntést nem nagyon hozhatunk, ha 100k környékén nézegetünk VGA-kat, bármelyikkel jól járunk, mi nem tudjuk kifejezetten az egyiket vagy a másikat ajánlani.

Tekintsünk ki egy kicsit a jövőbe, hogy mégis mi várható még. Ami biztos, hogy januárban az nVidiától érkezik a GTX560, ami nem más, mint egy GTX460, amiben nincs semmi sem letiltva, és magasabb órajeleken ketyeg. Ez a GPU válthatja majd a GTX470-et, és lehet vetélytársa a HD6950-nek. A csúcskategóriában ezen kívül csak a kétmagos kártyákra számíthatunk (HD6990 és GTX495), amiknél az fogja eldönteni, hogy kié lesz a teljesítmény korona, hogy mennyire kell lefogniuk a GPU-kat, hogy beleférjenek a TDP limitbe. Egyelőre nem szeretnénk messzemenő következtetéseket levonni még nem létező kártyákról, egyik cégnek sem lesz könnyű dolga.

Valószínűleg elindul a terjeszkedés lefelé is, a 6350-ről már hallhattunk pletykákat, de a 6600-as és 6700-as szériákról, amik valószínűleg a legtöbb embert érdekelnek, még semmi sem szivárgott ki. Az nVidiának itt már nehezebb lesz teret hódítania, mert a GF106-ban nem sok letiltott rész maradt, a GF108-ra épülő GT430-ban pedig már minden aktiválva volt, tehát vagy új GPU-t készítenek, vagy megelégszenek ezekkel, magasabb órajelen.

Visszatérve 2010-re, úgy gondoljuk, hogy izgalmas évet zárunk. Az nVidia architektúrát cserélt és az AMD is végrehajtott néhány komoly változtatást így az év végére, aminek az lett az eredménye, hogy sok árkategóriában kínálnak hasonló teljesítményű kártyákat a riválisok. Márpedig ez azt jelenti, hogy előbb-utóbb ebből végre árverseny is lehet, amit valószínűleg egyik Olvasónk sem bánna.

A tesztben szereplő kártyákat az ASUS magyarországi képviseletétől, a Ramiris Europe Kft.-től, és a CHS Hungary Kft.-től kaptuk kölcsön, ezúton is köszönet értük!

Új hozzászólás írásához előbb jelentkezz be!

Eddigi hozzászólások

165. kiskoller
2010.12.23. 14:57
utolsó oldal: elírtad, gtx595 helyett 495.
Érdekes volt a módosított öszteljesítmény grafikon, sztem az nem mérvadó, hogy 60 fps felett hogy teljesít egy kártya, így érdemesebb a másoik graifkon alapján dönteni
 
Válasz írásához előbb jelentkezz be!
164. Heroes27
2010.12.23. 15:00
Tulajdonképpen az alsó táblázat hozza a reális különbséget, ez egy piros pont SV,
de az összesített táblázat meg a valűság, mert az életben meg nem bírod azokat a játékokat kivenni, amik NV-ek. Vagyis léteznek, ugyanígy fognak szerepelni. Viszont azért az a közel 25% teljesítménykülönbség az 5870<-->GTX480 között szerintem erős túlzás. Meg az hogy eredetileg a most kiadott csúcs AMD 6970 még a gtx480-at sem eszi meg reggelire, de nem hogy reggelire, de gyengébb is kicsivel, az már tényleg oltári szuper. Sajnos sok az NV szponzorált game, és ezért kapunk ilyen eredményeket, holott tényleg ez nagyon megtévesztő, ami mutatja is az az alatti táblázatban.

Kajak ott tartunk, hogy 5970 a legjobb vétel már 1 éve
 
Válasz írásához előbb jelentkezz be!
163. Kislakos
2010.12.23. 15:03
ennyi erővel az alsó táblázat se mérvadó..
 
Válasz írásához előbb jelentkezz be!
162. Svindler
2010.12.23. 15:16
kiskoller, heroes27: nem vehetem ki, de ennyi erővel rakhatnék be olyanokat is mint a BattleForge és akkor az AMD-nek lenne happyness, csak épp úgy gondolom nem játszanak elegen vele ahhoz, hogy foglalkozzunk vele. A HAWX-ból még biztos ki lehet hozni tartalékokat driverből, mert nincs meg a várható sebességnövekedés még, ne feledjétek, hogy az első drivere ez az új kártyáknak.

Nem véletlenül került oda a második diagram, a Far Cry nem egy mai darab, a Hawxnál még várható javulás, a Borderlands nVidia játszótér, ott szerintem nem lesz változás, a CoD-ok motorja viszont kezd rémesen elavult lenni, és kb. bármi elég a játék futtatásához. Már van pár kiszemeltünk, hogy mikkel frissítsük a játéklistát, csak sajnos még a legtöbb nem jelent meg

Mindenesetre ezeknél a játékoknál sokkal fontosabb lesz, hogy mit nyújtanak az új kártyák pl Dragon Age 2-ben, Crysis 2-ben, FEAR 3-ban, TDU2-ben, stb. Még lehet, hogy a CiV 5-öt is bevesszük, de manapság kevés az a játék, ami tényleg terhel.

Szóval a helyén kezelni a dolgokat kb. azt jelenti, hogy ha kivennénk a tesztből az nV-nek kedvező részeket és megpakolnánk olyanokkal mint a BattleForge akkor meg más lenne a kép, ezért sosem szabad elfelejteni, hogy ha van pár játék a tesztben ami az egyik oldalnak kedvez, akkor az meglátszik az összesítésen is. Pár %-os eltérésre pont ezért nem érdemes adni, azt 1-1 játék is megváltoztathatja, márpedig még az első diagramon sincs 10% különbség a 6970 és a GTX570 között (egymáshoz képest, nem a gtx460-hoz).
 
Válasz írásához előbb jelentkezz be!
161. cNobody
2010.12.23. 15:23
Heroes27:
Még szép. Azon lepődtem volna meg ha az 5970 dupla GPU-ját verte volna oda a 6970 szimpla GPUval.
 
Válasz írásához előbb jelentkezz be!
160. Kange
2010.12.23. 15:41
Gratula a cikkhez!
Szerintem nagyon jó ötlet volt a második táblázat. Ha Neked/Nektek nem nagy munka, akkor mindig így kéne csinálni, azaz lássuk mind2 táblázatot.

Számomra viszont picit csalódás az új Radeon. Én jóval erősebb teljesítményt vártam volna a 6970-től, bár igaz, az nV is sokat gyorsult a drivereknek köszönhetően.
 
Válasz írásához előbb jelentkezz be!
159. Zaiko
2010.12.23. 15:47
Srácok, a HD6970 nem a GTX580 riválisa? Miért a GTX570-el viszonyítja mindenki?
Bocsi ha hülyeséget kérdezek, kezdek belekavarodni ebbe a számozásos szarságba...
 
Válasz írásához előbb jelentkezz be!
158. Parano1d
2010.12.23. 15:59
Na igen, az árazását elnézve sem feltétlenül a 570GTX volna az ellenfele, a 6970-nek mert jelenleg jóval drágább nála, igaz az 580GTX-nél viszon jóval olcsóbb. A HD6950-teljesítmény, szemponjából a 470GTX, és az 570GTX között van, de ár szemponjából inkább az 570-eshez van közelebb. Kizárólag Ipon-os árakat nézve. Ezeket figyelembe véve az a véleményem, hogy eggyik kártya sem éri meg az árát jelenleg, 2GB memória ide vagy oda.
Várom a 6950/1GB-os verzióját, és az árcsökkentéseket.
 
Válasz írásához előbb jelentkezz be!
157. thspo
2010.12.23. 16:11
na nem is olyan rosszak ezek a kártyák (a konkurensekhez képest) ha nem játszanak velük azokon a játékokon (általában az AAA címek felén) amit nvidiára optimalizálnak... Ez így nekem nem túl meggyőző, az AMD akárhogy is szépítjük bakot lőtt... Most minden kategóriában bukott, a csúcs kategóriában ahol CSAK a teljesítmény számít NEM az ÁR, ott lassú a konkurenshez képest, a középkategóriában (6850/70) meg ár/teljesítmény arányban bukott(470-et és 460-at olcsóbban kaphatunk mint a konkurenst). Ezen nincs mit szépíteni. Ha valaki meg jön azzal h majd lesz 6990 két GPU-val 580 ellen, annak annyit h lesz két GPU-s csúcs nvidia (mint tudjuk) és valszeg rommá fogja verni az ellenfelét, úgy, hogy még fogyasztásra sem lesz sokkal több (sőt!!!) mint a konkurens mert nem lesznek rákényszerítve az órajelek egekbe tornászására, ellentétben az AMD-vel...
 
Válasz írásához előbb jelentkezz be!
156. scholes9
2010.12.23. 16:15
Ebből a tesztből is hiányolom az ár/teljesítmény táblázatot, legközelebb rakjátok bele, köszi.
 
Válasz írásához előbb jelentkezz be!
155. Fzoltan
2010.12.23. 16:27
"Fogtuk az összesítést, és kivettünk belőle minden olyan játékot, amiben még a leggyengébb ma tesztelt VGA is 60 fps felett teljesít..."
Ezt abszolút korrekt dolognak tartom. Ki a francot érdekel, hogy a Settlers 2-ben az 580 +20%-al veri a 6970-et? 1500fps vagy 1200fps? Így kellene csinálni minden tesztet. Nem azért estek ki a játékok, mert nVidiások, hanem egyszerűen mert nem hajtják meg a kártyákat. Hatalmas gratula Svindlernek és a tesztbrigádnak!
 
Válasz írásához előbb jelentkezz be!
154. DeathAdder
2010.12.23. 16:37
Mekkora felbontasban mentek a tesztek?
 
Válasz írásához előbb jelentkezz be!
153. Tirexi
2010.12.23. 16:38
Hát a 6970 elég tré lett...
 
Válasz írásához előbb jelentkezz be!
152. _DiEGO_
2010.12.23. 16:48
Így van Zoli - Hatalmas gratula Svindlernek és a tesztbrigádnak!

És ha nézzük a többletfogyasztást... az lenne ideális, ha belehetne állítani az azonos fogyasztás mellett melyik a kedvezőbb teljesítményű ! Beállítani egy megkötött maximum fogyasztást , az fölé ne tudjon menni egy kártya sem azonos kategóriákon belül persze ...

 
Válasz írásához előbb jelentkezz be!
151. csicsoblad...
2010.12.23. 16:59
A felső grafikon nekünk felhasználóknak érdekesebb, mert lesz*rjuk, hogy azért megy gyorsabban a játék mert jobban kedveli az adott márkát, vagy mert erősebb hardverileg. Azzal nincs kisegítve a felhasználó, hogy ha nem ATI vagy nvidia logo lenne a játék elején, akkor jobban futna. Viszont a második grafikon pont azokat a helyzeteket mutatja be, ahol tényleg számít az adott kártyák közötti különbség, mert azokban a játékokban sokkal többet ér +pár FPS. Így mindkét grafikon elég jól tükrözi a jelenlegi helyzetet, akinek viszont két nagyon hasonló között kell dönteni (pl.: 6970 vagy GTX570 / 157% vs 157%), annak érdemes megnézni egyesével, hogy azokban a játékokban, amivel használni akarja, melyik teljesít jobban.
 
Válasz írásához előbb jelentkezz be!
150. rini
2010.12.23. 17:02
Köszönöm a teszteket. Így a kettő együtt már kellemes. Viszont nem értelek, hogy miért lett tré. Nem rossz kártya ez csak nem azt hozta amit sokan vártak tőle. Mondom ezt úgy, hogy egy kicsit inkább nV párti vagyok. Én úgy gondolom, hogy a 6970 most is erősebb egy kicsivel az 570-nél és ez a driverek hibáját javítva még fog javulni. Nem rossz ez csak nem hozta azt amit a fanatikusok vártak tőle. Igaz, így sem fogja beérni az 580-at mert túl nagy a különbség közöttük. Engem leginkább az döbbentett meg, hogy belepakoltak plusz tranzisztorokat és ettől mennyire megugrott a fogyasztása terhelésen. Ha még egyszer ennyit hozzátesznek tranyoból mint most, akkor le is körözték volna az nV kártyáit fogyasztásban és ennek következtében fűtésben is odatette magát a 6970.
 
Válasz írásához előbb jelentkezz be!
149. S.O.S.
2010.12.23. 17:16
Jó a teszt !

Fogyasztás és hőmérséklet miatt NVIDIA karit biztos nem veszek
 
Válasz írásához előbb jelentkezz be!
148. Heroes27
2010.12.23. 17:18
Meg pont azt néztem, a legnagyobb teljes fogyasztás, 550W. De ez most húzott kaeival, vagy alapórajeles? Nem mindegy, mert ezek szerint Corsair HX650-es táp alatt nem érdemes venni pl a GTX580 alá. Igaz i7 mellett van.
 
Válasz írásához előbb jelentkezz be!
147. DeathAdder
2010.12.23. 17:28
Fogyasztas??? homerseklet????
Abban az AMD-k lettek a szarabbak MÁÁ NEM AZÉÉÉ!!!!
 
Válasz írásához előbb jelentkezz be!
146. carraroxt
2010.12.23. 17:31
Szerintem tegyél még vagy 10 kérdőjelet, meg rakj be nagy képeket betűkről a mégnagyobb betűméret miatt!
 
Válasz írásához előbb jelentkezz be!
145. markangabo...
2010.12.23. 17:35
Nekem csalodas a ket kartya. A 6970-et az 580 ellenfelekent vartam volna. Az 5xxx-bol nyert lendulet elfogyott. Jolenne ha a tmsc nem keverne a szart, korlatozva ezzel a gyartokat.
 
Válasz írásához előbb jelentkezz be!
144. psylocke
2010.12.23. 17:36
TROLLOK VOLTAK!!

Nem tud valaki valamit 6300as kártyákról vagy még kisebbekről? csak uvd3 kéne egy e-s proc mellé (kis htpc, az atom+ion viszont nem jön be)
 
Válasz írásához előbb jelentkezz be!
143. Norba
2010.12.23. 17:40
EZ a cikk most kicsit "ATI-s cikk" lett.
Szerintem az nVidia ismét jobb mint az ATI. És ne feledjük,hogy jön a 2-magos nV kari(GTX590)...
Ettől függetlenül nekem tökéletesen megfelel az 5770-em
 
Válasz írásához előbb jelentkezz be!
142. patrik2991
2010.12.23. 17:42
DeathAdder: jaja grillforce? akk most mi is az ati fika neve?
Utolsó Táblázat: na és ha most kivesszük azokat a táblázatokat amiben az Ati-k jól teljesítettek...
 
Válasz írásához előbb jelentkezz be!
141. Svindler
2010.12.23. 17:44
psylocke: csak annyit tudunk, hogy 2011 első negyedév

Heroes27: miért lenne húzott a kártya? Igazából a HX650 is necces lehet, mi megnéztük TX650-nel és akkor már a legerősebb kártyák képesek voltak néha egy resetet okozni. Igaz, az a tápunk már öregszik, de én így is inkább fölé terveznék, ne feledd, hogy a Furmarkos tesztben a proci nincs komoly terhelésnek kitéve.
 
Válasz írásához előbb jelentkezz be!
140. DeathAdder
2010.12.23. 17:49
az atinak nem kell fika nev
Eleg mar az a SZo, hogy ATI RADEON
VAgy AMD, az meg rosszabb
 
Válasz írásához előbb jelentkezz be!
139. lajthabala...
2010.12.23. 17:57
DeathAdder

Te komolyan azt gondolod, hogy egy fogyasztás-teszen az a kártya szerepel jól, amelyik több wattot ér el?!

Azoktól, akik ennyire gyatrák, vissza kellene venni a számítógépet...
 
Válasz írásához előbb jelentkezz be!
138. csicsoblad...
2010.12.23. 17:58
Ezt nem értem, az 550W nem a konnektorból mért fogyasztás? A táp hatásfoka mondjuk 80%, akkor a gép egy jó 440W-ot kért. Játék alatt még ennyi sem kell, egy tuningolt i7 és egy gtx480 olyan 400W-ot eszik játékok alatt.
Szerk.: A TX650-nek bőségesen elégnek kell lennie a maga 52A-es 12V-os ágával (624W).
 
Válasz írásához előbb jelentkezz be!
137. Imo
2010.12.23. 18:13
szerintem a legtöbb játék tesztben az nvidia odatette magát. ami nagyon jó. az ati új kártyái nem lett olyan nagy szám mint amire behirdették. az tény volt hogy az nvida 400-as szériái félkész termék, ami mostanra lett kész új névvel (500-asok). eddig jól haladunk, csak árakat kellene szépen realizálni és minden jó lesz.
 
Válasz írásához előbb jelentkezz be!
136. _DiEGO_
2010.12.23. 18:22


550W azzal lehet terheli a tápot kimeneti szekunder oldalon - az a 80%-a a teljes fogyasztásnak , nemde ?
Mennyi a táp teljes fogyasztása, ha az 550W a 80%-a a 100% -nak ?
 
Válasz írásához előbb jelentkezz be!
135. Heroes27 Svind...
2010.12.23. 18:24
Persze, énis azt mondom, hogy akkor egy 750-es táp kellene alá, viszont azt se szaba feledni, hogy a furmark teszt alatt mért fogyasztást nem éred el játékok alatt, se átlagfelhasználás esetén. Így lehet elég egy erős 650-es.
 
Válasz írásához előbb jelentkezz be!
134. lajthabala...
2010.12.23. 18:53
_DIEGO_ és mások

Bár nem én írtam a tesztet, abban biztos vagyok, hogy a konnektorból felvett értékeket mutaták.

Mivel nem ismert a táp pontos terhelése (mekkora áram folyik 3.3, 5, 12, -5, -12 volton) ezért a táp hatásfoka sem isert (a 80+ azt jelenti, hogy néhány jellegzetes terhelés mellett jobban teljesít, mint 80, 85...). Ennek megfelelően nem lehet a táp besorolásából és a konnektorból felvett teljesítményből következtetni a konfig táp nélküli fogyasztására.

Egyébként pedig a _DIEGO_ által felvetettvmatematika-példa megoldása ~687W, de miért kell ezt megkérdezni? Mennyi ezen a fórumon a belépési IQ küszöb?!
 
Válasz írásához előbb jelentkezz be!
133. csicsoblad... lajth...
2010.12.23. 19:07
Én is biztos voltam benne, vagy max még annyi lehet, hogy sz*r a mérő, esetleg a monitor is be volt dugva. A 80+ -os táp kapcsán durván 80%-al számoltam, így jó 440W-ot fogyaszthatott a gép. Ekkora terheléssel pedig a TX650-nek röhögve boldogulnia kell, az újraindulásokat valami más miatt csinálhatta a konfig.
 
Válasz írásához előbb jelentkezz be!
132. DeathAdder
2010.12.23. 19:07
Mivan????
nem hiszek en semmit sem!

Egy nagyokos itt beszolt hogy sokat zabal az uj NV meg melegszik!
Mar bocs de ez pont forditva van!

Szoval mielott beszolnal nezzel szet hogy mia helyzet!
 
Válasz írásához előbb jelentkezz be!
131. rabib
2010.12.23. 19:17
Jó teszt lett, gratulálok!

Ha jól éreztem, pár embert kisebb csalódottság környékezett meg, amiért a HD6970 nem lett gyorsabb a HD5970-nél. Abban megnyugtathatok mindenkit, hogy driverekben lesz javulás mindkét oldalon, és a HD6970 oda fog érni a GTX580 mellé, a HD6950 pedig a GTX570 mellé. HD6990 pedig a GTX595-tel lesz egy súlycsoportban. Régen láttunk már az Nvidiától két GPU-s csúcskártyát, épp ideje lenne már!
 
Válasz írásához előbb jelentkezz be!
130. carraroxt
2010.12.23. 19:33
Kicsit én is csalódtam benne, de ha jobban belegondolunk az elégedetlenség leginkább két okra vezethető vissza:
1: Szimplán túlmisztifikáltuk a generációváltást (lévén a gyártástechnológia csak maradt).
2: A 6970 nem igazán jól skálázódik a kistestvéréhez képest.
De szerintem fikázásra sincs semmi ok. A tesztekből jól látszik, hogy a 6970 teljesítményben, fogyasztásban és árban is az 570-es és az 580-as közé ékelődött, mindezt úgy hogy alig egy hete van a piacon, míg az ellenfelének már több mint fél éve volt tökéletesíteni a drivereit. Mindezek ellenére én még mindig inkább a 6950-et venném. Egyébként inkább örülni kéne a történteknek, mert most mind ár/teljesítmény, mind fogyasztás/teljesítmény tekintetében nagyon kiegyenlített a mezőny, ami könnyen árversenyhez vezethet.
PH-s teszteredmények:

 
Válasz írásához előbb jelentkezz be!
129. lajthabala...
2010.12.23. 19:34
DeathAdder

Akkor kiolvasom neked a számokat, lehet, hogy a grafikonokat nem látod jól:

GTX580 - 550W
HD6970 - 516W

És egy összehasonlítás 1W-ra eső teljesítmény alapján, hogy ne mond, hogy almát hasonlít a körtével, aki egy erősebb kártya fogyasztását méri egy gyengébbéhez:

http://www.techpowerup.com/reviews/HIS/Radeon_HD_6970/30.html

Összegezve, az ATI kártyák még mindig hatékonyabbak, mint az nVidia kártyák.

A melegedés igazából nem annyira releváns, hiszen ez a teljesítmény mellett a hűtésen múlik. Gyorsabb ventillátor -> alacsonyabb hőmérséklet, magasabb zajszint, a szabályozón múlik, hogy melyik rosszat választja. 98 és 99 C közt egyébként sem hatalmas a különbség, mindkettő botrányos eredmény.
 
Válasz írásához előbb jelentkezz be!
128. zoomon
2010.12.23. 19:40
"ASUS HD6850 és HD6870" -as alcím, alatta a 6950 és a 6970-es képe

 
Válasz írásához előbb jelentkezz be!
127. carraroxt
2010.12.23. 19:40
Most számolgattam utána, mennyi is az annyi. Az órajel, és shader különbségből a 6970-nek 1,2x kellene gyorsabbnak lennie a 6950-nél. A valós teljesítménytöbblete viszont alig 12-13%. Kezdek tartani tőle, hogy stratégiai döntés van a dolgok mögött az 5970 védelmében.
 
Válasz írásához előbb jelentkezz be!
126. zoomon
2010.12.23. 19:45
Nézegetve a teszteket ha sok pénzem lenne most gtx580-at vennék, de remekül elvegetálok a 6850-es kártyámmal.
 
Válasz írásához előbb jelentkezz be!
125. DeathAdder
2010.12.23. 19:47
BLA-BLA-BLA BLA-BLA-BLA BLA-BLA-BLA meg ugy melegszik mint a 480!
marmint a 6970
 
Válasz írásához előbb jelentkezz be!
124. DeathAdder
2010.12.23. 19:50
Ja es ezek mind reszelt erisönök [LINK] hat igen! ez a nagy AMD szamomra most sem okozott csalodast
 
Válasz írásához előbb jelentkezz be!
123. newclear Death...
2010.12.23. 19:52
Közel sem mind reszelt "erisön".

A "blablblablblabla" fanboykodásoddal pedig csak magadat írod le.
 
Válasz írásához előbb jelentkezz be!
122. pergerj
2010.12.23. 19:58
szeretem mikor mindenki minden hülyességet kommentel
egyébként.. nekem a tesztekből a 480 -> 570 = 6970 -> 580 = 5970
sorrend jön le...
így aztán a 6970-et fogyasztásba talán az 570-et kéne viszonyítani, nem az 580 hoz.. pár %-al jobb a 6970, cserébe a max tdp-je vagy 30W-al több.. bár a grafikonról pont hiányzik az 570..
egyébként...
carraroxt volt fél éve a konkurenciának csiszolni a drivereket??
én ha jól tudom az 580-570es kártyák az elmult 2 hétben jöttek kb ki.. (pontos dátumra már nem emlékszem)


Az 570 sztem most best buy lehet tekintve, hogy egy szinten áll/ pár % lassabb a 6970-nél, cserébe viszont ha valakinek fontos a cuda / physics / 3d vision (esetleg) annak megéri.. vennék én is ha lenne zsetta


mod.: de az amd sem váltott most architektúrát.. egyébként is azért kell idő a mezei "új gpu"-knak is hogy drivert kapjanak
 
Válasz írásához előbb jelentkezz be!
121. carraroxt
2010.12.23. 20:01
Igen, az 500-asok akkor jöttek ki, de a Fermi architektúra már jóval korábban, és azon nem változtattak semmit.
 
Válasz írásához előbb jelentkezz be!
120. DeathAdder
2010.12.23. 20:10
Hat persze hogy nem mind reszelt
Nekem eleg ha csak EGY reszelt van 100+ k-s "csucskategias" VGA eseteben 2 hettel 2011 elott ,maris megvan (megmarad rola a velemenyem)
 
Válasz írásához előbb jelentkezz be!
119. Joachim21 carra...
2010.12.23. 20:14
LOL, a Jahr mosogató pedig azért csak 2x hatékonyabb az előző Jahrhoz képest, hogy egyet vesz kettőt kap akciókban lehessen még értékesíteni.
 
Válasz írásához előbb jelentkezz be!
118. szlaszlo
2010.12.23. 20:22
Mint látható, fantasztikusan dobják a gyártók piacra a semmit:
1. még mindig az 5970 a "király" , ha készülne belőle "Rev2.0" - értsd: 40nm-en gyártanák, olyan gyors memóriával és órajeleken, mint az újakat, még gyorsabb volna az architektúrája ellenére. Egy új csúcsmodelltől minimum az előző teljesítményének +50%-át várom el (inkább 100-at). Ettől messze vannak.
2. még mindig gyorsabb a két db 'felső' kategória belépő szintű (460) kártya, mint a 'csúcs' - olcsóbban, ráadásul nem kell egyszerre megvenni, emellett az értékvesztése elhanyagolható hosszabb távon is.
3. kiszámolható, hogy a 460 árát alapul véve bizony siralmas a 'csúcs' ár/érték mutatója, nincs értelme megvenni.
 
Válasz írásához előbb jelentkezz be!
117. Terror
2010.12.23. 20:26
"Egy új csúcsmodelltől minimum az előző teljesítményének +50%-át várom el (inkább 100-at)"

És ilyet mikor tapasztaltál utoljára az elmúlt 20 év során?
 
Válasz írásához előbb jelentkezz be!
116. rabib
2010.12.23. 20:35
Jajj ugyan már, fiúk! Hagyjatok már fel az egymás nézeteinek állandó kényszerű megváltoztatásának módszereivel! Minden jó tud lenni, ha a jó oldalról közelíted meg. Valamint minden rossz tud lenni, ha rossz oldalról közelíted meg. Egy valami vitathatatlan: olyan még sosem volt, hogy az emberek megegyezzenek. Már az őskorban is így volt ez. Neked ez mért nem tetszik, mikor szerintem igenis jó? Ami neked szimpatikus, az nem jó! -Szerintem az a jó, amit én preferálok!
 
Válasz írásához előbb jelentkezz be!
115. carraroxt
2010.12.23. 20:43
Csak néhány pontban tévedtél:
1. Az 5970-es 40nm-en késül, és csak azért nem gyorsabb gyárilag, hogy beleférjen a 300W-ba. De mint köztudott igencsak tuningbarát, mind mag, mind ramórajelen.
2. A 6970 nem csúcskártya, és nem is annak lett tervezve. Az a 6990 lesz jövő év elején.
3. Mivel egyik oldalon sem volt gyártástechnológiai váltás így egyik gyártónak sem volt lehetősége, hogy lényegesen felülmúlja az előző generációs termékét sebességben. 480 vs 580 ~ 17%, 5870 vs 6970 ~ 21%.
4. 2 db 460-as nem parti az 580 ellen, ne még a 6970/570 páros ellen sem nyerő. Ha az SLI kompatibilis lapot, és a nagyobb fogyasztást, rögtön kiderül, hogy mégsem olyan fasza!
5. Egy raktárürítés alatt álló termék ár/teljesítmény arányát nem illik frissen debütált, még nem stabilizálódott árazású termékekhez mérni.
 
Válasz írásához előbb jelentkezz be!
114. Novver
2010.12.23. 22:24
carraroxt - 2010-12-23 20:43:38 +1
 
Válasz írásához előbb jelentkezz be!
113. Terror
2010.12.23. 23:13
Svindler: Ilyen teszt lesz a 6000-es Radeonokkal és 500-as GForce-okkal is? Érdekes lenne.
 
Válasz írásához előbb jelentkezz be!
112. carraroxt
2010.12.24. 00:03
Most láttam itthon 6950-est kb 76e-től, és 6970-est kb 100e-től. Ennyiért már ilyen driverekkel is versenyképes (bár azért nagyon remélem gyorsul még).
6950 már most jó vétel, akárhogy is nézzük!
 
Válasz írásához előbb jelentkezz be!
111. gameplusz
2010.12.24. 00:59
Azt nem értem, hogy ha ilyen nyilvánvaló hibák vannak az architektúrában és jóval többet lehet belőle kinyerni, akkor az csak valami árkartell vagy valami megegyezés lehet... Nem tudom elképzelni, hogy a több milliót kereső mérnök nem veszik észre tervezéskor...
 
Válasz írásához előbb jelentkezz be!
110. carraroxt
2010.12.24. 02:15
Itt egy kis infó a tesztben szereplő egyik játékról, hogyan is van GF-re optimalizálva, és miért nem került bele a PH-s tesztbe.
[LINK]
 
Válasz írásához előbb jelentkezz be!
109. gery84 carra...
2010.12.24. 09:12
innen megtugyátok milye igazábol az nvidia: [LINK]

sok tesztelő majd ezzel a játékal fogja nézni a kát márka sebességkülömbségét! Így mindig az nvidia lesz a tesztek elején!
 
Válasz írásához előbb jelentkezz be!
108. markangabo...
2010.12.24. 10:58
Ez az optimalizáoció is csak az AMD-sek szerint rossz.
Az NV pénzel 1 népszerünek igérkező játékot, hogy a kártyái jobban teljesitsenek. Következmény: nv tulajok nyertek +x fps-t, ami nem kerult nekik semmibe(max késett a játék...),
nv meg magának csinált jó marketinget. AMD fanok hozzászólásai alapján az nv egy k*csög, *** és ***, mert jót csinál magának, meg a fanjainak? Na jöhetnek az olstások a commentemre, felkészültem lelkileg.
:
$
 
Válasz írásához előbb jelentkezz be!
107. Fix3r
2010.12.24. 11:05
Ahogy nézem elég nagy az eltérés a PH-s teszthez képest. Ott a 6950 inkább a gtx570-el van parriban a 6970 meg kb 10% lassabb a gtx580-tól. (ahogy olvasom ez azért lehet mert ők 8xaa-val nézték ami szerintem reális hiszen csúcs kártyákról beszélünk)
 
Válasz írásához előbb jelentkezz be!
106. markangabo...
2010.12.24. 11:08
A tesztelt alanyok is eltér(het)nek, ennek oka fejtett ki vitát
 
Válasz írásához előbb jelentkezz be!
105. BeZol
2010.12.24. 11:09
Hát még mindig nem igazán éri meg befektetnem egy 6970es-be, mert csak minimálisan jobb az én kis 4870 és 4890 crossfire-ömnél ( 11519 pont vantage gpu extreme 1920x1080 )... Várom a 7970est, remélem az már 28nm és +30-40% is meglesz teljesítménytöbbletben.
 
Válasz írásához előbb jelentkezz be!
104. newclear marka...
2010.12.24. 11:10
Itt a fő "probléma" az, hogy majd a sok fan, meg egyik oldalra elfogult emberke arra fogja verni a nyálát, hogy Crysis 2 tesztet nézd meg, és hogy mennyivel überf***ább az NVIDIA, miközben valószínűleg megint nem hardver szinten keletkezik majd a legnagyobb előny... Persze hajrá, engem nem zavar igazából, na meg gondolom csak a nagyon NV fanok fogják ezt beírni minden AMD-s hírhez. (azt sem mondtam hogy ez a másik oldalról nem fordulhat elő)

Az meg, hogy csak az AMD-sek szerint rossz, hát elég nyilvánvaló, hogy ha neked jobb, akkor nem fogsz panaszkodni, kivéve ha más szemszögből is átlátod kicsit a helyzetet. Végeredményben persze egyáltalán nem meglepő... pénz beszél.
 
Válasz írásához előbb jelentkezz be!
103. Heroes27 BeZol
2010.12.24. 11:11
hol van még az....
 
Válasz írásához előbb jelentkezz be!
102. Simba
2010.12.24. 11:17
#41:Miért láttál már élőben ilyen kártyát? Gondolhatod hogy akik tesztelik kamuznak ha azt hozzák ki hogy melegszik és ráadásul hangos. Nincs ezen mit szégyellni ha valaki 100k+t költ VGA-ra az nagy ívben leszarja, vagy vár és vesz egy jobb hűtésű darabot.
Tipikus fanboy megnyilvánulás
 
Válasz írásához előbb jelentkezz be!
101. iroh
2010.12.24. 11:27
Crysis-ban a radeon jobbat szokott vinni nv-nél kiváncsi leszek h a 2-vel hogy boldogulnak majd. Én kamunak tartom azt hírt h 2millió dollárt fizetett volna az nvidia optimalizálásért.habár ha marketing szempontból nézzük logikus lenne de amint a hírben is le van írva ez csak pletyka(nem megerősített)
 
Válasz írásához előbb jelentkezz be!
100. rabib
2010.12.24. 12:14
Tudjátok minden viccnek fele igaz. NV pénzeli a Crysis 2 fejlesztőit, ez nyilvánvaló. Ugyanígy az AMD is pénzeli őket. Amelyik több pénzt tud leperkálni nekik, attól függ, hogy az AMD vagy az Nvidia kártyáin megy-e majd jobban a játék. Mondja egy szembetűnő példát? Borderlands. Ott aztán látszik, hogy NV adott pénzt nekik rendesen.
 
Válasz írásához előbb jelentkezz be!
99. rini
2010.12.24. 13:33
Nem egészen volt így mert az AMD kezdte el pénzelni őket de valamin összevesztek és így jött az nV pénze a képbe. Lehet, hogy az nV többet fizetett? Kitudja? De azt, hogy azért tolták el a megjelenést, hogy a gtx 500-at megvárja ezt akkora hülyeségnek tartom, hogy az már fáj. Mi haszna lenne belőle ha már régen megjelent az említett kártya. Neki pont az lett volna a jó ha ma érkezik ez a játék a kártya mellé.

Ugyan úgy említhetted volna a másik oldalról a Battleforge-t vagy az AP-t is, azokat például az AMD pénzelte. Az AP ma is nagyjából az AMD kártyáké míg a Bettleban bokszzsákká minősültek a Radeonok. Másik oldalról ott van a Crysis ami nV támogatású játék de átlagosan a Radeonok jobban teljesítenek benne. Ezek a keresztbe veréseknek semmi más jelentőségük nincs mint annyi, hogy közben szépen, fokozatosan változnak az felépítések és ami eddig szép és jó volt most már kezd hátránnyá változni a jövőben. Másrészt a driver is szokott ilyen szűk keresztmetszet lenni. Valahol bennmarad egy korlátozó tényező és akkor megindul a mutogatás a másik gyártó irányába, hogy csalnak. Pedig csak meg kellene találni a hibát a driverben. Lásd Crysis megjelenése után megjelent Radeon drivereket. Botrányos volt minden szempontból az említett játékra nézve. Most is van egy ilyen játék a Just Cause 2 személyében amiben a minimum fps botrányos a megjelenése óta. Mondhatjuk azt is, hogy nagy ívben ejtenek rá. Már régen beperelték volna egymást ilyen szempontból ha ez bebizonyosodna. Csak mind két gyártó tudja, hogy ők ugyan ezt csinálják a saját támogatású játékaiknál is, másrészt tudják ők is, hogy hol hibáztak mind hardverileg mint szoftverileg.
 
Válasz írásához előbb jelentkezz be!
98. carraroxt
2010.12.25. 01:14
Az egésszel csak az a baj, hogy az ágazat gyakorlatilag teljesen védtelen az ilyesfajta etikátlan piaci verseny-ellenes magatartással szemben. Tegyük föl, hogy az egyik gyártó lepénzeli valamelyik játékfejlesztő stúdiót, hogy a konkurencia termékeit hátrányosan kezelje a program. Tudunk is asszem ilyen esetről... Mit tehet a konkurencia? Semmit, max megpróbál többet fizetni... Mert perelni biztos, hogy nincs értelme. Egy elhúzódó per mind a három résztvevő munkáját hátráltatja, és ráadásul legalább másfél-két évig tart. Mire döntés születik már a játék, és az adott videókártya generáció is elavult lesz. Ami méginkább ellene szól, hogy egy esetleges elmarasztaló ítélet annyira káros a piac egészére nézve, hogy még a sértett cégnek is jobb, ha nem következik be... Mert mi is történne ilyenkor? A két bűnös cég azaz a játékstúdió, és a vesztegető videókártya gyártó cég pénzbírságot kap valószínűleg. A videókártya gyártó cég nevetve zsebből kifizeti a bírságot, míg a játékfejlesztő iroda mögül kihátrálnak a kiadók, mondva (lehet jogosan is), hogy nekik semmi közük ehhez, és a fejesztőiroda önmagában jó eséllyel csődbe megy a bírságtól. Mivel az eladásokat jobban segíti még egy gyengén optimalizált játék is, mint a semmilyen, így ez a piac minden résztvevőjének egyértelmű szívás...
 
Válasz írásához előbb jelentkezz be!
97. papus016
2010.12.25. 03:38
Azta Q jó sok időt elp**sölhettél mire az adatoka megszerezted hozzá kivenni betenni driver game elindit pfff


Gratula hozzá türelmed az van
 
Válasz írásához előbb jelentkezz be!
96. Joachim21 papus...
2010.12.25. 08:05
Ha az Nv többet fizet a játékfejlesztőknek, akkor még egy érv hogy GeForce-ot kell venni.
 
Válasz írásához előbb jelentkezz be!
2010.12.25. 11:04
Azt a több pénzt meg veled fizetteti meg.

Az lenne ám a szép, ha az egyik játék az nV kártyán futna normálisan, a másik meg az ATI-n, aztán lehetne egyszerre 2 kártyát venni a gépbe.
Sőt, a játékprg felismeri a hw-t és, ha ellenségeset talál, el sem indul. Tiszta menyország lenne!
 
Válasz írásához előbb jelentkezz be!
94. rini
2010.12.25. 11:12
Azért ez nem ilyen egyszerű, mivel egyik cég sem akar csődbe menni. Márpedig a jó hírnév felettébb fontos számukra hiszen ez a kiadott játékaik eladási mennyiségét is érinti. Ezért nem gondolom, hogy szándékosan csinálnak ilyeneket. Kivétel biztos van, de elenyésző a száma. Másrészt ha néhány fejlesztő nem kapna ilyen támogatást akkor lehet, hogy soha nem készülne el a játék pénz hiányában. Pont ezeknél a játékoknál tudom elképzelni ennek lehetőségét, hogy valamilyen módon korlátozhatják a másikat, hiszen annyira megvannak szorulva anyagilag, hogy beadják a derekukat egy ilyen kérésnek is.
 
Válasz írásához előbb jelentkezz be!
93. gery84
2010.12.25. 11:15
Aztán vissza jön a régi rendszer hogy az ati nagyon erős kártyákat csinál de a játékok nem mennek rajta. Az NY meg szar kártyákat csinál de csak a driver viszi őket! Régen ez volt!
Most előszőr látom azt az nvidián hogy vissza vesz a hatalmas arcábol és normális árakat rak a kártyáira!
 
Válasz írásához előbb jelentkezz be!
92. Heroes27 gery8...
2010.12.25. 11:39
igen gery, ebben igazad van, csak az NV eddig nem igazán tett le az asztalra megint normális kártyát. több mint fél éve van a gtx460 és ennyi. Megállt az élet. Radeonból teljesen van jó alternatíva a 25-70 ezres árkategóriába, de NV-nek nincs. És minden vitatkozást félre téve, a normális kártyán azt értem, hogy most ami kijött szupi két karija, az 570 meg 580 néven, ami tényleg hű de jó, csak szerintem nem sokan állnak érte sorban, sőt, itt is felteheti a kezét az, akinek ilyen van, vagy lesz. Normális kártyát kellene csinálni, ami megfizethető, ez a trónért harcolás nagyon jó, csak nekünk ebből aztán semmi hasznunk sincs. Az 50 ezres kategóriába kéne már alkotni, vagy az alatt, nem a 150 ezresbe. Mert most tulajdonképpen ha most cserélném az 5830-as karimat, mi jönne szóba csere viszonylatban. GTX460? Most azért a plusz valahány százalékért nem éri meg. Csak 6870 lenne a befutó. De NV-ből valahogy nem bírok válogatni, pedig nem vagyok ellene. (a gtx470 jó lenne, csak már szerintem nem sokáig lehet azt sem kapni.)
 
Válasz írásához előbb jelentkezz be!
91. Micromatic
2010.12.25. 12:17
Nekem a 6950 39-41 fokon megy üres járatban. Jó kis kártya ez szerintem aki 470-et akar(t) venni annak lehetséges alternatíva, mert árban nincs olyan nagy árkülönbség de teljesítményben már van és ez nőni fog ha végre normális driver lesz hozzá... Az NV meg lehet gyorsabb pár fps-el magasról teszek rá melyik gyorsabb 2-4 fps különbség észrevehetetlen.
 
Válasz írásához előbb jelentkezz be!
90. Joachim21 Heroe...
2010.12.25. 18:18
5830-ról eleve hülyeség váltani, várd meg a 28nm-es 660-at. Egyébkéánt akinek új kártya kell, Hd3-tól visszafelé, az pont megtalálja a GTX 460 személyében amire szüksége van 50K környékén. Ha már piaci elemzésből indulunk ki, akkor ne a jelenlegi generációt, vagy az egyel ezelőttit vegyük már alapnak, hogy arról minek váltsAK, ez pont olyan mint SB-re váltani nahelemről, teljes hülyeség, ha pénzed van úgyis megteszed, de ha számít a pénz és józanul átgondolod nem sokat nyersz. Van GTX460-ból is 3 féle, alatta GTS 450, ezalatt meg gyakorlatilag lassan megszűnik a VGA piac az IGP-knek hála, minek fejlesszen oda az Nv?

Fx
AMD pont ezt erőlteti a platformosodásával. AMD CPU, AMD GPU, AMD chipset, de ha csak simán Intel mellé veszel AMD GPU-t, akkor rengeteg lehetőségtől elesel. Most ki a tróger akkor, az Nv aki jól csinálja a dolgokat, és próbál a vevői kedvében járni és így talpon maradni amíg még lehet, vagy az AMD, aki inkább kiszorítja az ellenfeleit a piacról, és ad valamit amit ők terméktámogatásnak hívnak?
 
Válasz írásához előbb jelentkezz be!
2010.12.25. 20:41
"...de ha csak simán Intel mellé veszel AMD GPU-t, akkor rengeteg lehetőségtől elesel."
Ezt nem értem, mert a komolyabb gépünk itthon Intel+ATI.
Mitől estem el? Driver-támogatás? Ingyen játék?
A másik gépem AMD-CPU-s, ha írsz valami meggyőzőt, máris átteszem a VGA-t!
 
Válasz írásához előbb jelentkezz be!
88. tibi27 fxdx
2010.12.25. 20:44
Egx kis off:3 d mark dx11-be jöjjön már át valaki
 
Válasz írásához előbb jelentkezz be!
87. Joachim21 fxdx
2010.12.25. 21:14
Ma nem, de jövőre amik jönnek catalystok már tartalmazni fognak olyan energiagazdálkodási beállításokat, amik csakis egységes AMD rendszer esetén lesznek elérhetőek. Aztán szépen lassan jönnek majd a további szívatások. Ahogy az intelnek lesz egy normális IGP-je, ők is meglépik ugyanezt. Már most lehetett hallani, hogy ha az SB IGP-je más VGA-t észlel, lekapcsol a videódekódoló részegységgel együtt, aztán úgy néz ki az Intel mégis csak tárgyal az Nv-vel az Optimusról, mert szüksége van olyan laptopokra, amikben van egy ütős IGP. De csak idő kérdése, hogy mindkét szartúró cég elkezdjen megakadályozni mindenki mást, hogy a rendszereikhez komponenseket adjanak el.
 
Válasz írásához előbb jelentkezz be!
86. kiskoller
2010.12.25. 21:42
fxfx: Ez a támogatás a jövőben fog megvalósúlni, pl ahogy Joachim is írta, energia-gazd, stb. (Off: jó a képed, egyik kedvenc albumom)
 
Válasz írásához előbb jelentkezz be!
85. carraroxt
2010.12.25. 22:36
Joachim21 Most ha arra gondolsz, hogy az a nagyon gonosz dolog AMD oldalról, hogy az APU-k mellé párosított Radeon-okhoz hibrid CF támogatást nyújt, és megengedi, hogy kihasználatlanság esetén integráltról menjen a monitor, akkor csak sajnálni tudlak. Egyébként sem lehet megvalósítani ilyesmit heterogén rendszerben. A másik dolog meg, hogy az NV is megcsinálta annak idején ezt NV chipset+NV vga párosítás esetén. Teljesen érthető dolog, hogy egyik cég sem szopik azzal, hogy vegyes driver-támogatást készítsen mindenhez, a konkurencia termékeinek kedvezve, és igen, az Intel sem teszi majd lehetővé (mobil fronton már most sem)... Ez a platformosodás természetes velejárója, és csak azért mert az NV-nek már nem nyílik erre lehetősége, még nem lesz a többi gyártó gonoszabb.
 
Válasz írásához előbb jelentkezz be!
84. Joachim21
2010.12.25. 23:10
OFF:
Az a furcsa, hogy ha AMD csinálja ezt akkor az érthető, minden más esetben felháborító csalás. Lásd az intel fordító protokolja kapcsán milyen felháborodás volt, mikor kiderült h az intel fordítója nem az AMD-re optimalizál. Én csak ezeket nem értem. Nem tudok eligazodni, hogy egy csalás mikor csalás, és mikor jó dolog. Ha az intel letiltja a SB IGP-jét ha más VGA-t észlel, az szemétség, ha az AMD drivere letilt bizonyos funkciókat más gyártó komponenseinek észlelése után az érthető. Azon kívül, hogy nekem ezzel az egész platformosodással bajom van, az emberek kettős mércéjén sem tudok csak úgy átsiklani. Egyébként ennek lehet a Magyarság őszinte jólelkűsége az oka, a gyengébben való segíteni akarás ösztönös felszínre törése lehet a jelenség magyarázata.
 
Válasz írásához előbb jelentkezz be!
83. carraroxt
2010.12.25. 23:14
Nem, ott az volt a felháborodás, hogy ugyanaz a Phenom II-es Core2-esnek álcázva instant 30%-ot gyorsult. Egyébként más téma...
 
Válasz írásához előbb jelentkezz be!
82. Heroes27 Joach...
2010.12.25. 23:15
Joachim, AMD CPU--->AMD GPU. Olyan logikus, hogy azt már csak el sem lehet képzelni. Ez nem csalás, Az AMD nemhiába vette meg az Atit és már nem Atinak hívják. Ilyen egyszerű, az Intel csinálja a saját grafikus dolgát az NV meg most marad szingliként. De ahogy mondta az előttem szóló, ott is volt próbálkozás elég szépen NV chipsetes alaplappal, csak abba is maradt.
 
Válasz írásához előbb jelentkezz be!
81. Joachim21 Heroe...
2010.12.25. 23:26
Önszántából kiszállt a chipset üzletágból az Nv. Megunta és abbamaradt a fejlesztés. Nembaj az hogy vita van, aki elolvassa sokat tanulhat belőle. Annyit mindenképpen, hogy egyik cég sem különb a másiknál ha a szabad versenyről alkotott filozófiájukat vizsgáljuk. /nem akarok itt most párhuzamot vonni a CUDA és Physx vs. X86 hozzáférhetőségével kapcsolatban/. Nv-nek sem lesz ez baj végül, Tegra2-vel halálra keresik most magukat, aztán meglátjuk mit kezd egymással az ARM bagázs és az X86 duopólium a jövőben.
 
Válasz írásához előbb jelentkezz be!
80. jozsefm Joach...
2010.12.25. 23:28
Tényleg off:az emberek kettős mércéjén sem tudok csak úgy átsiklani. ezzel ugye azért Te is azt akartad érzékeltetni,hogy pillanatnyi pozicioit nem termékei minőségének köszönheti döntően. /off
 
Válasz írásához előbb jelentkezz be!
79. carraroxt
2010.12.25. 23:32
Azért szállt ki, mert az Intel beszopatta. Hiába, az inkorrekt piaci magatartás terén az Intel mellett mindenki más csak statiszta lehet... Soha nem fogják abbahagyni, akárhány per lesz belőle erre mérget veszek!
Az arm<->x86 csata meg tényleg sok érdekes fordulatot hozhat még.
 
Válasz írásához előbb jelentkezz be!
78. _DiEGO_
2010.12.26. 00:35
Karácsony van - Hétfőig bírjátok már ki



A rendőrt elküldik a közlekedési-áldozat családjához, hogy diszkréten
tudassa velük a halálesetet.
A rendőr becsönget és kijön a feleség. Kérdi a rendőr: Ön özvegy Vargáné?
Igen én, én vagyok - de nem özvegy.
Fogadjunk! ...mondja a rendőr.
 
Válasz írásához előbb jelentkezz be!
2010.12.26. 08:15
@kiskoller
Jösz a koncertre júniusban? (Már megvan a jegyem. A chicagói megjelent dvd-n, rákeresel a Youtub-ra feltettem 3 részletet...Bexarás)
[LINK]
[LINK]
[LINK]
 
Válasz írásához előbb jelentkezz be!
76. kiskoller fxdx
2010.12.26. 09:04
offtpic: fx.dx igen, a jegy nekem is megvan már (a pontot azért raktam a nevedbe mert kül. smiley-t rak helyébe)
 
Válasz írásához előbb jelentkezz be!
75. Turai
2010.12.26. 21:38
Az nVidia és az AMD (jelenleg még ATI) is szépen képviselteti magát a piacon az új kártyákkal csak azért volna ebbe egy szépséghiba.
Amennyiben a TSMC tartja az előrejelzéseit akkor 2011 Q2-ig átáll mind a két gyártó a 28nm-re aminek következtében megjelennek Q2 de legkésőbb Q3-ig az új generációs kártyáik.
AMD részéről a déli szigetek az nVidia részéről pedig a (szabad fordítás) gázpedált kódnevű kártyái megjelenésére lehet számítani.
Bár nagy a csen de pár ázsiai honlapon már fellelhető egy két információ morzsa a specifikációról de erre nem térek ki mivel ezek még igen csak megkérdőjelezhetőek.
Minden esetre akinek nem létfontosságú az új kártya vásárlása annak érdemes megvárnia.
Ki tudja lehet, hogy a CES idején kiszivárog pár tényleges információ is...
 
Válasz írásához előbb jelentkezz be!
74. Xeon
2010.12.26. 21:50
vki mongya már el nekem h ez a Antiscrope, v h is kell leírni (asszem ezt rövidítik AF-nek) ez mit takar, mire is jó? és mit csinál a megjelenítendő képpel?
 
Válasz írásához előbb jelentkezz be!
73. sanyix
2010.12.26. 23:12
hát szerintem kapcsol be és nézzél szét. Sokkal szembetűnőbb mint a nyomi élsimítás.
 
Válasz írásához előbb jelentkezz be!
72. sanyix
2010.12.26. 23:23
Joachim21: "Az a furcsa, hogy ha AMD csinálja ezt akkor az érthető, minden más esetben felháborító csalás. Lásd az intel fordító protokolja kapcsán milyen felháborodás volt, mikor kiderült h az intel fordítója nem az AMD-re optimalizál."

Ez marhaság... hogy működjön együtt egy amd driver egy intel/ nv driverrel? Kb nem megoldható...
Az intel fordítónál meg arról volt szó hogy nem optimalizálták, amd-re, hanem direkt anti-optimalizálták. Ott volt az összes amd prociban az sse,sse2,sse3 is, az intel c meg direkt nem használja ezeket ha amd procin fut a lefordított kód. Nagy különbség van a nem lehet megcsinálni, és a direkt úgy csinálták és arra fordítottak munkaidőt hogy rosszabb legyen között (mert ha nem csinálnak vele semmit ugyanúgy hagyják mint intelen, akkor amd-n is menne)...
 
Válasz írásához előbb jelentkezz be!
71. sanyix
2010.12.26. 23:27
Leírom képletesen is. Ha az amd nem működik együtt az nv-vel energiatakarékosságért, az olyan mintha a futóversenyen NEM adna az ellenfél egy motort hogy azzal előre slisszolj. Viszont az intel c fordító esetében az a helyzet, hogy direkt elgáncolod a másik versenyzőt, aki szétkenődik az aszfalton, és úgy nyersz...
 
Válasz írásához előbb jelentkezz be!
70. Imo
2010.12.27. 10:25
vki segíthetne. januárban lesz egy kis pénzem max. 70k. és nem tudom, hogy melyik vga-t éri meg vásárolni. nvidia vagy ati. ár teljesítményben érdekelne a legjobb.
pls vki segítsen.
 
Válasz írásához előbb jelentkezz be!
69. jozsefm Imo
2010.12.27. 10:34
Erre a januári árak ismeretében lehet mondani valamit is.Mivel most elég hektikus az árképzés és ráadásul januárban uj modellek érkezése várható mindkét oldalon ,ami jelentősen befolyásolni fogja a teljes felsőház mostani árképzését.
 
Válasz írásához előbb jelentkezz be!
2010.12.27. 11:31
megfogadom tanácsod. megvárom az új modelleket
 
Válasz írásához előbb jelentkezz be!
67. carraroxt
2010.12.27. 12:07
A mostani árakat figyelembe véve a 6950-es lehet a befutód. Valószínű lemegy 70 alá az ára az ünnepek múltával.
 
Válasz írásához előbb jelentkezz be!
66. carraroxt
2010.12.27. 12:14
Bár állítólag a következő év közepén jönnek a 28nm-es versenyzők, de tekintettel, hogy a gyártás még mindig a TSMC-nél van, kissé szkeptikus vagyok a zökkenőmentes starttal kapcsolatban.
 
Válasz írásához előbb jelentkezz be!
2010.12.27. 12:43
mondjuk az pont jó lenne, de kíváncsi vagyok hogy az nvidia oldaláról, hogy fog teljesíteni a gtx 560 és hogy mennyibe fog fájni.
 
Válasz írásához előbb jelentkezz be!
64. jozsefm Imo
2010.12.27. 12:52
Az utobbi időben már szinte gyanusan összhangban vannak. Az 560 előreláthatólag valahova a 6870 környékére érkezik ,és ára is annak megfelelően lesz belőve ,erre mérget veszek.
 
Válasz írásához előbb jelentkezz be!
63. newclear carra...
2010.12.27. 14:29
Elviekben már mindkét gyártó idén ősz körül megkapta az első 28nm-es GPU "prototípusokat", és ahogy én tudom a gyártás sem a TSMC kezében lesz, legalábbis az egyik oldalon "biztos", hogy nem.
 
Válasz írásához előbb jelentkezz be!
62. jozsefm newcl...
2010.12.27. 14:35
A Global Fu.-ra gondolsz?
 
Válasz írásához előbb jelentkezz be!
61. kiskoller
2010.12.27. 14:42
szívesen megvárnám a grafikuskártya vásárlással a 28nm-t, hisz akkor igazi teljesítménynövekedésnek lehetünk szemtanúi, de ki tudja hogy nem csúsznak-e még egy-két évet vele...
 
Válasz írásához előbb jelentkezz be!
60. jozsefm kisko...
2010.12.27. 14:50
A két év rettentő sok lenne,de nem nagyon van mit tenni ellene .A TSMC gyártókapacitását egyenlőre egyikük se nélkülözheti.Bár az AMD előtt meg lenne a lehetőség a saját gyártásra,én kevéssé tartom valószinünek,hogy a GF szükös kapacitásait egy kihaló félben lévő területen apróznák el, főleg most, ugy asztali mint, mobil szegmesben ,az uj platformok tömreggyártásának beinditása idején.
 
Válasz írásához előbb jelentkezz be!
59. newclear jozse...
2010.12.27. 14:55
Egyrészt, de mintha NV-nél is olvastam volna valami más gyártó nevét, de bevallom arra már nem emlékszem.

1-2 éves késés szerintem is majdhogynem lehetetlen, tekintve hogy elvileg már megkapták az első mintát mindkét oldalon. 2011 Q4, '12 Q1-re szerintem mindenképp ideérnek, ha nem előbb.
 
Válasz írásához előbb jelentkezz be!
58. amd
2010.12.27. 15:10
Most, hogy helyből két bios található a kártyákon, elkezdték a 6950-et 6970-re alakítani házilag.
 
Válasz írásához előbb jelentkezz be!
57. carraroxt
2010.12.27. 15:12
A GTX560 a 6870 ellenfele lesz. Specifikációi alapján kb ugyanolyan teljesítménnyel, de jóval nagyobb fogyasztással. Ár teljesítmény aránya valószínű kedvező lesz (átlag 3-8e Ft-al a 6870 alatt). Már kissé én is várom, mert remélhetőleg árversenyt indít a középkategóriában, bár még mindig úgy tűnik, hogy a 6950-es mindent üt.
 
Válasz írásához előbb jelentkezz be!
56. carraroxt
2010.12.27. 15:13
amd Láttál már ilyet valahol? Érdekelne a dolog!
 
Válasz írásához előbb jelentkezz be!
55. carraroxt
2010.12.27. 15:14
Drukkoljatok légyszi, hogy ne fagyjon le a seggem miközben leszigetelem az ablakot!
 
Válasz írásához előbb jelentkezz be!
54. jozsefm carra...
2010.12.27. 15:18
Valamiféle BIOS mod-lenne ..vagy csak ismétlődik az 5850-5870 esete,ahol is simán felhuzták vállalkozó kedvü userek az 50-est a 70-es órajeleire, esetenként még felé is.
 
Válasz írásához előbb jelentkezz be!
53. amd
2010.12.27. 15:31
Kb úgy mint régen a 9500-ból 9700, vagy melyik volt. Amit bios cserével lehetett elérni.
Most hogy két bios van ez fájdalom mentesen végrehajtható, bár a siker nem garantált.
 
Válasz írásához előbb jelentkezz be!
52. jozsefm amd
2010.12.27. 15:36
Na meg gondolon a garancia se..., elég meredek dolog egy pár napos 80-ezres kártyánál!
 
Válasz írásához előbb jelentkezz be!
51. amd
2010.12.27. 16:31
Most néztem a komolyabban a témával foglalkozó lapok fórumaiban már vannak erre indított részek. Leírásokkal.

Egy cikket is találtam már, ami kimondottan ezzel foglalkozik.
Úgy néz ki, hogy egyelőre csak bios szinten vannak a shader tiltások a kártyákon, ezért lehet bios módosítással oldani.

Garanciákat nem olvastam mostanában videokártyákra vonatkozóan. De, az sem mindegy milyen programmal és hogyan nyúlsz hozzá, többek között az órajelekhez sem. De még a ventillátor szabályozásának saját kézbe vétele is csak a garancia pontos átolvasása után javasolt.
Ráadásul mindez még gyártó függő is, meg kontinens.
 
Válasz írásához előbb jelentkezz be!
50. carraroxt
2010.12.27. 16:48
Ezt jó hallani! Ezek szerint hamarosan ellepik a használt piacot a tesztelten hack-elhető kártyák!
 
Válasz írásához előbb jelentkezz be!
49. Fzoltan
2010.12.27. 17:07
Bocs a linkelésért, de tessék: http://www.techpowerup.com/articles/overclocking/vidcard/159
Eddig 100%-os siker - a beküldött eredmények alapján, de kérdés, hogy hányan álltak neki és nem sikerült...
 
Válasz írásához előbb jelentkezz be!
48. carraroxt
2010.12.27. 17:18
Kösz! Akiknek nem sikerült nyilván nem büszkélkednek vele annyira... De még így is tetszik! Ha lenne bennük fesszabályzási lehetőség is az maga lenne a kánaán. Sajnos úgy tűnik ez lesz a legnehezebben megkerülhető antituning korlátozás, bár később nem ref modelleknél, még talán az is lehet!
 
Válasz írásához előbb jelentkezz be!
47. carraroxt
2010.12.27. 17:27
Most olvastam végig. Durva, még V-mod is elérhető! Csak az a baj, hogy ez tuti garanciavesztéses... Kár egyébként, hogy a memóriáról nem ír semmit! Azon valószínű többet lehetne nyerni...
 
Válasz írásához előbb jelentkezz be!
46. jozsefm carra...
2010.12.27. 18:33
Arra azért kiváncsi lennék mit szól ehhez hosszu távon, a 2X6 tüs csatlakozó?
A másik gondolat ami erről az egészről eszembe jut/ reszelés, tiltás, driver nincs még,késés kapkodás/ ennél is eretnekebb, és az előzetes eredeti 6970-es SP. számmal kapcsolatos
 
Válasz írásához előbb jelentkezz be!
45. carraroxt
2010.12.27. 19:09
Nem igazán értelek.
 
Válasz írásához előbb jelentkezz be!
44. Micromatic
2010.12.27. 19:19
Lecseréltem a Bios-t 6970esre a Giga kártyán és simán működik most eresztem rá a 3d mark 11et... GPU-z szerint 1536 shader 84,5Gtex/s fillrate nyami...
 
Válasz írásához előbb jelentkezz be!
43. carraroxt
2010.12.27. 19:31
Grat!
 
Válasz írásához előbb jelentkezz be!
42. carraroxt
2010.12.27. 19:37
józsef m. Csak nem arra gondolsz, hogy azért lehet most látszólag ilyen jó eséllyel aktiválgatni, mert a chip fizikailag 1600SP-t tartalmaz?
 
Válasz írásához előbb jelentkezz be!
41. noPublicFG
2010.12.27. 19:50
Örülök ezeknek a teszteknek, de úgy sem veszek ennyiért videokártyát. Sajnos az én kategóriám valahol a 35-40E magyar forintnál meg is áll.
 
Válasz írásához előbb jelentkezz be!
40. jozsefm carra...
2010.12.27. 19:51
Nekem teljesen más jár az eszemben, ezzel kapcsolatban ami nagyon sok mindent megmagyárázna a kártya (igaz kártya) piacra dobása előtti herce-hurcából!?

Más: lelki szemeim előtt látom a giga és az anusz egyedi megoldásait 6+8 tüs tápcsatival, egyedi hütéssel és tuning RAM-okkal!
 
Válasz írásához előbb jelentkezz be!
39. Micromatic
2010.12.27. 19:56
A 2x6 tűs csatlakozó csak annyit tesz, hogy korlátozza a kártya ellátását. Ezzel csak 6970 gyári beállításait lehet elérni ha Catalytba +20%ra rakja ez ember a power control-t. A 8tűs ahhoz kell a 6970nek, hogy lehessen arra további +20%ot rakni, de belegondolva 6970es, hogy teljesítményre lehet húzni a 6950-et hát az már önmagába elég szép tuning.
 
Válasz írásához előbb jelentkezz be!
38. amd
2010.12.27. 20:02
Most már itt is olvasható róla egy cikk.

Nem tartalmaz 1600-at, akkor tartalmazna, ha maradtak volna az eredeti architekúránál (VLIW5). Így ott nem lenne mit aktiválni.

A 6+6 pcie táp csatlakozó viszont nem tud specifikáción belül annyi kakaót szolgáltatni, amennyi szükséges, ez benne van a tesztben (videokártyáknál mindig csak a kártya fogyasztását mérik).
Ez tényleg jó kérdés, mennyire egészséges. De nem is a tápnak (ha megfelelő minőségű), hanem a kártya áramköreinek. Ám egy referencia modellnek elvileg szinte ugyanaz a NYÁK az alapja mint egy nagyobb modellnek, leszámítva az egy fázist, amit nem minden 6950 kap meg a referencia modellek között - természetesen.
Úgy néz ki, ha a PowerTune nem kap emelést, akkor a két hattűs specifikációján belül tud teljesíteni. De ez is egy "extrémebb" esetben lett letesztelve. Normál játék, nos az megint egy kérdés.
 
Válasz írásához előbb jelentkezz be!
37. carraroxt
2010.12.27. 20:14
Akárki is ad ki 6950 tuning verziót, engem azzal fog megnyerni ha izom ramokat tesz rá, mert a 6970 ramlimitesnek tűnik egy kicsit. A többit meg úgyis lehet biosbuzerálással módosítani mint kiderült...
A két kártya panelje egyébként totál ugyanolyannak tűnik, sőt még a tápellátás is megegyezik leszámítva néhány ellenállást a 6950-en. Szóval az eszetlen tuninggal is inkább a tápunkat veszélyeztetjük, mint magát a videókártyát közvetlenül.
 
Válasz írásához előbb jelentkezz be!
36. amd
2010.12.27. 20:28
Az egy fázisnyi eltérést visszavonom, mert közben a 6800-as széria járt az eszemben, ahol ez az eltérés előfordul.

6900-as szériánál nem tudom a referencia NYÁK közötti különbséget. Ránézésre ugyanolyanok a tápellátás alkatrészei, de vannak eltérések ezen a részen: pár plusz ellenállás a 6950 feszültségszabályozó IC környékén. Egyéb ellenállások is más áramköröket zárnak.
 
Válasz írásához előbb jelentkezz be!
35. Fzoltan
2010.12.27. 22:16
amd: Ha maradt volna a VLIW5, akkor 1920 shader lenne, az 1600-at egyszerűen azért írja ki a gpu-z, mert még nem támogatta a 0.4.9-es verzió a 69xx-eket.

Azért ne felejtsük el, hogy tuning során a 6950-es kártyák általában jóval alacsonyabb (a 6970 és 6950 közötti referenciaértéknek kb. megfelelő) órajelet tudtak elérni, sőt, a 6970 órajeleit is volt, ahol nehezen haladták meg. Ettől függetlenül tuti nem jön rosszul a +ajándék shader.
 
Válasz írásához előbb jelentkezz be!
34. jozsefm Fzolt...
2010.12.27. 22:19
A korai, első steppinges GPU-k esetében ez szinte mindig igy volt.
A GPU-z nem méri az SP számot ,hanem gyártói adatbázisból dolgozik.
 
Válasz írásához előbb jelentkezz be!
33. jedi
2010.12.28. 17:10
1.
A Crysis 2 lehet hogy nem azért késik, mert a GTX5..-ra optimalizálják, hanem mert lehet hogy már futtattak rajtuk egy-két ( persze az ATI-n is ) béta tesztet ( ha márciusra ígérték, gondolom már van működő része a proginak ), és olyan sz.r eredményeket kapott az ATI-hoz képest, hogy így nem merik kiadni ( No most meg leszek kövezve )

2.
A 6950-6970 módolással kapcsolatban, pedig az a véleményem, hogy amíg normális sebességen elfutnak rajta az új játékok ( min. 30fps ), addig nem b.sztatnám. Aztán kb. 1-1.5 év múlva, mikor már felét sem éri a kártya, de garancia még van rá, és a tesztekből úgy látnám hogy van értelem 6970-nek módolni ( 22fps helyett 30-al megy a Crysis 3 ) akkor talán hozzányúlnék.
 
Válasz írásához előbb jelentkezz be!
32. jozsefm jedi
2010.12.28. 17:17
No most meg leszek kövezve

Ha felébrednek biztos!
Egyébként meg olyan mindegy hogy akarták optimalizálni, addigra kijön a 6990-es és tehetik a kirakatba minden mesterkedésüket, kishiján egy SLI GTX-580 teljesitménnyel várható.
 
Válasz írásához előbb jelentkezz be!
31. kiskoller
2010.12.29. 16:23
Mindenki a 6990-től várja a megváltást. GTX580 SLI teljesítménnyel, azért ez még egy AMD fantól is erős túlzás. Egyszerűen 300W adott és kész. Akárhogy csűrik csavarják ezt az architektúrát, ezen a csíkszélességen ne várj megváltás
 
Válasz írásához előbb jelentkezz be!
30. jozsefm kisko...
2010.12.29. 16:33
Kevés hiján a GTX 580SLI teljesitményénnel:



Igy teljesit egy 5970-hez képest! Ez se tul sok!
 
Válasz írásához előbb jelentkezz be!
29. kiskoller jozse...
2010.12.29. 16:47
1. FullHD felbontást mutatsz. Ekkora felbontáson CPU-limit van, nem vitás
2. Összteljesítményt mutatni értelmetlen, hisz ilyenkor fogsz 20 játékot, amiből 17 1db GTX580on vígan elfut 60 FPS-el, így az SLI ha +100% ha +1%-ok mutat, irreveláns.
Ahogy a teszteket olvasgattam, a GTX580 SLI ott domborít igazán, ahol a GTX580 már kevés, pl Crysis Warhead 2560as felbontás, DX10, Enth beállítás, 4x AA, esetleg Metro, ugyancsak 2560as felbontás, DX11, 2xAA. Ahol a GTX580 egyedül vagy 100 FPS-t produkál, ott egyrészt fölösleges a plussz kakaó, másrészt CPU limit van. Egyedül a nagy felbontásokon, vagy több monitoron, vagy 3D-ben van értelme az SLInek, ugyanis azok a helyzetek, amikor a GPU extrém módon van terhelve, így nem alakul ki CPU limit.
 
Válasz írásához előbb jelentkezz be!
28. jozsefm kisko...
2010.12.29. 17:06
Van valahol de most nem találom, a proci limitre, meg ennyit:



A nagyobb felbontás pedig rendre a Radeonok terepe
 
Válasz írásához előbb jelentkezz be!
27. kiskoller
2010.12.29. 17:22
Furcsa, hogy pont a guru3D grafikonját mutatod, hisz ők pont azonos vleményen vannak velem. De hogy ne csak a levegőbe beszéljek, itt van 2 grafikonjuk. Mind2 EZEN a linken megtalálható:
itt nem látszik jelentős növekedés a +1db gtx580 hatására, 62ről 90 fps, ez +50%.
Itt viszont ha emgnézzük az utolsó helyet, a bizonyos 2560x1600-at, itt 24ről 42re növekedett, ami 75% növekedés. Ahogy mondtam, ahol _számít_ a plussz teljesítmény, pl itt, ahol csak 24 FPS-t hozott össze az 1 kártya, ott nagy mértékü növekedés tapasztalható.
A CPU limitre érv:
idézem a Guru3D-től:
"This article is not different, with the one exception that we have so much graphics horsepower under the hood that we far more quickly run into a CPU bottleneck (the state where the GPUs are waiting on the CPU to provide data). Though that might seem bothersome, it really is luxury problem to have."
 
Válasz írásához előbb jelentkezz be!
26. kiskoller
2010.12.29. 17:35
itt van még egy példa:

GTX580 SLI: 65 FPS

HD5970: 34 FPS

Ez majdnem dupla akkora teljesítmény. Jelen helyzetben ugyan csak FullHD felbontás volt, de ahogy látod ezen felbontáson is rendesen le voltak terhelve a GPU-k, így megint csak láthattuk az 580 SLI teljesítményét. Hacsak nem fog a felsőkategóriában is duplázni az AMD, nem fogja kis hiján sem befogni 1 HD6990 a GTX 580-at. Ez viszont azért lenne isteni csoda, mert a HD5970 és a HD6990 ugyanazon csíkszélességen készült, és a HD5970 is fogyasztás gondokkal küzdött (Innen ered a hatalmas tuningpotenciálja, amivel lazán elérhetjük a 400W-os fogyasztást is) Ergo az egyetlen lehetőséget arra, hogy teljesítménybeli növekedést észleljünk, az az architektúra megváltoztatása adhatja.
 
Válasz írásához előbb jelentkezz be!
25. jozsefm kisko...
2010.12.29. 17:40
Változott a véleményük November 9, 2010 óta és ott az SLI itt meg az AMD CF a téma:
I have to admit I was a little surprised by the excellent performance scaling we see on the R6950. Where the single card is a little so-so to position, we can surely recommend going the CrossfireX route. Granted, two cards will set you back a chunk load of money at roughly 550 EUR, but the performance gained here is truly amazing.

ATI's, or I should say AMDs driver team has done a tremendous job ever since the series 5000 release to get games supported in multi-GPU mode. Last week they announced that every week a new Application Profile Patch will be released, so if a new game is out, within a week you'll have support for it (at least according to AMD). It's that kind of dedication we like to see very much.

Now make no mistake, once you pass a single GPU configuration there's bound to be some sort of issue at one frame in time. A game that is not properly multi-GPU supported or some weird anomalies. This happens period, it's the choice you make with multi-GPU setups. Stretching it even further with 3 or 4 GPUs and things typically get way more complicated than fun. keep that in mind, always.

That said, we have had no issues whatsoever with the titles tested today. And sure, AMD makes sure to check up on sites like Guru3D to make sure our test-suite is well supported in their drivers. But the overall experience was pretty darn good. In fact ever since the 6800 releases a while ago we feel that AMD is making tremendous steps with their multi-GPU support, and today's article is a testimony to that.
Radeon HD 6850 CrossfireX What you gain with a setup like this is truly massive gaming performance, any game at any resolution at up-to 8xAA will runs smooth as heck, it's that simple. Where this setup might really help though is of course Eyefinity. Multiple monitor setups can be a huge strain on the GPU as they need to poop out more pixels of course.

Overall we very much liked what we tested. The performance is really good, the R6950 in CrossfireX for whatever reason just seems to make so more sense then the one single card. Two cards close to each other in your chassis under heavy stress produce a lot, seriously a lot of noise, keep that in mind.

Massive thanks go out to Gigabyte for shipping out the 2nd R6950. The Gigabyte card is tagged under SKU code GV-R695D5-2GD and can be spotted in the stores at roughly 269 EUR. An excellent product which we had no issues with whatsoever.

That said, what you have seen in terms of performance today will likely also be very similar to the upcoming Antilles release from AMD, a card that for now we'll name Radeon HD 6990, and that surly promises a lot.


By: Hilbert Hagedoorn | Edited by Eddie | Published: December 16, 2010
 
Válasz írásához előbb jelentkezz be!
24. kiskoller
2010.12.29. 17:52
Ennek mondjuk én örülök a legjobban, hisz 6850 CF-et tervezek magamnak. (Eleinte 5770 volt a tervben, de engem is meglepett a 6os széria CF-e) Ellenben kétlem, hogy a 6990 a 6950 CF teljesítményét hozná, hisz sokkal többet fogyaszt annál, inkább a 6870 CF teljesítménye várható, Így még mindig kétséges, hogy sikerül-e az amit mondtál.
 
Válasz írásához előbb jelentkezz be!
23. jozsefm kisko...
2010.12.29. 18:06
Már korábban is irtam erről ,miszerint ezt a chipet /69xx/ solóban, direkt beáldozták a későbbi dual beépités lehetősége érdekében, van róla leirás ahol a takarékos modot tesztelik melyben jóval 200W alá csökken a fogyasztása, a teljesitménye pedig nem romlik számottevően/6950/.Azon kivül más trükk is lesz benne de erről nyilván olvastál a másik oldalon
 
Válasz írásához előbb jelentkezz be!
22. kiskoller
2010.12.29. 18:31
nah majd meglátjuk, mi sűl ki ebből.
 
Válasz írásához előbb jelentkezz be!
21. jozsefm kisko...
2010.12.29. 18:37
Sülni azért ne süljön .., mondjuk csak a kiváncsiság hajt, mert mint vétel a 6990 indiferens számomra.Viszont ha jóárasitja a kisebb tesókat, a 2 giga memória miatt érdekelne az eyefinityhez, valamelyikük.
 
Válasz írásához előbb jelentkezz be!
20. kiskoller jozse...
2010.12.29. 19:20
igen azért egy 5870-t én se most cserélnék le
 
Válasz írásához előbb jelentkezz be!
19. jedi
2010.12.29. 20:10
Nekem van egy olyan megérzésem, hogy a 6990 azért késik ( lett később kiadva ), mert a gyártás folyamán, leválogatják azokat a tökéletes chip-eket, melyek a minél kisebb alap-feszen viszik a alap frekit. Szerintem így ( is ) tudják berugdosni a 300Wat-os határ alá.

Más
A GTX580 SLI-t meg ne hasonlítgassuk már a HD6990-el össze, mivel:
1. Még ki sem jött a 6990
2. A GTX580 SLI 2db kártya, a 6990 meg 1db lesz ( még ha 2db chip is van rajta )
3. Majd a GTX595 -el kell összehasonlítani, de ez kétlem hogy manapság kijön, mivel a ATI-nak is húzós lesz összehozni a 300Watt miatt, nemhogy még az NVidia-nak.
4. Az NVidia akkor fogja kihozni a GTX595-öt, ha a TSMC átáll 28 nanométerre, addig biztos hogy nem
5. Ezért nem vennék 6990-et sem, mivel szerintem ez az AMD-nek egy kényszermegoldás, a GTX580 miatt, és a 300Wat-os limit miatt nem fogja tudni kifutni magát. El sem tudom képzelni milyen, és hány tápcsati lesz rajta, ha már a GTX460-asokra is 6+8 ast raknak ( lásd. Galaxi GTX460 cikk ), az meg igen csak egy középkategóriás 1 Chip-es kártya. Úgyhogy aki csúcs teljesítményre vágyik, várjon még jó pár hónapot, a 28 nanométeres HD6995-re ( lehet hogy ez lesz a neve ), vagy a GTX595-re
 
Válasz írásához előbb jelentkezz be!
18. jozsefm jedi
2010.12.29. 20:26
Az AMD-nek ez nem kényszer megoldás hanem az eredeti elképzelése.Már elég régen a két GPU-s modell az aktuális architektura csucskártyája, mint ahogy jelenleg is van ,az 5970-es képében, akár AMD ,akár abszolut értelemben.
 
Válasz írásához előbb jelentkezz be!
17. jedi
2010.12.29. 21:27
A kényszermegoldást azért mondtam, mivel elméletileg 32 nanóra tervezték az egész HD9***-es szériát, csak mivel törölték , azért mondtam a "kényszert", mivel gondolom nem 40 nanóra tervezte anno az AMD. Ezért van gonba most a 300 Wattal
 
Válasz írásához előbb jelentkezz be!
16. kiskoller
2010.12.29. 21:36
- Teljesítményt miért ne hasonlítgassunk? Ugyanúgy 2 chip vs. 2 chip, és én máris okosabb lettem józsef m.-nek hála.
- Kétlem hogy a GTX595 valaha is napvilágot fog látni.
- Az AMD pont ugyanannyira szenved a fogyasztástól, mint a riválisa.
- Következő gyártástechnológia messze van még, pár hsz-el feljebb pont ezt feszegettük.
 
Válasz írásához előbb jelentkezz be!
15. jozsefm jedi
2010.12.29. 21:48
Ez ugynigy igaz a GF100 és klonjaira, is mindkét gyártót szivatta vele a TSMC.
 
Válasz írásához előbb jelentkezz be!
14. gery84
2010.12.29. 21:53
ezt olvasátok ha annyira érdekel a 6990 és a 595 csatája! [LINK]
 
Válasz írásához előbb jelentkezz be!
13. jozsefm
2010.12.29. 22:24
No de gery ez több mint egy napos hir,.. valami frissebbet..?
 
Válasz írásához előbb jelentkezz be!
12. jedi
2010.12.29. 22:49
Kiskoller !

Tegye az NVidia 1 nyákra a 2 Fermit, és mehet az összehasonlítás . Teljesen más utat jár az ATI, és az NVidia . Az NVidia már jói deje nagy monolitikus chip-eket csinál, és így növeli a teljesítményt. Hát így szerintem nem nehéz . Ez olyan, mintha az autóiparban úgy érnének el nagyobb teljesítményt, hogy egyre nagyobb motorokat tesznek az autókba. Nem nagy kihívás szerintem. Az ATI inkább az adott magméretből kihozható legnagyobb teljesítményt tartja szem előtt. Biztos hogy az ATI nagyon nagy energiát fektet a fejlesztésekbe. Nézd csak meg, a HD69**-es szériát, az HD58**-ashoz viszonyítva ! Kevesebb árnyaló, mégis nagyobb teljesítmény. De úgy is számolhatjuk a teljesítményt, hogy a nagy teszt végén kapott össz-teljesítmény értékét, minden kártyánál elosztjuk a magmérettel. HD6970 vs. GTX580 Egyből más lenne a kislány fekvése igaz ?!
 
Válasz írásához előbb jelentkezz be!
11. jedi
2010.12.29. 22:52
Ezzel nem azt akartam írni, hogy az NVidia nem fektet sok munkát, és pénzt a fejlesztésbe, csak más utakon jár mint az ATI
 
Válasz írásához előbb jelentkezz be!
10. jozsefm jedi
2010.12.29. 23:02
Mindketten , más okból, és céllal ugyan ,de jelentős összegeket tolnak a fejlesztésbe.
 
Válasz írásához előbb jelentkezz be!
9. kiskoller
2010.12.29. 23:23
már nem azért de végfelhasználónak nem teljesen tökmind1 a magméret?
Ha egyszer a kisebb magméretű kártya is ugyanúgy melegedik, fogyaszt, teljesít, akkor nem tökmind1? Az előállítás meg azért nem jó érv, mert így is úgy is fillérekből állítják elő ezeket a kártyákat és 10szeres áron adják el őket.

Itt javítsatok ki ha tévedek:
Legyen addot A és B chip. Mindkettő ugyanannyit fogyaszt, mondjuk 300 Wattot. A kétszer akkora, mint B. Ekkor A-t könnyebb lehűteni, hisz kétszer akkora felületen ad le ugyanannyi hőenergiát, kétszer akkora felületen érintkezik a hűtővel. Ez lehet nagy hülyeség, de szerintem van ráció abban amit mondok
 
Válasz írásához előbb jelentkezz be!
8. jozsefm kisko...
2010.12.29. 23:29
Hozzáértők, elemzők, szerint a játékos piacra gyártott, és eladott VGA-kon nincs nagy haszon ,sőt alig van valami.Mondjuk ez az AMD rendszeres negyedéves pénzügyi beszámoloiból szépen ki is tünik.Nyereség a professzionális picra értékesitett termékekből képződik.Ez meg az Nvidia pénzügyi eredményein látszik.
 
Válasz írásához előbb jelentkezz be!
7. Joachim21 jedi
2010.12.29. 23:39
Oda ahova az Nv tervez,és ahonnan a nagy haszna van, ahol a Teslák, és a Quadro-k aratnak, ott nem játszik a kétchipes megoldás. Ennyi ennek az egésznek a titka. Egyébként a Cayman sem lett olyan kicsi. Ha azt nézzük hogy az 5970-esen 4Mrd tranzisztor van, az 580-ason meg 3Mrd, akkor az a teljesítmény/magméret grafikon sem feltétlen az AMD oldalára billentené a mérleget. 6990-ben pedig 5,6 milliárd tranzisztor lesz, de lesz dupla olyan gyors mint a GF110?
 
Válasz írásához előbb jelentkezz be!
6. jozsefm Joach...
2010.12.29. 23:50
Ezt még csak találgatjuk, de a duplázás az lehetetlen lesz szerintem, bármenyire is a CFX-re fejlesztett az AMD.Ha abból indulunk ki menyivel gyorsabb a félkész 6970,ha 70? az 5870 től és annyit feltételezünk az 5970<*>6990 viszonylatban is, + az ott már megszünő GPU-kénti 1GB memória limitet, akkor nagyjából az jön ki amit irtam is korábban.De biztos vagyok benne ,hogy Te is olvastad odaát a 6990-be beépitendő, két asszimetrikus, csipről szóló feltevéseket, melyekből az elsődleges jóval nagyobb teljesitményre lesz képes a power tune okán mint egy sima 6970?-es.
 
Válasz írásához előbb jelentkezz be!
5. Joachim21 jozse...
2010.12.29. 23:53
Az egyik nagyobbra (teljesítményre), a másik arányosan kisebbre (ráadásul ez folyamatosan változik terhelés függvényében), az csak a crossfire nem működése esetén lesz előny, hogy az egyik GPU-t jobban terhelheti a kártya mint az alap 6970-et.
 
Válasz írásához előbb jelentkezz be!
4. jozsefm Joach...
2010.12.30. 00:04

Igen ,és éppen ezért lesz nagyon alkalmazás függö, és eltérő a teljesitmény ,a kölönböző mértékben terhelő cimeknél.
 
Válasz írásához előbb jelentkezz be!
3. carraroxt
2010.12.30. 13:27
Szó mi szó a 6990 csúcskártya lesz. Én kb a 6970 fölé saccolom 60%-al alapon, és persze saját felelősségre rommá lehet majd tuningolni (mert ugye csak az oemek paráznak a nagy fogyasztástól). És ezzel máris véghezvitte a küldetését, mert a 28nm-es chipek eljöttéig egy diszkrét kártyának sem lesz esélye befogni. Csupán ennyi a cél, a hírnév...
 
Válasz írásához előbb jelentkezz be!
2. scholes9
2011.02.03. 18:23
550W a konnektorból mért fogyasztás ez egyértelmű...VX 550-em lazán viszi a ma kapható legtöbbet fogyasztó vga-t,a mi nem más, mint egy HD 4870 X2, lassan 1 éve...röhögve vinné bármelyik tesztelt kártyát...csak, h tiszta legyen a dolog...
 
Válasz írásához előbb jelentkezz be!
1. _DiEGO_
2011.03.02. 20:08
Hoppsza - 165 HSz , ez nem semmi megint
 
Válasz írásához előbb jelentkezz be!