iPon Cikkek

GTX680 – Játékra tervezve

Dátum | 2012. 03. 30.
Szerző | Svindler
Csoport | MEGJELENÍTÉS

Pár hónapos késéssel befutott az nVidia új zászlóshajója a kikötőbe, legalábbis a játékosokéba. Már a pletykák alapján kezdett elég érdekessé válni a Kepler architektúra első fizikai formába öntött asztali változata, a GK104-es GPU, rengeteg kérdés foglalkoztatott minket a megjelenés előtt. Hol van a GK100-as? Ez lenne az abszolút csúcs? Hogyhogy kisebb, mint az AMD Tahiti-je? Mi ez a rengeteg shader, elindult a Kepler a Radeonok útján? Nem ehhez szoktunk. Ahogy végigvesszük majd az új GPU változásait, azt is látni fogjuk, hogy az sem teljesen tiszta, minek az utódja a GTX680-as. A neve alapján persze egyértelműnek tűnik a válasz, hiszen könnyű egyből rávágni, hogy „hát a GTX580-nak!” Az igazság azonban ennél árnyaltabb, mert ahogy a GPU neve is mutatja, elég szoros rokonságban áll GF104/114 duóval. A következő pár oldalon ki is derül majd, hogy miért is.

A Kepler architektúra az alapjait teljes egészében az előző generációs Fermiből vette át, a változások egy magas szintű blokkdiagramon nem is látszanak, így kezdjünk az alapoktól építkezni, míg el nem készül a GK104-esünk. A cél a Fermi újratervezésénél az volt, hogy olyan GPU-k készüljenek majd az új architektúrával, amik utolérik, sőt lehagyják majd az AMD GPU-k energiahatékonyságát. A konkurens cég termékei ugyanis jó ideje élen járnak ezen a fronton, kevesebb tranzisztorból hoztak jó teljesítményt, alacsonyabb fogyasztás mellett. Az új architektúra már egymagában nagy szerepet játszik a Radeonok behozásában, de a cél érdekében szükség volt még a szoftver fejlesztésére is, immár az nVidiánál is minden a teljesítmény/Watt-ról szól.

Ez a blokk diagram még összenyomva is óriási lett...
Akárcsak a Ferminél, a Kepler alap építőköve is a Streaming Multiprocessor (SM), amit az nVidia itt már SMX-nek hív, az X helyére mindenki kitalálhat valami hangzatos jelzőt. Az SMX tartalmazza a geometriai feladatok egy részéért felelős Polymorph motort, a CUDA magokat (amik tulajdonképpen a végrehajtó egységek vagy régebbi terminológiával élve a shaderek), a textúrázókat, az ütemezőket és a mindezeket kiszolgáló átmeneti tárakat, cache-eket. A kódok futtatása úgy történik az nVidia GPU-inál, hogy a több ezer szálat úgynevezett warpokra bontják, ezek az alap egységei a végrehajtásnak és egy warpban 32 szál található. Grafikus feladatoknál ez például azt jelenti, hogy 32 pixelen dolgozik egyszerre egy CUDA magokból álló tömb. Mekkora azonban egy ilyen tömb? A logikus válasz első blikkre talán az lenne, hogy természetesen 32 CUDA magos, hiszen ennyi kell ahhoz, hogy egy órajel alatt végezzenek a 32 pixel egy-egy komponensével. A GF104 esetében azonban egy kis trükköt vetett be az nVidia, aminek köszönhetően 16 CUDA mag dolgozhatott egy warpon. A megoldás lényege abban rejlett, hogy a shaderek órajelét megemelték a GPU órajelének a duplájára, így amit az ütemező kért, az számára a következő órajelben már készen is volt. Az elgondolás nem rossz, és a gyakorlatban működött is, a mérnökök azonban a helytakarékosság helyett inkább az alacsonyabb fogyasztást választották ezúttal. Nemes egyszerűséggel megduplázták a CUDA magok számát, így már ténylegesen 32 végrehajtó egység dolgozhat egy warpon. Hogy ez miért volt jó azt talán az alábbi ábra segít megérteni.


Az új CUDA magok némileg egyszerűsödtek, kevesebb tranzisztorból is kijönnek, így két új CUDA mag méretben az előző generációs egy szem magnál csak 80%-kal foglal több helyet, miközben azonos órajelen ez a kettő már alapból 10%-kal kevesebb energiával is beéri, ami például annak is köszönhető, hogy a végrehajtó futószalag hosszát is csökkenteni lehetett, mert nem kellett olyan nagy órajelre felkészíteni a CUDA magokat. A fogyasztás ráadásul egyenesen arányos az órajellel, így azzal, hogy nem kell az órajelet a duplájára emelni, további 50% energia spórolható meg. A végeredmény a mostani GPU-ban az eredeti fogyasztás 45%-a ugyanannak a feladatnak az elvégzésére és ez óriási előrelépés.

A GK104 SMX-eiben 192-192 CUDA mag található, ami négyszerese a GF104 SM-jeiben lévő 48-nak, de az előző oldalon megismertek fényében talán már nem meglepő, hogy az első duplázás az azonos sebesség tartására ment el, így valójában a rendelkezésre álló erőforrásokból „csak” kétszerannyi lett. Ez a kétszerezés jellemző egyébként az egész SMX-re: kétszer akkora regisztertár, kétszerannyi textúrázó és kétszer annyi ütemező, amik munkára foghatják a CUDA magokat. Egyedül a Polymorph engine-ből maradt egy darab a porondon, amit úgy kompenzáltak, hogy kigyúrták kb. kétszer olyan erősre, így ez sem lesz szűk keresztmetszet.

A fogyasztás csökkentéséért vívott harcnak van egy másik fontos lépcsője az SMX-en belül, ez pedig a már emlegetett ütemezők drasztikus leegyszerűsítése. A Fermivel az nVidia behozott a jól megszokott statikus ütemező helyett egy olyan hardveres megoldást, ami hasonlóan a processzorokhoz, képes átrendezni az utasítások sorrendjét a függőségek függvényében. Ez főleg a GPGPU alkalmazásoknál jelentett óriási előnyt, és segített abban, hogy minél jobb legyen a CUDA magok kihasználtsága. Az egyetlen hátránya ennek változatnak, hogy elég sok területet igényel a lapkán, és így szépen növeli a fogyasztást is. Mivel a részegységek késleltetési ideje fix, ezért a mérnökök úgy gondolták, ezentúl majd szoftveresen, a driver fordítójával oldják meg a lehető legjobb kihasználtságot, hiszen könnyű előre számolni a végrehajtási időkkel. Ez a változtatás viszont már kétélű fegyver, hiszen a fogyasztás csökkenésével a magok kihasználtsága is romlik. A GK104 azonban főleg a grafikus feladatokat veszi alapul és ott még így is könnyű biztosítani, hogy a lehető legtöbb mag dolgozzon.

GK104
Ezzel nagyvonalakban ki is tárgyaltuk az új SM-eket, lépjünk egy szinttel feljebb. Az egyel nagyobb építőkő is a Fermiből lehet ismerős, ez pedig a Graphics Processing Cluster (GPC), amit kis túlzással akár egy mini-GPU-nak is nevezhetünk, hiszen mindegyiknek saját raszterizáló motorja van. A GF104 esetében egy GPC-ben négy SM volt, ez most kettőre változott, így minden Raster Engine alatt kb. ugyanakkora izomzat található, mint az elődben. Cserébe viszont lett négy GPC-nk, pont annyi, mint egy GF100-ban. A ROP-ok szinte nem is változtak és az elrendezésük is ugyanolyan, mint ahogy a GF104-ben megszokhattuk, tehát négy blokkban foglalnak helyet, és mindegyik blokkban nyolc-nyolc ROP található, azaz összesen 32-vel gazdálkodhat a GPU. A mérnökök a tapasztalatok alapján úgy gondolták ez bőven elég (és igazuk is van). Mindegyik ROP blokkhoz kapcsolódik 128KB L2 cache és egy 64 bites memória-vezérlő, így itt sincs semmi változás a GF104-hez képest látszólag, hiszen ugyanúgy 512KB-nyi gyorsítótárat és 256 bites memória elérést kapunk. Amit viszont a diagram nem mutat meg, az a sebesség változása. A gyorsítótár sebessége is sokat javult, de a legfontosabb a memória-vezérlők újratervezése volt, ezek ugyanis elég harmatosra sikerültek a Fermi esetében. Miközben az AMD GPU-i 5GHz feletti órajeleken használták a memória moduljaikat, addig a Fermik örültek, hogy elérték a 4GHz-es effektív órajelet. Ennek mostantól vége a GK104 egy csettintésre behozza a lemaradást, és ezt bizonyítván a GTX680-on a GDDR5-ös chipek effektíve 6GHz-en dolgoznak. Ezzel gyárilag jelenleg a GTX680-on vannak a leggyorsabb memóriák a piacon, és ez a megemelt órajel ahhoz is elég, hogy 256 bites adatsínnel hozza az új kártya a GTX580 memória-sávszélességét.

Az eddigiek alapján szép jövőképet lehet festeni a GK104-nek, de azért van egy árnyoldala is az egyszerűsítéseknek. A GPGPU felhasználásról beszélünk, aminek éppenséggel kedvezett például a Fermi komplexebb ütemezője, vagy ahogy a 64 bites lebegőpontos számokat kezelte. Utóbbi az átlagfelhasználókat nem nagyon fogja érinteni, de érdemes beszélni róla, mert a Kepler teljesen új irányt vett ezen a fronton.

GPGPU felhasználásra a GF100/GF110 volt az etalon az előző generációban, ezekre épültek az nVidia HPC (High Performance Computing) szegmensbe szánt Teslái is. Már a GF104-et is egyszerűsítették FP64 fronton, hiszen az SM-jeiben található CUDA magoknak csak az egyharmada volt képes 64 bites számokkal dolgozni, ráadásul csak negyed olyan gyorsan, mintha 32 bitesekkel dolgoznának. Végeredményben tehát FP64-es számolásoknál a maximális teljesítményének 1/12-ét volt képes nyújtani egy GF104-es GPU. A GK104 esetében viszont az SMX-ek alap CUDA magjaiból egyik sem képes 64 bites számokkal dolgozni. A kompatibilitás biztosítása érdekében ezért bekerült mindegyik SMX-be további nyolc CUDA mag, amik csak és kizárólag FP64-es számokkal dolgoznak, és egy GPU-ban először: teljes sebességen. Mindegyik egy órajel alatt végez egy számítással. Viszont még ez is csak arra elég, hogy elméletben a maximális sebesség 1/24-ével tudjon dolgozni a GTX680 ha FP64-es számokról van szó. Mivel az erőforrásokat duplázták a GTX560 Ti-hez képest, ezért logikusan körülbelül ugyanott kéne végeznie a kártyának, mint a valódi elődjének, de a gyakorlat az AnandTech mérései alapján azt mutatja, hogy az új kártya csak próbál lépést tartani a GF104-gyel. A PrimeGRID Genefer tesztjében elért eredmények alapján ~30%-kal több időre van szüksége ugyanazon feladat elvégzéséhez, mint egy GTX560 Ti-nek.

Mivel az idő szűke miatt nekünk egyelőre még nem volt időnk a GTX680 GPGPU képességeivel foglalkozni, ezért körbenéztünk mások mire jutottak és az eredmény ha nem is elkeserítő, azért nem túl fényes. Luxmarkban a GTX580 agyonveri a GTX680-at, a Civilization V GPGPU tesztjében épphogy tartani bírja a lépést az előző csúcskártyával (itt a HD7970 nyer), a Smallux-ban a Radeonok nagyon elhúznak, de még a GTX580 is körülbelül 50%-kal gyorsabb és AESEncrypt-ben is lehagyja a GTX580 az újoncot. A megváltást a DirectX11 egyik Compute Shadere hozza ami folyadékszimulációt végez. Ebben képes nyerni a GTX680, de ettől függetlenül az otthoni GPGPU programozó palánták ha lehet ne erre ruházzanak be. (A sorrendek az AnandTech és a TechReport mérései alapján születtek)

A GTX680-nal és a 300-as driverekkel rengeteg új szolgáltatás került be az nVidia kínálatába, gyorsan átvesszük ezeket is, mert van köztük néhány érdekes.

Elsőként itt van mindjárt a GPU Boost, ami hasonlóan az Intel processzorokban látható Turbo Boost-hoz és az AMD processzorokban lévő Turbo Core-hoz, azért felel, hogy a GPU órajelét állítgassa működés közben. A figyelembe vett szempontok a következők: fogyasztás, GPU és memória leterheltség, GPU hőmérséklet. Jelenleg úgy néz ki, hogy a fogyasztást csak egy külső áramkörrel tudja ellenőrizni a GTX680, a többi információt pedig a GPU küldi a drivernek. Igen a drivernek, a váltogatás ugyanis szoftveresen történik, és ezért a késleltetése is elég nagy egy ugrásnak, az nVidia szerint 0.1 másodperc, ami nagyon magas az eddig megszokottakhoz képest. A mérnökök is beismerik, hogy a megoldás még nagyon kezdetleges, de sok tervük van vele a jövőben, így biztos fejlesztenek még rajta.

A GPU Boost miatt megjelent egy új órajel is a Kepleres GPU-knál, a Boost órajel. A GTX680 alap órajele például 1006MHz, míg a Boost órajele 1058MHz. Azonban a processzorokkal ellentétben a GPU Boost nem úgy működik, hogy ha a csillagok állása is megfelelő, akkor felmegy a Boost órajelre és örül magának, inkább apróbb lépésekkel dolgozik. A GTX680 esetében 13MHz-es lépésközök vannak és az 1058MHz csak amolyan ígéret, hogy körülbelül erre az órajelre fog beállni a kártya egy tipikus grafikus terhelés esetében. Helyzettől függően azonban felmehet ez fölé, vagy ha olyan programokat engedünk rá, mint a FurMark, akkor ne is számítsunk emelésre. Mindegyik órajel mellé más feszültség tartozik, hogy alacsonyabb órajel esetén a fogyasztás is jobban csökkenjen. A tesztek alatt mi is láttunk elég példát az órajel ugrálására, sokszor volt 1100MHz környékén a GPU, de a 3DMarkok alatt akár e fölé is hajlandó menni. A pontokat hozni kell ugye, fontos a jó PR.

Az állandóan változó órajel miatt kicsit nehéz a GK104-et a konkurenciához viszonyítani és a tuningja is érdekesen alakul, ugyanis egy offszet értéket állíthatunk be, ami azt mutatja meg a GPU-nak, hogy mennyivel térjen el az adott szinten lévő órajeltől, tehát tuning után sem marad majd konstans az órajel, megy majd amerre jónak tartja, csak az eredetihez képest pl. plusz 200MHz-cel. A GPU Boostban nagy lehetőségeket lát az nVidia, idővel lehet, hogy hardveressé teszik az egészet, de például szeretnének megoldást nyújtani a játékbeli menük problémájára is. Biztos találkozott már mindenki azzal az esettel, hogy belép egy játék menüjébe, ami aztán megy 1000 fps-sel, teljesen feleslegesen nyúzva a GPU-t. A játék támogatása esetén a driver ilyenkor szólhatna a GPU-nak, hogy fogja vissza magát, mert hiába erőlködik, ezért most nem jár dicséret. Egy érdekességet egyébként már most bevezettek a GPU Boosttal kapcsolatban, ez pedig az, hogy a driverben választhatunk cél FPS mennyiséget. Például mondhatjuk, hogy 60fps-nél többre nincs szükségünk, így ha túl sok képkocka készülne el másodpercenként, akkor a szoftver nyugodtan fogja vissza a chipet. A probléma ezzel csak annyi, hogy a nagy késleltetés miatt lassan reagálhat az olyan eseteknél, amikor hirtelen lenne szükség sokkal több kakaóra (beteleportálnak ezren a pályára, nagy robbanások lesznek, stb.), így egy pillanatra érzékelhetjük a lassulást.

Na de ennyit a GPU Boost-ról, lépjünk tovább, mert bőven van még miről beszélni. A HD5000-es széria óta például a Radeonok már képesek 3-6 kijelző kezelésére, kártyától függően, míg az nVidiánál a csúcs GeForce is maximum kettőt bírt el. Ennek mostantól vége, a GTX680 akár négy monitort is vezérelhet egyszerre, így nincs szükség többé SLI rendszerre ha Surround Gamingre vágyunk.

Ehhez a látványhoz egy GTX680 is elég
A DirectX egyik hátránya, hogy limitálva van benne a megcímezhető textúrák mennyisége. A Bindless Textures szolgáltatás ennek vet véget, immár memória címekkel operálhat a GPU, annyi textúrát kezelhet, amennyit nem szégyell. Carmack a MegaTexture-féle megoldások támogatása miatt egyszer már örülhetett a GCN architektúrának, most biztos örömmel látja az nVidia újítását is.

Szoftveres változtatás az Adaptive V-sync, ami leegyszerűsítve csak annyit csinál, hogy a megadott frissítési rátához (60 vagy 30Hz) képest figyeli a képkockák számát másodpercenként. Ha elérjük a megadott 60fps-t akkor aktívvá válik a V-sync, ha beesünk alá, akkor a driver deaktiválja. Ilyet láthattunk már sok konzolos címben.

Bekerült a driver repertoárjába az FXAA élsimítás is, így a támogatott játékokon felül ezentúl bármiben használhatjuk, akárcsak a Radeonok esetében az MLAA-t. A megoldás hátránya, hogy mivel nincs implementálva az adott játékszoftverbe, azért a kész képpel dolgozik, márpedig az MLAA/FXAA nincs jó hatással a megjelenített szövegekre például, elmossa egy kicsit azokat is. Amikor az FXAA egy játék részeként dolgozik (például a Battlefield 3-ban), akkor létrehozza a 3D-s képet, lefuttatja rajta az FXAA eljárást, és csak utána teszi rá a képre a HUD-ot. Driverből aktiválva az FXAA-t már a HUD-dal ellátott képpel dolgozik a GPU.

Megjelent egy újfajta élsimítás is a GPU képességei között, a TXAA, ami egy vegyes felvágott, van benne némi hardveres AA, egy kis CG filmeknél megszokott AA megoldás és a 2xTXAA esetében egy opcionális átmeneti komponens a jobb képminőség érdekében. Szokás szerint most is hihetetlen képminőséget ígérnek nekünk jóval kevesebb erőforrásból. Támogatása később várható majd játékokban, a nyár elején megjelenő Secret World például már élni fog a lehetőséggel. Több helyen a Quincux utódjának nevezik a TXAA-t, valószínűleg jogosan, és annak azért megvoltak a hátrányai is, elég csak pár PS3-as címet megnézni, ami használja (kicsit mosott érzet az egész képen). Kíváncsian várjuk mit hoznak majd ebből ki az nVidiánál.

Érdemes a képet eredeti méretében nézni, klikk
Nem maradt más hátra, mint a hardveres videó kódoló, ami itt NVENC néven megy. Akár 4k-s videók átkódolására is hajlandó, olyan mint az Intel Quicksyncje, már van is program ami támogatja. Az eddig ismert információk alapján viszont nem képes bemeneti forrásként kezelni a videókártya frame bufferét, így az AMD megoldása a témában sikeresebb lehet a játékosok körében (főleg ha végre lenne program, ami ki is használná).

Ennyi volt az architekturális változások és az extrák sora, itt az ideje, hogy behelyezzük a GTX680-at a mai mezőnybe!

A táblázat nagyítható!
Mivel először látunk ilyen sokmagos megoldást az nVidiától így nehéz betippelni, hogy mégis mire számíthatunk. Papíron a CUDA magok számítási teljesítménye ezen az órajelen akár a duplája is lehet annak, mint amit a GTX580-as nyújthat, de ebből le kell vonni, hogy az új ütemező messze nem fogja teljes kihasználtságon hajtani a magokat, ráadásul ott vannak az olyan apróságokat is, mint például hogy a memória-sávszélesség változatlan. A PCI-E 3.0 csatoló maximum GPGPU alkalmazásoknál és többkártyás rendszereknél jelenthetne előnyt, de mint láthattuk az előbbinél aligha számít bármit is jelen esetben.

Sokkal érdekesebb azonban a konkurenciához hasonlítgatni a GTX680-ast. A Tahiti 20%-kal nagyobb és 20%-kal több tranzisztort is tartalmaz, de cserébe megkapta például a jobb ütemezőket. Shaderekből is több található a Tahiti-ben, de azt már rég megtanulhattuk, hogy különböző architektúrák esetében a megfeleltetési arány messze áll az 1:1-től. Mivel a GTX680 jelent meg később, így az nVidiának a csúszásért cserébe megvolt az az előnye, hogy úgy választhatta meg a kártya órajeleit, hogy már tudta mire képes a HD7970. Ennek minden bizonnyal lesz is eredménye. A HD7970 mellett szólhatna még a 3GB memória is, de játékokban vajmi kevés az esélye annak, hogy belefutunk egy olyan helyzetbe, hogy kevés a 2GB (és akkor is többmonitoros rendszeren játszunk max.)

Amit még érdemes majd figyelni, az az előző generációs HD6970 teljesítménye, mert ugyanannyi shadert tartalmaz, mint a GTX680-as, de az órajelét bő 20%-kal meg kéne emelni, hogy elérje az új kártyáét. Persze azt sem szabad elfelejteni, hogy a Cayman jóval kevesebb tranzisztorból hozta ki a fenti adatokat, de pont ettől lesz olyan érdekes az egész. Mindjárt bele is csapunk a tesztekbe, de előbb vegyük szemügyre a mai cikk főszereplőjét.

ASUS GTX680 2GB

Az ASUS első kártyája, mint minden kártya az induláskor, a referencia dizájnra épít. A hűtésről már mondhatjuk, hogy a szokásos, az nVidia kártyáin ezer éve ilyeneket látunk. A csökkentett fogyasztásnak hála a ventilátor nem csap akkora zajt, mint a rivális csúcsragadozó, ez már jó jel. Üresjáratban 37 fokos GPU hőmérsékletet mértünk, míg FurMarkos terhelés alatt 85 fokig ment fel a kártya (értelemszerűen ebben az esetben nem is erőlteti önmaga tuningját).



Felsőkategóriás kártyától szokatlan, hogy „csak” két hattűs PCI-E tápcsatlakozót kér (viszonyításképpen a HD7970 egyik tápcsatlakozója nyolctűs), de mi kifejezetten örültünk neki. A kimenetek bár több helyet foglalnak a hátlapon, mégis jóval barátságosabbak, mint a konkurenciánál, elvégre mennyivel egyszerűbb átalakítók nélkül használni több DVI kimenetet, nem nehezítik az életünket mini-csatlakozók.

Tesztkonfiguráció
Alaplap: Gigabyte X58A-UD3R
Processzor: Intel Core i7-930@3,71GHz
Memória: 3x1GB Kingmax DDR3-1333
Grafikus kártyák: Sapphire HD7770 1GB, ASUS HD6850 DirectCU 1GB, Sapphire HD6870 1GB, ASUS HD7850 DirectCU II TOP 2GB, ASUS HD7870 DirectCU II TOP 2GB, Sapphire HD6950 2GB, Sapphire HD6970 2GB, ASUS HD7950 DirectCU II 3GB, ASUS GTX7970 3GB, ASUS GTX560 1GB, ASUS GTX 560 Ti 1GB, ASUS GTX570 DirectCU II 1280MB, ASUS GTX580 DirectCU II 1.5GB, ASUS GTX680 2GB
Tápegység: Chieftec 850W
Operációs rendszer: Windows 7 Home Premium SP1 64bit minden frissítéssel
Driverek: Catalyst 12.2, Catalyst 8.955 (HD7800, HD7900), GeForce 296.10, GeForce 301.10 (GTX680)

Ezúttal az üresjárati fogyasztásos képet nem mellékeltük, mert a mezőnyben annyira kevés volt a referencia kártya, hogy nem igazán lett volna értelme. A Windows asztalán ácsorogva még az is beleszámít a kártya fogyasztásába, hogy egy vagy három ventilátor teker-e rajta, ezért tényleg volt egy kisebb káosz az eredményekben. Ami lényeges lehet, az az, hogy az elődökhöz képest a GTX680-as üresjárati fogyasztása csökkent, így körülbelül egy szinten van a HD7970-essel ZeroCore nélkül (a HD7970-esünk szerencsére referencia példány volt). Terhelés alatt azonban kisimulnak a különbségek, úgyhogy lássuk mire jutottunk a FurMark használatával.


Bár a FurMark alatt a GTX680 berendezkedik minimál 3D-s GPU órajelre, azért még így is szép amit látunk, az utóbbi években nem ehhez szoktatott minket az nVidia. Az új csúcskártya jóval kevesebbet fogyaszt, mint a GTX580, inkább a GTX560 Ti szintjén van, így még a H7970 is érezhetően többet kér enni.  Ezzel meg is volna az első piros pont a Keplernek.

Szintetikus tesztek


Mint azt már említettük, a 3DMarkok alatt fullosan dübörög a Turbo, kell minden egyes kicsikarható plusz pontszám és ez meg is látszik az eredményeken. Vantage alatt 10%-kal gyorsabb a GTX680, mint a HD7970.



3DMark11 alatt nő a különbség, beállításoktól függően 20-24%-ra, ami impresszív, reményeink szerint ebből valamennyi a játéktesztekben is látszik majd. A GTX560 Ti-hez képest megvan a duplázás + a magasabb órajel által biztosított többlet. Szép eredmény.



Heaven alatt is van 20% előnye az új kártyának, pedig az új Radeonok végre szépen vették ezt az akadályt is. Hát, eddig tartott ki a korona. Következzenek az érdekesebb játéktesztek!

Megjegyzés: ahol csak lehetőség volt az élsimítás állítására, a maximális beállítás alatt 4x MSAA-t értünk


Az első játékban felmutatott eredmény egy kicsit csalódás, mert a szintetikus tesztek alapján nem ezt vártuk, a HD7970 ha nem is sokkal, de a GTX680 fölé emelkedik. Legalább a GTX580-at sikerül legyőzni, ahogy illik.


Az idegenek sem rajonganak az új architektúráért, bár névbeli elődjéhez képest itt is fejlődést mutat a GTX680, de a HD7970-est nem tudja megverni.


Az Unreal motoros Batmanben azonban változik a helyzet, de épp csak egy pici helycserével. A mezőny eleje eléggé egyben van.


Az öregedő, de még mindig terhelő Crysis Warhead alatt fej-fej mellett menetelnek a riválisok, egyik sem képes a másik fölé emelkedni.


Crysis 2 alatt a GTX680 már láthatóan erősebb, de előnye mindössze pár százalékos. A GTX580-hoz viszonyítva viszont még így is szép az előrelépés.


Hard Reset alatt is hasonló a helyzet, a GTX680 nyer, de nem sokkal. Az nVidia mérnökei lehet, hogy még a tények ismeretében is túl óvatosan bántak az órajelekkel?


A Lost Planet 2 HD7000-es Radeonok érkezéséig az nVidia játszótere volt, majd az AMD-nek végre sikerült behoznia a lemaradását. Legalábbis eddig, mert a GTX680 visszaveszi a koronát ebben a játékban is.


Mostanra már valószínűleg mindenkinek kezd visszaállni a kártyába vetett bizalma, hiszen a kezdeti kisiklás óta sikerül megtartania a vezető szerepét. Mafia 2-ben ráadásul lehetőségünk van a PhysX használatára is.


Érdekes módon a Metro 2033-ban kikap a GTX680-as, pedig ennél nagyobb nVidiás zászlót már nem is lehetne kitűzni a játékra. Mulder nem volt hajlandó foglalkozni az üggyel, Kaliforniáról és Ferrarikról hablatyolt valamit a telefonba, nem igazán figyeltünk.


Skyrim alatt a Radeonjaink még mindig lázadoztak a V-sync kikapcsolása ellen (ami érdekes, mert másnál ugyanezekkel a driverekkel már működött a dolog, nálunk pedig az újratelepítés sem segített. Éljen a számítástechnika!), úgyhogy maradt a 60fps áradat. A Catalyst 12.2 egyébként sem szereti ezt a játékot, a HD6950 valamiért borzasztóan alulteljesített nálunk, a HD6800-asok pedig villogtak AA használatával, mint egy karácsonyfa. Nagyon örültünk mikor a tegnapi 12.3-as driver javításai között az is ott szerepelt, hogy ennek a jelenségnek annyi. A mai tesztben azonban a GTX680 a 12.2-es driver miatt bezsebelhetett egy könnyű győzelmet, de ez a meccs még nem lejátszott.


Úgy látszik a teszt végére maradtak a driverhibák. A HD6900-asok sztrájkoltak Stalkerben, 10 percnyi analysing configuration felirat után dobtak egy hátast és a benchmark büszkén az arcunkba tolta az előző kártya eredményeit… No sebaj, akkor ők kimaradnak, de hogy ne csak a 12.2-es Catalyst hibáit emlegessük, a GTX680 is csak az első három tesztet volt hajlandó lefuttatni. A legérdekesebb SunShafts részre már ő is azt mondta, hogy kösz nem. Pedig az a legleterhelőbb mind közül, és ott érdekes dolgok szoktak történni. Na majd legközelebb.

Elérkeztünk hát az összesítéshez. Az eredmények átlagolásánál most sem vettük figyelembe a szintetikus tesztekben felmutatott teljesítményt, és a Skyrim is kimaradt a V-sync problémák miatt.


Összességében, ahogy az várható volt, a GTX680 vezeti a mezőnyt, de előnye mindössze csak pár százalékos a HD7970-hez képest. A mérnökök úgy látszik óvatosan bántak az órajellel, a nagyobb teljesítmény helyett inkább a jó fogyasztási mutatókra törekedtek, amivel mi csak szimpatizálni tudunk. Így is elég bármire az új kártya, miközben a csúcskategóriában a legalacsonyabb fogyasztással rendelkezik terhelés alatt. Ez egy óriási változás az nVidia részéről, behozták az egyetlen igazi hátrányukat az AMD-hez képest.

Persze valamit valamiért, míg a Tahiti tett egy lépést a Fermi felé az ütemezőjével, addig a Kepler tett egy lépést az előző generációs Cayman felé az ütemező egyszerűsítésével, és úgy alapvetően az AMD-s architektúrák felé is lépett egyet a sokmagos felépítésével az eddigi dupla órajeles shaderek helyett. A 64 bites lebegőpontos számok kezelését szinte kukázták, a játékosoknak nincs szüksége rá. GPGPU fronton tehát nem várhatunk sokat, de ez nem is volt cél a GK104 tervezésénél.

Ha már azt mondtuk, hogy a GK104 tett egy lépést a Cayman felé, vessük is össze a két csúcskártyát, a HD6970-est és a GTX680-ast. Azt láthatjuk, hogy bő 40% különbség van közöttük, amiből 20% behozható csak az órajel különbségből, a +1 milliárd tranzisztor további 20%-ra volt elég.


Még nem beszéltünk a jövőről és a lehetséges fejlődési irányokról, de mielőtt ezt megtesszük, fontos beszélnünk egy olyan aspektusáról is a GTX680-nak, aminek semmi köze az architektúrához vagy a driverekhez. Ez lenne az ár, amit az nVidia ügyesen pont csak egy kicsivel a HD7970 alá pozícionált, így az AMD-n nincs olyan nagy nyomás az árcsökkentésre, ez pedig késlelteti az árháború kezdetét. Valószínűleg amíg nem jelennek meg a kisebb Keplerek és nem ismerjük a teljesítményüket, addig az AMD nem fogja erőltetni az árcsökkentést, maximum a HD7970 árát igazítja a GTX-éhez, de lehet, hogy még azt sem. Kíváncsian várjuk mit lépnek majd.

Hogyan tovább?

Biztos sokakban felmerült a kérdés, hogy a GK104 vajon tényleg a jéghegy csúcsa? Nos, az eddigi információk alapján igen is meg nem is. Észre kell hogy vegyük, hogy a GK104-gyel az nVidia drasztikusan elválasztotta egymástól a játékosoknak szánt GeForce-ait, és a HPC szegmensbe szánt Tesláit. A GK104 biztos nem kerül Teslákra, egyszerűen oda nem elég. Valószínűleg erre lesz majd a GK100-as, ami jó eséllyel kiváló FP64-es képességekkel is rendelkezik majd, a legvadabb elképzelések alapján akár csupa FP64-es CUDA magból is épülhetne. Idővel kiderül, akik óriás chipet akartak az nVidiától, azok a GK100 formájában előbb vagy utóbb valószínűleg meg is kapják, de nem a gamer vonalon. Ott már csak a GTX690-re várunk, ami két GK104-es GPU-t tartalmaz majd. Lefelé könnyű lesz terjeszkednie az nVidiának, a GK106 valószínűleg a GK104 felezése lesz majd, míg a már ismert GK107 a negyedelése (mobil GPU már készült vele, 384 shaderes), plusz ott lesz még a játék a letiltható shader blokkokkal (GTX670-be pl.). Legközelebb májusban számíthatunk új, Kepler alapú megoldásra, addig pedig még befut majd az AMD két-GPU-s megoldása is, a HD7990. Szépen elosztva jelennek meg a konkurens kártyák, de az biztos, hogy az idei év első felében nem unatkozunk majd.

A tesztben szereplő kártyákat az ASUS magyarországi képviseletétől, Ramiris Europe Kft.-től és az Expert Zrt.-től kaptuk kölcsön. Ezúton is köszönet értük!

Új hozzászólás írásához előbb jelentkezz be!

Eddigi hozzászólások

61. gery84
2012.03.30. 11:05
Jó teszt!
Elismerés az Nvidiának jó kártyát épített.
Viszont árba jobban alá mehetett volna a 7970-nek.
A BF3-at hiányoltam a teszből, tudom hogy ott is a 680 vitte a pálmát csak a többi kártya teljesítményére voltam kíváncsi.
 
Válasz írásához előbb jelentkezz be!
60. kockaharco...
2012.03.30. 11:14
Jó teszt, csak jobb lenne már a processzort egy korszerűbbre cserélni.
 
Válasz írásához előbb jelentkezz be!
59. srmark
2012.03.30. 11:35
Ha jól látom a játékteszteknél a Stalker mérési adatai kétszer kerültek ki, a Skyrimé lemaradt.
 
Válasz írásához előbb jelentkezz be!
58. Keksz03
2012.03.30. 11:43
jó teszt, szép munka!
az igazság az h kijelentette az AMD h nem fog árat csökkenteni mert az hatással lenne a 7950,7870...ésatöbbi kártya áraira amiknek ugye még nincs ellenfelük 600-as szériából. ezért nem fogja a 7970 árát sem változtatni amíg nem lesz teljes az nvidia kínálata is, amúgy sincs mint ahogy látszik is nagy különbség a 2 kártya között itt már a szimpátia sokat eldönt, tehát nem fog 0-ra esni a kereslet a 7970-el szemben!
 
Válasz írásához előbb jelentkezz be!
57. gery84 Keksz...
2012.03.30. 11:49
250$ alatt az nvidia 40nm -es kártyákkal fog harcolni, egy darabig, mert a GK104-es chipet fogja több kártyába bele tenni, jól megnyirbálva.
 
Válasz írásához előbb jelentkezz be!
56. Heroes27
2012.03.30. 11:50
Semmi különbség nincs a 680 és a 7970 között, maximum a Lost Planetben van egy ici pici difi, a többi meg észrevehetetlen.
 
Válasz írásához előbb jelentkezz be!
55. MZperX75
2012.03.30. 11:54
"Ez egy óriási változás az nVidia részéről, behozták az egyetlen igazi hátrányukat az AMD-hez képest."

Egyenlőre csak 1 db kártyájuk van 6xx-sorozatból(csak asztali)
Sajnos a piacon lévő kártyái telj/fogyasztásban egyenlőre köszöni viszonyban sincsenek sajnos AMD közép-felső és középkategóriás (HD7770) kártyáihoz.
Kíváncsian várjuk a többit 670-660-650-640 kártyákat,ha ez így folytatódik akkor szép lesz 6XX-sorozat.
Nagyon hajaznak AMD-re,kicsit szokatlan előre(vagy visszalépés) az Nvidiától.
 
Válasz írásához előbb jelentkezz be!
54. MZperX75
2012.03.30. 12:00
Azonos órajelen kíváncsi lennék az eredményre,ahogy nézem azért 7970-es jól bírja a tunningot.
Kis kolega A PH-ról HD7970 GPU:925@1300Mhz OC Memó:1980Mhz Gyári ,nem moddolt 100% proci venti használat mellett! 73-76 Fok.

GTX:1006Mhz turbó 1050Mhz.
 
Válasz írásához előbb jelentkezz be!
53. Keksz03
2012.03.30. 12:08
MZperX75: nekem 1125/1800 volt a max OC de ez feszemelés nélkül alapórajelen! nagyon jól bírják és ezeknél egy kis OC ténylegesen dob a teljesítményen!
 
Válasz írásához előbb jelentkezz be!
52. gery84
2012.03.30. 12:12
A GTX670ti teljesítményét belövi a 7950-hez viszont árban a 7870 árulja egyből 2db vga-t kicsinál. Mivel 670 előállítása ugyan annyi mint a 7870-es.

Ha csak nem jön még jobban lebutított GK104-es.
 
Válasz írásához előbb jelentkezz be!
51. jozsefm
2012.03.30. 12:15
Érdekes néhány dolog, pl. a Heaven eredmény, és a 3DMark 11 ,ezt nem tudom hogy sikerült így összehozni.
Egy kérdés, a 7970 újra lett mérve vagy az maradt a régi driveres eredményeivel?
Driverek: Catalyst 12.2, Catalyst 8.955 (HD7800), GeForce 296.10, GeForce 301.10 (GTX680)
 
Válasz írásához előbb jelentkezz be!
50. szedlakist...
2012.03.30. 12:17
[off]megkövetem magam:
mindig hisztiztem hogy a diagramok enm átláthatóak ..... stb!
ezek a diagrammok isteniek, könyörgöm így használjátok tovább!
istenek vagytok
köszönöm a cikket is!
jó hétvégét!
[off]
 
Válasz írásához előbb jelentkezz be!
49. Heroes27
2012.03.30. 13:00
ŐŐ mondjuk én is mondani akartam, ezek a diagrammok valami eszméletlen jól néznek ki, modern és jól átláthatóak. Grat a csapatnak!
 
Válasz írásához előbb jelentkezz be!
48. beleutomaz...
2012.03.30. 14:01
Nekem a firefox-al es Comodo-val is a skyrim teszt helyett a Stalker-est tolti.
Valakinel ugyanez?
 
Válasz írásához előbb jelentkezz be!
47. sanyix
2012.03.30. 14:40
@gery84: ne is álmodj teljesítményen aluli árról. Ezek kapzsik nem értik a sok kicsi többre megy elvét. pontosan az azonos teljesítményű radeon árára fogják belőni az összes nvidiát is...
 
Válasz írásához előbb jelentkezz be!
46. rini
2012.03.30. 14:53
Ebben a kategóriában mindegyik kapzsi. Nem ezek vannak szánva a fő kategóriába. Így az áruk is elrugaszkodik a többitől ezzel is jelezve, hogy ők a legjobbak. Az árakat meg mindig is a teljesítményük alapján szokták belőni amelyet majd a piac megtesz idővel. Ez alól csak a HD 4800-as volt kivétel amely alapvetően piaci részesedés megszerzése miatt volt fontos. Mint utólag kiderült nem is nagyon volt nyereség rajta pedig sokkal többet adtak el belőle mint a konkurens termékeiből. Viszont piacot szerzett azáltal, hogy nagyon elterjedt. Így a játékok fejlesztői is jobban igyekeztek optimalizálni az ilyen felépítésű kártyákra a fejlesztéseiket.
 
Válasz írásához előbb jelentkezz be!
45. somakb
2012.03.30. 15:08
sanyix: tévedsz, nem így működik, nem a mohóságról van szó. Nagyon sokszor a sok kicsi sokra megy nem működik, mert ez nem kifli kenyér, amit mindenki vesz...Ki van ez számolva. Pl. adott egy termék aminek bekerülési költsége 110, és 150 ért dobod piacra, és ekkor el tudsz belőle adni 1000-et, a profitod 40*1000. Ha csökkented 140-re az árát, lehet hogy 1100 at adsz el (1100*30), 130-ra csökkentve még mindig csak 1300-at adsz el (1300*20 ekkor már lefelezted a profitot, miközben még 20% al sem csökkentetted az árat), mert alapvetően aki meg AKARJA venni a terméket, akinek kell az kicsenget 150 et-is.

Most akkor számolj utána mi is éri meg jobban. Azt szimplán felejtsd el, hogy ha valami 10%-20%-al olcsóbb vagy ilyen árkategóriában, akkor az hirtelen 2-3 szor annyian veszik. Nem.

Vagyis, minden egyes árcsökkentés sokkal többet csökkent a profiton, mint maga az árcsökkentés mértéke, akár el is tüntetheti a profitot.
 
Válasz írásához előbb jelentkezz be!
44. jozsefm rini
2012.03.30. 15:12
Plusz hozzá jön az újabb, és tegyük hozzá egyre drágább, gyártástechnológia, fűszerezve a szűkös limitált kapacitással, ami rövid távon nem is fog bővülni. Ez sem teszi lehetővé a túlzott árversenyt.
 
Válasz írásához előbb jelentkezz be!
43. Juliska
2012.03.30. 15:47
Nem tetszik ez a játék irány. Pont ott vettek el ahol nekem szükség van rá. A játékokban is látszik, hogy érzi. AvsP, Metro. Egy egy komoly effekt, ami erős shared memory teljesítményt kér, és máris a Radeon az élen. Most akkor mégsem arra fejlődünk, amit az Nvidia a Fermivel megkezdett, vagy ez csak elterelés?
A statikus dependency check is érdekes. Nincs baj vele, mert lehet tudni, hogy mikor lesz az adat valid már a fordításkor, de remélem az NVIDIA nem akar VLIW-et.
A Stalkert miért használjátok? Köztudott, hogy a benchmark day 0 kódot használ. Azóta a játék már rengeteg patchet kapott. Ha mértek, akkor a játékot mérjétek, mert a benchmark kódja már öreg.
 
Válasz írásához előbb jelentkezz be!
42. Svindler
2012.03.30. 16:03
srmark: Skyrim-es képhiba javítva, köszi az észrevételt.

MZperX75: Azonos órajelen a HD7970 erősebb, elég kb. 1 GHz-en járatni ahhoz, hogy párban legyen a GTX680-nal. Azt pedig mindegyik HD7970 bírja

józsef.m: A HD7950-est végigteszteltem mindkét driverrel és mérési hibán belül voltak az eredmények, sehol nem éreztem egetrengető változást. A HD7970 a 8.955-tel ment végig, mert direkt azt teszteltem utoljára (beleírtam a konfig leírásba).

Örülök, hogy a diagramban lévő apró változás ennyi embernek tetszik, egy kedves barátom is rágta a fülem miatta, hogy kezdjek vele valamit, majd némi kísérletezés után ez tűnt a legjobb alternatívának. Marad amíg nem lesz még jobb
 
Válasz írásához előbb jelentkezz be!
41. jozsefm Svind...
2012.03.30. 16:38
Köszi, értem.
 
Válasz írásához előbb jelentkezz be!
40. zodiac83
2012.03.30. 17:33
Azt meg tudja valaki mondani, hogy miért kellett Furmarkos fogyasztás mellé (alá) a 3DMark-os pontszámokat prezentálni, mikor külön ki is lett emelve előtte, hogy "a FurMark alatt a GTX680 berendezkedik minimál 3D-s GPU órajelre", miközben "a 3DMarkok alatt fullosan dübörög a Turbo". Ez több, mint megtévesztő szvsz, ugyanis a diagramból kb. az jön le, hogy a GTX680 jóval kevesebbet eszik, és mellette teljesítményben jól odaver a konkurenciának. Kövezzetek meg, de tényleg nem értem, hogy ez miért jó.

Szerk: +1 a diagramoknak.
 
Válasz írásához előbb jelentkezz be!
39. jozsefm zodia...
2012.03.30. 18:18
Hát a cikkből nem ez jön le, annak aki elolvassa. A csupán képnézegetőket meg nem is igazán érdekli.
 
Válasz írásához előbb jelentkezz be!
38. Simba
2012.03.30. 18:56
Jó kártya mindenben lenyomja a riválist, sőt még árban is.
 
Válasz írásához előbb jelentkezz be!
37. zodiac83
2012.03.30. 19:11
@józsi:

Aki elolvassa a cikket, az sem kap semmi reális képet a fogyasztásról, lévén pont annak tesztnek nincs meg a teljesítmény rangsora. Ha nagyon kukacos akarok lenni, az lenne az igazán korrekt, ha minden egyes teszthez lenne egy fogyasztás diagram is (főleg, ha ennyire hangsúlyozva van az elemzésben).

A csupán képnézegetőket pedig pont jól félre lehet vezetni ilyenekkel.

No offense, csak szerintem ez egy fölösleges öngól, pláne, ha mindenütt hasonló eredményekről beszélhetnénk (feltételezem nem szándékos mismásolásról van szó).
 
Válasz írásához előbb jelentkezz be!
36. carraroxt
2012.03.30. 19:35
A teszt tetszik, de a FurMark-ot én sem értem. Kb. köztudott, hogy legalább 3 generáció óta felkészítik a kártyák drivereit a FurMark kivédésére, így a FurMark alatt mért fogyasztási adatok max azt reprezentálják, hogy az adott gyártó épp mennyire félti tőle a termékeit.
 
Válasz írásához előbb jelentkezz be!
35. jozsefm carra...
2012.03.30. 19:50
Itt már hardveres megkerülhetetlen védelem van.

Zodiac, a fogyasztási adatok akkor mondnának valamit, ha mondjuk egy több előre beállított alkalmazás lefutása alatti teljes fogyasztást mérnének (legalább 1 óra vegyesen, film ,játék böngésző, szerkesztés). Ez állna a legközelebb a majdani vevőnél jelentkező valós fogyasztáshoz.
Pl. pont itt a 680nál melyiket irják be? az alapórajelest vagy a turbóst? Mindkettő megtévesztő.
 
Válasz írásához előbb jelentkezz be!
34. lackoo1111
2012.03.30. 19:52
Ha nem tudok rajta tojást sütni , akkor nem kell .
 
Válasz írásához előbb jelentkezz be!
33. zodiac83
2012.03.30. 20:15
féligmeddig off:

@Józsi: épp ezért írtam, hogy az lenne a mérvadó, ha a tesztekhez a hozzájuk kapcsolódó fogyasztás adatok lennének belinkelve. (Amúgy nem hiszem, hogy komoly plusz terhet jelentene eggyel több adatot rögzíteni tesztenként, ma már vannak egyszerű fogyasztásmérő ketyerék is, amikkel pik-pakk lehet egy időszakra eső átlagfogyasztást mérni). De hogy még pofátlanabb legyek, lehetne ezt még fokozni: az igazi az lenne, ha a rendszer helyett direktbe a kártya lenne mérve, akár egy speciálisan erre a célra kialakított "slot-toldóval", amit bedugsz jelen esetben a PCI-Express slotba, majd a kártyát pedig ebbe, ez a kis toldó pedig méri az átmenő fogyasztást (nem emlékszem már hol futottam bele ebbe az ötlebe, de határozottan kivitelezhetőnek tartom, akár még CPU-mérő "tokot" is lehetne készíteni).
 
Válasz írásához előbb jelentkezz be!
32. jozsefm zodia...
2012.03.30. 20:58
Szerintem meg az egész gép a lényeg, egyébként pont én javasoltam a konnektoros mérőt, már korábban is, akár úgy is hogy az egész teszt alatti fogyasztást rögzíteni, és abból egy átlagot számolni.
 
Válasz írásához előbb jelentkezz be!
31. _DiEGO_
2012.03.30. 23:02
GTX680 – Játékra tervezve

Nah , még hogy NV már nem a játékokra fejleszt talán körülnéztek , hogy belőlük sokkalta több van - kell a geme kari naná és jó lett... grat

Fogyasztás : IGEN a valós fogyasztást illene megadni , ha sokat jáccik az a gyerek akkor magasabb a fogyasztás ... ezt már Juliska néni is megállapította és kirántotta konnektorból a dugót .
 
Válasz írásához előbb jelentkezz be!
30. Micromatic
2012.03.30. 23:37
A 6970-hez képest brutális a 7970 sebességének a növekedése (60%) elégé széééép. Bár szerintem 1 6850/70 vagy 7850/70 szintű kártya bőven elég ati oldalon, nv oldalon 560ti vagy sima 560 is a mostani játékokra és jövőre is, eléggé áll a teljesítmény igénye a játékoknak manapság. Igaz lehet valaki szereti nézni hogy 60fps helyett 130fps-e van
 
Válasz írásához előbb jelentkezz be!
29. nemeth04
2012.03.31. 08:36
nagyon jó lett a kártya, de várjuk ki végét majd ha mindkét oldalon teljes lesz a paletta akkor indul az igazi verseny. jelenleg szerintem aki eddig gyártó specifikus volt egyenlőre az is marad. az igazi verseny akkor kezdődik ha mind két gyártó modelljeinek meg lesz a hivatalos teszt eredményei, és utána kezdenek a felhasználok válogatni a kártyák között.
 
Válasz írásához előbb jelentkezz be!
28. Humbuk
2012.03.31. 11:06
nemeth04- nálad mi számít "hivatalos" tesztnek?

Kíváncsi leszek a GK100-asra Mert a többinél azért már sejthető, hogy milyen lesz a lassulás mértéke lefelé (670-60-50).

Az biztos, hogy van még tartalék a kártyában ahogy az AMD-kben is, és ha elkezdenek jönni gyári OC-val is, még lehet leeshet az állunk. (Mondjuk érdekes lesz majd ez az nvidiás oc a turbó miatt)

Jó cikk lett világos és érthető! Grat!
 
Válasz írásához előbb jelentkezz be!
27. jozsefm Humbu...
2012.03.31. 11:52
Az eddigi információk szerint az inkább a professzionális területre lesz optimalizálva.
 
Válasz írásához előbb jelentkezz be!
26. recska
2012.03.31. 11:54
Már tesztelték, és a módosított vrm körrel ellátott kártyák 1300MHz fölé mentek. Memóriájuk is 7200MHz környékére. Ott fogyasztott a kártya 240W-ot, szénné húzva. Nem rossz ez!
 
Válasz írásához előbb jelentkezz be!
25. sgtyork
2012.03.31. 18:49
bf3 pls
 
Válasz írásához előbb jelentkezz be!
24. csicsoblad...
2012.03.31. 19:02
A prof. piacra ettől nagyobb előrelépést ígértek, valami nagyon durva cuccot akarnak kihozni. Dupla pontosság mellett azonos fogyasztásból majdnem 3x akkora teljesítményt akarnak: [LINK]
Ezzel a felépítéssel nem fog menni a dolog, így biztos, hogy a GK100 valami teljesen más lesz. Szerintem nem is szempont, hogy lehozható legyen asztali VGA-nak.

Ami még érdekes lenne, hogy mit mutatna ennek a GPU-nak egy felhizlalt változata, ami karcolja a 300W-ot visszafogott órajellel.
 
Válasz írásához előbb jelentkezz be!
23. trombexx
2012.03.31. 19:14
Simba: "Jó kártya mindenben lenyomja a riválist, sőt még árban is." MINDENBEN?
Csak egy Shith lovag beszél végletekben.
Talán észre kéne venni azt is, hogy a tesztek 1920x1080-ban lettek mérve.
Ilyen kártyáknál ilyen "micimackó"-felbontást használni, pff....
Olvastam én 7970 vs 680 tesztet, hozzájuk illő felbontásban (2560x1600-ban), nos az NV csöppnyi előnye a legtöbb játékban úgy mállik el, hogy öröm nézni, higgyétek el!
És még annyi: 7970-em van és nem "micimackó"-felbontásban játszom, hanem felette. Vannak persze örvendetes lépések zöld vonalon a 680-nal kapcs. (pl. fogyasztás, ár), de a 2 GB mem. egyértelműen kevés lehet egy csúcskártyán a csúcsbeállításokhoz (felbontás is ide értendő), továbbá a piros architektúra bizonyos vonásainak "koppintása" sem szimpi, összességében elmondhatom, hogy nyilván nem érdemes váltanom.
+ 30% EGYÉRTELMŰ játékok alatti előny lenne az, ami már megérné, de ilyesmiről nyilván szó sincs.
Érdekes lépés viszont az NV-től a "játékkártya" felé történő speckózás bizonyos részek "kikukázásával". A jövő kétségtelenül erre mutat, így ez nem volt rossz lépés, de majd meglátjuk, mit hoz az AMD válasza...
 
Válasz írásához előbb jelentkezz be!
22. becsitibi tromb...
2012.03.31. 19:20
"hanyas felbontással jáccol te szemét"

Ameddig a nagytöbbség full hd és azalatt játszik,addig jó ez igy is,ha meg kell plusz kakaó akkor ott van a radeon.

!!!remélem érted a viccet!!!
 
Válasz írásához előbb jelentkezz be!
21. trombexx
2012.03.31. 19:53
Hogyne érteném. Én nem a nagy többség vagyok. (Ebből a szempontból, legalább is ).
Én már a Q3 megjelenésekor 1600x1200-ban toltam mindent (17 collon!), és akkor még hol voltak a TFT-k, meg widescreen...
És hogy a felbontásra is utaljak, a konfigomban a Diamond Pro név egyesek számára talán sejtet valamit.
 
Válasz írásához előbb jelentkezz be!
20. jozsefm tromb...
2012.03.31. 20:10
Igen. Orvosi.
 
Válasz írásához előbb jelentkezz be!
19. trombexx jozse...
2012.03.31. 20:33
Orvosi felbontást sejtet?
Hmmm
 
Válasz írásához előbb jelentkezz be!
18. jozsefm tromb...
2012.03.31. 20:37
Igen, vagy ipari. Profi cucc.
 
Válasz írásához előbb jelentkezz be!
17. trombexx jozse...
2012.03.31. 20:54
Naja. Sokak szerint megérett az ipari bontásra .
Persze beszélhetünk 5760X1080-ról is, de ez egy másik szorzat.
Apropó, mikor nagy egy szorzat?
Ha a két tényezője EGYSZERRE nagy.
A berácsozott ablakú világ mondjuk Rilke Párduc c. versében tetszett, de amúgy. ami tetszik:
képpontsűrűség, színdinamika, láthatósági szög .
Szurkolok én a TFT-nek, meg van is, és mivel a CRT "élőhalott" nyilván beérik majd egyszer a panelek is azt a fajta képi hűséget, de az még nem most van vagy ha a mostban is van TFT-ből olyan kategória, nem azon az áron van, amennyit meg is ér, vagy megadnék érte.
Azért vannak határok is.
 
Válasz írásához előbb jelentkezz be!
16. recska
2012.04.01. 11:45
trombexx - mintha bf3 alatt pl jobb lenne még az übernek számító 5760x1080-ban is... Én is nézegettem teszteket, de annyira fej-fej mellett vannak, hogy hihetetlen. Ami nem rossz, 256bittől, meg 220W-tól...
 
Válasz írásához előbb jelentkezz be!
15. trombexx recsk...
2012.04.01. 17:15
BF3 10 percig volt a gépemen, mellesleg egy példa nem példa, amikor kapásból nyolcat lehetne hozni ellene.
Mondam én, hogy olcsó húsnak híg a leve és pont.
És ezt milyennek tartod?
 
Válasz írásához előbb jelentkezz be!
14. kockaharco... tromb...
2012.04.01. 17:16
2012. április 01
 
Válasz írásához előbb jelentkezz be!
13. trombexx kocka...
2012.04.01. 17:30
Ezek szerint a zöldeknél április 1-je van, khm...
Mióta is?
 
Válasz írásához előbb jelentkezz be!
12. recska
2012.04.01. 18:32
trombexx - 2560x1600 , full szűrőkkel - Crysis 7970 ; metro 7970 ; dirt 3 680 ; total war 680 ; batman 680 ; portal2 680 ; starcraft2 680 ; skyrim 680 ; civilization 680 ; avp 7970 ; battleforge 7970 ; crysis2 680 ; dragon age 680 ;
hard reset 680
 
Válasz írásához előbb jelentkezz be!
11. trombexx recsk...
2012.04.02. 00:04
Rendben, de honnan szedted ezeket?
Nem arról van szó, hogy nem hiszem el, de illik linkelni is az általad itt prezentált számadatok hitelességét alátámasztó tesztek képsorait v. a cikket.
Amúgy amit én írtam megtalálható itt.
Ebből a videóból - néhány kivétellel <amikkel amúgy sem játszom [Dirt3, BF3], meg amik nem érdekelnek [szintetikus tesztek]> jól látható, hogy fogy el 2560x1600 körül a kraft a zöldekből, míg az ATI jóval kiegyensúlyozottabb, stabilabb teljesítményszintet ad, jobban képes megtartani a kraftot a nagy felbontásokon.

És hogy nem sokan játszanak ilyen felbontáson?

Hát szerintem aki ilyen kártyát vesz, azért azok között akad néhány emberke..., aki bátorkodik hozzá megvenni a megfelelő megjelenítőt.
Azon meg ne tépelődjünk már, hogy sz@ros full hd-ban egyik 100 fps-t hoz, a másik meg 80-at v. 120-at.
Hacsak nem profi játékos vagy - ahol ez számíthat - nem tök mindegy?
 
Válasz írásához előbb jelentkezz be!
10. recska
2012.04.02. 07:19
Régen jó volt a tom\'s hardware. Mára az egyik legszarabb lett... És pont azt linkelted Abszolút fals adatok vannak benne...

itt pl tesztelték 5760x1080ban is : Hardwareheaven
 
Válasz írásához előbb jelentkezz be!
9. jozsefm
2012.04.02. 07:43
Ahogy mondtuk is elég kiegyensulyozatlan, van ahol a 7870 is elveri:

 
Válasz írásához előbb jelentkezz be!
8. Turai
2012.04.03. 03:19
Komoly Hiba...
 
Válasz írásához előbb jelentkezz be!
7. jozsefm Turai
2012.04.03. 07:05
Töröltem, mert ez egy április elsejei tréfa volt, amit még nem vettek le az oldalról, ha jobban megnézted volna legalul a forrásnál volt rá csupán kis utalás.

Forrás: nvidia.com, hoc.hu

Felesleges a pánikkeltés, és az ördög falra festése is!
 
Válasz írásához előbb jelentkezz be!
6. Turai
2012.04.03. 09:12
józsef m.

Minden jogod megvan, hogy akár egy hozzászólást is törölj ha akarsz.
De egy valami azért problémás ezzel az áprilisi tréfával kapcsán.
Még pedig...
Ha utána nézel észre fogod venni, hogy már márciusban voltak hírek TDR problémáról de akkor még a meghajtóprogramban fellelhető hibákra gondoltak...AKKOR...

De tudod mit.
Legyen igazad biztos én néztem el és a későbbiekben nem fogják ismét elismerni, hogy valamit nagyon elrontottak...
 
Válasz írásához előbb jelentkezz be!
5. jozsefm Turai
2012.04.03. 09:34
Utána olvastam.

Eddig egy konkrét panasz volt, melynek okán korai lenne bármilyen általánosítás.
Igaz itthon még nincs túl sok felhasználó, mivel elég lassan csordogálnak a kész termékek, de már hazai fórumon is találkozni velük. Eddig nem az a jellemző amit az a cikk közöl.
 
Válasz írásához előbb jelentkezz be!
4. Dav2879
2012.04.09. 14:09
OFF - Ebben már csak az a szánalmas hogy hiába veszem meg a legójabb Ati/Nvidia csodát 120 pénzért és papíron meg szintetikus tesztekben 3D mark alatt nyálcsorgató demokat láthatunk ha utána játékok alatt a kártyánk képességeinek átlagban csak 40% át láthatjuk hála annak hogy nincs az a cég aki többlet pénzt és többlet éveket szánna egy még egy csúcsjáték PC-s optimalizálására, nem úgy mint ahogy az konzolokon szokás ott a hardver átlagban 90-99% ban van kihasználva. Ezért is vettem PS3 at: 55 rugót kóstált, alig nagyobb mint egy gofri sütő, blu ray - 3D blu ray, 3D futtathatók a játékok 250gb vinyó a filmekhez zenékhez stb. és reccenés mentesen szaladgálnak a játékok minimális bugokkal de ha vannak olyanok is azokat villámgyorsan javítják. Az már más kérdés hogy pl. a legújabb játékok mint a Battlefield 3 amire sokat vártam, ugyan már csak 30 képkocka limittel, alacsonyabb felbontásban(1280x600?vagy valami olyasmi) és a PC verzióval szemben alacsonyabb felbontású textúrákkal és gyengébb részletességű fény árnyékokkal futnak + a 64 online játékos helyett csak 24 ellen lehet nyomulni, de ha a játékélmény és a pénztárca is fontos akkor a Pécémbe több pénzt már biztosan nem ölök!
 
Válasz írásához előbb jelentkezz be!
3. jozsefm Dav28...
2012.04.09. 21:01
Még ha 120-ért meg lehetne kapni..
 
Válasz írásához előbb jelentkezz be!
2. zodiac83
2012.04.10. 09:32
@Dav2879: Igen az optimalizálás helyett sokszor inkább pont az a jellemző, hogy direkt magas erőforrás igényesre csinálják meg a játékot, hogy vedd meg a drága vasat alá. Anno volt is ilyen hír, hogy olyan fölösleges plussz geometriákat számoltattak ki a rendszerrel némely játékban, amit az életben nem fogsz látni.
 
Válasz írásához előbb jelentkezz be!
1. jozsefm zodia...
2012.04.10. 10:05
Erre is volt példa, bár utólag, programozói hibának állították be.
 
Válasz írásához előbb jelentkezz be!