iPon Cikkek

CrossFire vs SLI gyorsteszt

Dátum | 2010. 07. 05.
Szerző | Svindler
Csoport | MEGJELENÍTÉS

Elég régen foglalkoztunk többkártyás rendszerekkel, de a jövőben nagyobb figyelmet fogunk szentelni nekik, főleg a középkategóriás kártyák esetében. A mai cikkben azt akartuk kideríteni hogy áll az nVidia új szériája SLI fronton. Mivel a cég kínálata még mindig átalakulás alatt van, ezért középkategóriás modellekről nem igazán beszélhetünk. Így is a „legkisebb” kártyájukat, a GTX465-öst választottuk a tesztbe, mellé pedig a hozzá árban közel álló HD5850-es került. Bár a teljesítmény ma nem igazán számít, csak CrossFire és az SLI hatásfoka, azért láttunk érdekes dolgokat. Csapjunk is bele a közepébe, mert már mindkét kártyával foglalkoztunk régebben, nem nagyon van mit mesélni róluk.

Tesztkonfiguráció
Alaplap: Gigabyte X58A-UD3R
Processzor: Intel Core i7-930@3,5GHz
Memória: 3x1GB Kingmax DDR3-1333
Grafikus kártyák: 2x Sapphire HD5850, 2x Gainward GTX465
Tápegység: Corsair TX650 és TX750
Operációs rendszer: Windows 7 Home Premium 64bit
Driverek: Catalyst 10.6, GeForce 257.21


Üresjáratban nincs gond, minden kártya hozza a kötelezőt, terhelés alatt viszont a két GTX visszavonulásra kényszerítette az általában használt TX650-ünket, így erősebb alternatíva után kellett nézzünk. Sajnos igazolódni látszik a múltkori sejtésünk is, miszerint a GTX465-ök fogyasztásában elég nagy szórás lehet, a múltkori Asus példány jóval kevesebbel is beérte.


A hőmérsékletek érdekesen alakulnak, főleg a kétkártyás rendszerek első kártyáját érdemes figyelni, mivel ennek a kártyának alig van helye levegőhöz jutni az előtte lévő második kártya miatt. A Radeonoknál ez plusz 20 fokot jelentett, a GeForce-oknál pedig halálközeli állapotot, hiába a kétventilátoros Gainward kártya. Többször előfordult, hogy beindult a kártya hővédelme és levette az órajeleket, hogy túlélje, de az esetek többségében még így is fagyás volt a végeredmény. Nagyon erős kereszthuzatra lesz szükségünk, hogy a nyarat túlélje egy GTX465 SLI konfiguráció, vagy kevesebbet fogyasztó példányokra, amik nem melegszenek ennyire. A teszteknél természetesen igyekeztünk figyelni az órajelekre és mindig hagytuk hűlni a kártyát, hogy ez ne szóljon bele az eredményekbe.

Megjegyzés: tekintve a kártyák izomzatát most is minden teszt 1920*1080-ban ment, ám végül két diagramot kihagytunk a felhozatalból. Az egyik a Fallout 3, aminél SLI-ben az új driverrel már az nVidia kártyái sem voltak hajlandóak lemondani a v-syncről (fix 60fps), a másik az AVP, aminek mi a benchmark változatát használtuk körülbelül nulla hatásfokkal, nincs hozzá SLI profil.


Mivel nem egy mai tesztprogram a Vantage, ezért már ismeri mindkét tábor, hasonló növekedésnek lehetünk szemtanúi.


Crysisban nagyon attól függ a hatásfok, hogy milyen beállításokat használunk. Gamer beállításokkal a Radeonok nem igazán villantanak, pocsék a hatásfokuk, de ez azonnal megváltozik, ahogy feltekerünk mindent a maximumra. Úgy látszik a fejlesztőknek ez volt az elsődleges szempont. A GTX-ek végig hasonló szinten mozognak, viszont hajlamosak voltak fagyogatni a teszt alatt, ami miatt elég sokáig tartott, mire tiszta eredményeink lettek.


Far Cry alatt az erős processzorral is gyanús, hogy CPU limit közelében lehetünk, mindenesetre az Action Scene benchmarkban nagyon leesik a CF és az SLI hatásfoka is.


Stalker alatt egyértelműen a Radeonok vannak előnyben a maximális beállításokat használva. Itt még van mit csiszolnia az nVidiának a drivereken.


A World in Conflict eredmények azért érdekesek, mert a játék általában a GeForce-oknak fekszik jobban, többkártyás rendszerekben azonban nem ez a helyzet. Legalábbis egyelőre.


Fej-fej mellett a két megoldás, az SLI a HawX-ban éri el a legmagasabb hatásfokát (86%).


A Resident Evil nagyon processzorigényes, de a 20 fps különbség miatt nem gondoljuk, hogy limit lenne, legalábbis a GTX-ek esetében biztos nincsen. Ettől függetlenül elég rosszul teljesít mindkét fél (igaz nem is nagyon kell a plusz erő).


A CrossFire Just Cause alatt éri el a csúcsát, 90% fölé kerül, ami nagyon szép eredmény. Nvidia logó ide vagy oda, a GTX-ek nem remekelnek.


A Borderlands sem kedvez a többkártyás rendszereknek, az SLI és a CF is 33% körül mozog csak.


A Just Cause után még egy Radeon győzelem, a Bad Company 2 egyértelműen a Radeonoknak fekszik jobban.


Modern Warfare 2 alatt hasonlóak az eredmények, de a GTX-ek fps-e rémesen ugrált, ha ezt meg tudják oldani idővel, akkor magasabb lesz az átlag fps.

A könnyebb áttekinthetőség végett összefoglaltuk egy táblázatba is a gyorsulások mértékét.


Mikor utoljára foglalkoztunk többkártyás rendszerekkel, mindkét megoldás 70% környékén teljesített átlagosan. Jelenleg bár van néhány játék, ami csúnyán lehúzza az eredményeit, a CrossFire képes e körül maradni, de az új GTX-ek SLI meghajtójának még van hová fejlődnie. Náluk is elég játékfüggő a helyzet, hiszen van ahol nagyon erősek, például a régebben Radeon erősségnek számító HawX-ban, de van, ahol csúnyán elvéreznek. Legalábbis egyelőre, hiszen az előny most az AMD-nél van, már bejáratott architektúrához írnak meghajtókat, míg az nVidia programozóinak sok mindent elölről kell kezdeniük. Előbb-utóbb valószínűleg meglesz az átlag 70%, addig azonban az AMD erősebb ezen a fronton. Visszatérünk még a kérdésre ha kijönnek az nVidia középkategóriás kártyái.

Új hozzászólás írásához előbb jelentkezz be!

Eddigi hozzászólások

47. sHe3p
2010.07.05. 14:53
egy Hydra chipes rendszerrel készült tesztet is megnéznék,ahol GF és ATI van bekötve egymás mellé
 
Válasz írásához előbb jelentkezz be!
46. ThePoweR
2010.07.05. 15:06
nvidiás és atis gamek sorozata. Amelyik game nvidiás ott az nv jobb amelyik ati-s ott az ati a jobb amelyik egyik se ott kb ugyan az mind2.
 
Válasz írásához előbb jelentkezz be!
45. Terror
2010.07.05. 17:22
A múltkor azt magyarázta valaki, hogy a Crossfire milyen rossz, búúú, többkártyás rendszerbe csakis SLI. Pfff, két játékon kívül mindenben AMD ftw.
 
Válasz írásához előbb jelentkezz be!
44. Heroes27
2010.07.05. 17:24
nah kezdődik a "nagy országos vita"

természetesen, egyértelműen és nem is meglepően, az amd a winner
 
Válasz írásához előbb jelentkezz be!
43. Dragon3k
2010.07.05. 17:25
ThePoweR akkor ezt mivel magyarázod?:
A CrossFire Just Cause alatt éri el a csúcsát, 90% fölé kerül, ami nagyon szép eredmény. Nvidia logó ide vagy oda, a GTX-ek nem remekelnek.
 
Válasz írásához előbb jelentkezz be!
42. bul07
2010.07.05. 17:31
ezek szerint a játékoknál a single részre értitek a fps-t
csak mert a COD:MW2 multi része 89FPS-re szabályozza le magát (eredeti játék)

de mi értelme van a single fps-t mérni a multi részével sokkal többet játszik az ember
persze a single részhez is kell egy minimális fps mennyiség hogy játszható legyen
 
Válasz írásához előbb jelentkezz be!
41. Svindler bul07
2010.07.05. 17:34
Bul07: persze, hogy single résszel tesztelünk, multiban elég nehéz lenne minden kártyánál hasonló helyzetet teremteni.

sHe3p: már volt egy tesztünk, de akkor még elég kiforratlanok voltak a driverek, ráadásul nagyon drága volt az alaplap. Most hogy jönnek az olcsóbb deszkák megint fogunk foglalkozni a témával
 
Válasz írásához előbb jelentkezz be!
40. Szaby59
2010.07.05. 17:39
ThePoweR: crysis nv-s játék, mégse szerepel fényesen, Capcom is köztudott nVidiás, ez a táblázat még engem is meglepett
 
Válasz írásához előbb jelentkezz be!
39. 18TommyBoy
2010.07.05. 18:07
Persze hogy jobb az ATI, csak az nVidia +pluszban dolgozik effectusokon mint peldaul PhysX, CUDA, OpenCL... De viszont latszik a homersekleten is hogy az nVidianak nemvoltak "ilyen magason" a mhz-k, nemtudjak meg ugy kezelni a hőt...
Eddig az ATI a magas MHZ-kel az nVidia a szelessavval (bit-tel) nyomtak a gyorsasagot... Az nVidia mar vegre gyors is es nagy a szavszelesseg,,, akkor mi lesz ha mar igyis a VILAG LEGEROSEBB kartyaja az ATI kijon 512bites kartyakkal??? (single chip)
 
Válasz írásához előbb jelentkezz be!
38. _DiEGO_
2010.07.05. 18:15
Én még egy harmadik teszten megnéztem volna eredményeket, nem is értem miért maradt ki

2 vagy több monitoros mód !

Ajajj - asszem ATI gyalázott volna , ígyis , de látjuk, tudjuk - igazán nagy felbontásban érzik jól magukat AMD/ATI kártyák !

Kérünk egy többmonitoros tesztet , pls
 
Válasz írásához előbb jelentkezz be!
37. jozsefm
2010.07.05. 18:19
Tesztet nem tudok most de egy kis izelitő:


 
Válasz írásához előbb jelentkezz be!
36. jozsefm
2010.07.05. 18:25
Ez lemaradt:


 
Válasz írásához előbb jelentkezz be!
35. gebana
2010.07.05. 19:29
az összefoglaló táblázat tényleg sokat segít, jó ötlet volt.
 
Válasz írásához előbb jelentkezz be!
34. Powerdream
2010.07.05. 19:54
Hm.. kéne szereznem mégy egy 5870-et.
 
Válasz írásához előbb jelentkezz be!
33. bigmac
2010.07.05. 19:54
Egyértelmű volt eddig is, hogy a CF jobb, és a 3 vagy 4 kártyás rendszerekben a CF előnye csak még nagyobb, 4 SLi például van ahol lassabb, mint a 3, és ahol gyorsabb is ott se sokkal, radeonoknál azért sokkal jobb a helyzet.
 
Válasz írásához előbb jelentkezz be!
32. Humbuk
2010.07.05. 20:51
Már bocs de kezdek dühbe gurulni a sok einstein-től!

"Legalábbis egyelőre, hiszen az előny most az AMD-nél van, már bejáratott architektúrához írnak meghajtókat, míg az nVidia programozóinak sok mindent elölről kell kezdeniük. Előbb-utóbb valószínűleg meglesz az átlag 70%, addig azonban az AMD erősebb ezen a fronton. Visszatérünk még a kérdésre ha kijönnek az nVidia középkategóriás kártyái."

Analfabétáknak fordítsuk külön???

1 dolgot tessék felfogni: Új kari új driver!!!! És idő mire rendesen összerakják!
A nagy ati király sirály giga mega atom brutál vállalat is szívni fog az új 6xxx-es kártyáival ha majd végre összehozzák és nem a régi arhitektúrával szerelik!

Szal lehet nem így kéne hasonlítgatni! Ha majd 1éves lesz a gf és lesz már rendes szoftveres támogatása, akkor lehet majd méregetni... Mert így term gyengébb!

Félre ne értsetek mind a két cég termékeit szeretem, de ami itt érzelmi alapon megy... az gáz.. Sok sok csőlátással rendelkező ember kiborít
 
Válasz írásához előbb jelentkezz be!
31. Szaby59
2010.07.05. 21:13
Miért?
Hisz az nV fanok mindig azzal jönnek, hogy a driverekkel sosincs gond.
Mellesleg május óta "kaphatóak" és a csúszásokkal bőven volt idő drivert írni.
 
Válasz írásához előbb jelentkezz be!
30. psylocke
2010.07.05. 21:46
jozsef m. - 2.2n megy a procod?
 
Válasz írásához előbb jelentkezz be!
29. patrik2991
2010.07.05. 21:50
Humbuk: ott a pont, teljesen egyetértek, énis kíváncsi vagyok az ati mit fog hozni majd az új architektúránál
Szaby59: na ha ilyen okos vagy dobj nekem össze egyet
 
Válasz írásához előbb jelentkezz be!
28. balintdavi...
2010.07.05. 21:55
@psylocke: Kósza tipp, de sztem CNQ visszavette az órajelet, mert épp nem volt terhelés alatt
 
Válasz írásához előbb jelentkezz be!
27. Humbuk
2010.07.05. 21:59
Szaby59

a gf 200 asok drivereivel nincs is ennyi gond
Tökéletes ember nincs, és amit ember csinál az sem lehet soha tökéletes!
 
Válasz írásához előbb jelentkezz be!
26. Balucsek Humbu...
2010.07.05. 22:06
Nem hiszem hogy a 6xxx szériával fog szívni az ATI. Ami pletykákat hallani lehet az inkább az 5-ös széria tovább finomított változata lesz amit most év végére várnak sokan (majd kiderül egyáltalán jön-e) nah meg ugye miért is rontanák el azt ami most nagyon jól bevált... Így nem valószínű hogy olyan nagy gond lesz nekik a 6-os széria drivere.
 
Válasz írásához előbb jelentkezz be!
25. jozsefm psylo...
2010.07.05. 22:11
Szia psylocke!
A CPU-Z és GPU-Z csak illusztráció.A bench. mérése közben nem látom ,de akor az AMD Over Drive,és a GIGABYTE EASY SAVER,és EASY TUNE nyilván megemeli az órajeleket. Alapra állitva használom 200X17 szorzó mellett.A pillantnyi érték ami PrtSc -kor volt az előző progik \"érdeme\"
a legalacsonyabb szorzó 4 volt amit láttam,ennyire visszaveszik az órajeleket ,ha nincs rá szükség.A vége pedig 19 volt stabilan alapfeszen.
 
Válasz írásához előbb jelentkezz be!
24. patrik2991
2010.07.05. 22:16
Balucsek: szerintem Humbuk rosszul fogalmazta meg amit gondolt (: úgy értette ha majd új architektúrára váltanak, ami előbb utóbb szükséges lesz, amit az nvidia már meglépett, hiába, hogy ez miatt most jóval gyengébb
 
Válasz írásához előbb jelentkezz be!
23. patrik2991
2010.07.05. 22:20
amúgy valaki nem tud tesztet mutatni 2xx vs 4xx példányokról?
 
Válasz írásához előbb jelentkezz be!
22. Humbuk
2010.07.05. 22:31
Nem bántom én az Ati-t és ha odajutok, hogy vga-t veszek akkor term pénztárca alapján fogok dönteni és az alapján h melyik a jobb vétel márkától függetlenül.

Viszont amit sokan nem értenek és itt picit védem az NV-t, hogy ők egy teljesen új felépítésű, tudású kártyát hoztak létre (ebbe is bele lehet kötni, de most hagyjuk is ezt)
Nem ártana sokaknak utána nézni, hogy valójában mire is lehet képes ez a cucc aminek egyik
!!!opciója!!! hogy tud sima gpuként is üzemelni. Pedig nem ez a fő célja! Google a legjobb barátunk nem?

Amikor kijöttek az első vinyók (nekem 80MBos volt az első gépemben) nem hiszem, hogy akkor azt látták volna előre, hogy lesz majd 1 meg 1,5 vagy 2TBos

Ami itt a lényeg, hogy ati bejáratott és a gf200as bejáratott szériával szemben ez egy új irány vonal ami nekünk meglehetősen friss!
Ám aki megnézi az érem mindkét oldalát az látja, hogy hoppá, ez majdnem ugyan azt tudja amit a régiek! De! Mivel új ezért a fejlesztőknek meg kell tanulni kihasználni/kiaknázni és ha ez végre sikerül, akkor a rendszer megtudja mutatni az igazi erejét!

Szerintem atis,nvs emberkéknek akik még nem tették meg, kicsit utána kellene nézni, hogy mit is kínál a gf1xx vagy, hogy mire is találták ki!

Szóval tessék tájékozódni és érdeklődéssel figyelni, hogyan fejlődik a technika és érvelni a technika ellen vagy mellett!

Szerintem a kommentelésnek az lenne a lényege, hogy a tanácstalan döntését halogató embereket meggyőzük vagy lebeszéljük bizonyos dolgokról! Érveket felsorakoztatva! Mert igazából a segítség lenne a fontos és nem az egymás szidása!

Gf465öt vegyek vagy HD5850et vagy gtx275öt?? (ez amolyan költői kérdés)

Peace!
 
Válasz írásához előbb jelentkezz be!
21. jozsefm Baluc...
2010.07.05. 22:33
Szia Balucsek
Jól mondtad!Majd meglátjuk jön-e egyáltalán az idén.Jelenleg az ATI-AMD birtokában van a kezdeményezés,az 5xxx-széria nála már lefedi a teljes szegmest az alsótól-a csucs-kategóriáig.
A modelljeik pedig jól állják a sarat a konkurenciával való összevetésben,igy hát semmi nem hajtja öket egy kényszerből,elhamarkodottan kiadott összetákolt 6xxx-es széria piacra dobására.
Bizonyos szempontból páholyból nézik és tanulmányozzák az NV megoldásait,és erőlködését ,hogy teljessé tegye a saját fegyvertárát.Egyébként meggyőződésem,hogy ezek megjelenésük bevezetésük
idején kategóriájukban egyre jobbak lesznek az összevetésekben,mert náluk is gyülik a tapasztalt és be is fog épülni minden uj-és ujabb modelljükbe.Ezt a tendenciát már a GF104-es mai hirében is tapasztalhattuk.Jelentősen rácáfol az előzetes találgatásokra,főképp a fogyasztás tekintetében.
 
Válasz írásához előbb jelentkezz be!
20. bigmac patri...
2010.07.05. 22:34
Az Nvidia azért váltott, mert a GTX200 asokat nem tudták volna úgy átalakítani, hogy DX11 re használható legyen, az AMD pedig már eleve úgy tervezte a HD3000 sorozat óta, hogy könnyen át tudjanak lépni DX11 re.
Sokan beszélnek itt architektúra váltásról, de az AMD NEM FOG VÁLTANI A DX11-re.
A HD5000 sorozaton végeznek kisebb átalakításokat, és mivel a GPU is kisebb, még jópár dolgot bele tudnak integrálni 40nm -en is, és máris készlesz a HD6000.
Amúgy meg ha az Nvidia SLI-jének a hatásfoka rosszabb akkor talán olcsóbban kellene árulni a konkurenciánál a kártyát, nem pedig drágábban...
 
Válasz írásához előbb jelentkezz be!
19. Humbuk
2010.07.05. 22:41
és még annyit engedjetek meg:
Meggyőződésem, hogyha nem a kapitalista irányvonal lenne követve sok-sok és még annál is több játékban miszerint a profit az isten, akkor talán jobban szerkesztett/optimalizált játékokat is kaphatnánk a pénzünkért cserébe.
Nézzétek meg az xbox 360 vagy éppen a ps3 hardver konfigurációját... nem éppen egy 8magos
quad slis/crossfires rendszer 500GB rammal és mégis mi tudnak belőle kihozni?
(Perszer tudom azt is, hogy "egy" rendszerre könyebb progit írni mint 10.000.000 félére, de azért eg határt kellene húzni)
 
Válasz írásához előbb jelentkezz be!
18. jozsefm bigma...
2010.07.05. 22:52
bigmac
Ez a lehetőség is benne van "pakliban".Nyilván attól is függ az adandó válasz,milyenek lesznek az NV idén megjelenő további modelljei.Ha realizálódnak az uj architektura fejlesztési eredményei, akkor lépnie kell AMD-nek is.Vannak,de még mennyire,hogy vannak tartalékok az 5-ös szériában.
 
Válasz írásához előbb jelentkezz be!
17. kakukktojá...
2010.07.05. 22:55
CF vs SLI a Guru3D-ről. Nézegessétek, mert érdekes. Nem mondanám, h a CF jobban skálázódik, sőt (csúcskártyák esetén 5870 vs 480).
Vki írta, h 3, meg 4 kártyás rendszereknél a CF pláne jobb. Azért ezt is fenntartásokkal kell ám kezelni. Az ilyen eszeveszett videó teljesítménnyel felvértezett gépeknél gyakran CPU limit lép fel, s onnantól minél több a VGA, annál rosszabb. (Pl.: 3x5770)
Érdekességnek itt van egy GTX 480 Quad-SLI teszt is. A karik egy 4,6GHz i7 980 és 2db 1200W-os táp társaságában számolgatnak. Még ezt az eszeveszett 6 magos procit is meg kellett húzgálni, h ne legyen limit.
 
Válasz írásához előbb jelentkezz be!
16. Humbuk
2010.07.05. 23:21
LOL kakukktojás! Ez aztán a teszt és az az evga lap meg nagyon beteg
köszi a linkeket! Érdemes megcsekkolni!
 
Válasz írásához előbb jelentkezz be!
15. csul1
2010.07.06. 07:50
kakukktojás hát igen nem semmi az a teszt "költség hatékony gép építés"
 
Válasz írásához előbb jelentkezz be!
14. XtreemX
2010.07.06. 09:30
Jelenleg az ATI odaver az nvidiának csúnyán.. ezvan.
 
Válasz írásához előbb jelentkezz be!
13. paganifrea...
2010.07.06. 09:56
Ha már futja CF-re ekkora kártyákkal, akkor belefér a büdzsébe a GPU vízhűtése is.

Ez pl. korrekt, és egy korszerű, tetőszellőzős ATX házzal kombinálva a helyigénye is kicsi, házon belül megoldható a hűtés.

Így nem lenne probléma az első kártya fulladozása a második fölé szorítva
 
Válasz írásához előbb jelentkezz be!
12. kakukktojá...
2010.07.06. 10:33
Humbuk és csul1!
Hát elég kemény az biztos. De ami még durvább, hogy van ember, aki összerakott egy ilyen gépet. És ebben már a paganifreak által javallott vízhűtés is ott figyel. A csávót kérdezik, h mennyit költött rá, aztán mondja, h ha összeszámolná, már nem lenne olyan poén a dolog. Egy-egy komponens árából korrekt kis gépeket lehetne építeni.

XtreemX!
A felső kategóriás kártyák párharcában már nem mindig ez a helyzet. Gyakran, ha jobb az ATI egy kártyával (relatív), akkor két kártya esetén már előz az NV a jobb SLI skálázódás miatt. Legalábbis a Guru3D-s tesztből ez derül ki. Ez a Rig of the Month tulaj is azt írja, azért választott három GTX480-at (és nem 5870-et), mert jobban skálázódik az SLI. Ettől függetlenül abban nincs vita köztünk, h egykártyás rendszer esetén én is inkább ATI-t vennék. Sőt alacsonyabb kategóriás CF is bejövős, pl: 5770 (2) CF, mert magasabb órajeleket bír (1000+ MHz), mint a nagytesó.
 
Válasz írásához előbb jelentkezz be!
11. Humbuk
2010.07.06. 11:00
kakukktojás javíts ki ha tévedek, de én úgy olvastam a cikkben, hogy nem nagyon volt költve a cuccokra mert dolgokat a gyártók küldték el a teszt kedvéért mármint a lapot meg a kártyákat és a procit...

Lehet én olvastam valamit félre ^^
 
Válasz írásához előbb jelentkezz be!
10. kakukktojá... Humbu...
2010.07.06. 11:11
Nem a QuadSLI tesztre gondolok, hanem az előző hozzászólásomban linkelt Rig of the Month-ra. ("gépet" szócskára kattintva éred el) Az már egy teljesen hétköznapi emberkének az otthoni PC-je. Azt nem ingyen kapta a gyártóktól, hanem megvette.
 
Válasz írásához előbb jelentkezz be!
9. doktorovic...
2010.07.06. 11:21
nem semmik a játékgyártók sem Melyikre könyebb programozni gondolom Bár tényleg vannak eltérések.
 
Válasz írásához előbb jelentkezz be!
8. Humbuk
2010.07.06. 11:35
kakukktojás
Nah megnéztem végre a linket a tri-sli-s gépről Hát hogy is mondjam.. Korrekt kis gép! Elfogadnám az emberke egyéves villanyszámlájának az árát

De hiába van ilyen állat gépe ^^ Sajnos hiába az izom ha nincs hozzá agy (hiába sok highend cucc ha nincsen ami korrektül kihajtja)

Egy ilyen géppel ellennék vagy "10 évig"
 
Válasz írásához előbb jelentkezz be!
7. Szaby59
2010.07.06. 13:06
A Guru3D-s teszt 4 hónappal ezelőtt készült, a március-áprilisi Catalyst pedig pont a CF-en javított...
 
Válasz írásához előbb jelentkezz be!
6. gyurry
2010.07.06. 19:42
Humbuk:
"Egy ilyen géppel ellennék vagy "10 évig" "

Persze, meg 640k-val is
Írj egy emlékeztetőt magadnak 2020-07-06-ra azzal a kérdéssel, hogy örülnél -e egy ilyen gépnek.

Lehet, hogy akkor már olyan netbookot lehet majd kapni, aminek 3840*2160 a felbontása 3d-ben, 40 Wattot fogyaszt, és a Crysis csak azért nem megy rajta, mert a 256bites oprendszerrel már nem kompatibilis.
 
Válasz írásához előbb jelentkezz be!
5. Humbuk
2010.07.06. 20:12
Gyurry

Pont azért van ott az idézőjel

Meg hát a 480 az első széria Meglessük mit tud majd a gf106 és a gf108 is
 
Válasz írásához előbb jelentkezz be!
4. kakukktojá... Szaby...
2010.07.06. 22:52
Köszi Szaby!
Ezt nem vágtam. És lehet tudni, h akkor most kb. mi a helyzet? Esetleg egy részletesebb külföldi cikk?
 
Válasz írásához előbb jelentkezz be!
3. balintdavi...
2010.07.09. 00:50
2 db voodoo2 SLI-ben nekem 1024x768-as felbontás mellett kb ugyanannyi FPS-t produkál, mint egy kártya 640x480-ban. Ahhoz képest ez elég sovány teljesítménynövekedés
 
Válasz írásához előbb jelentkezz be!
2. balintdavi...
2010.07.09. 09:28
Ja, elég érdekes lenne. Quake-el és UT-vel próbáltam, gondolom akkor mind FPS limiten ment.
 
Válasz írásához előbb jelentkezz be!
1. junkie2
2010.07.16. 11:06
Valaki írta, hogy az nv csúcs kártyái már elverik helyenként az atit.Ez igaz csak az "plusz" elenyésző míg áruk sokkal nagyobb, sokkal többet fogyasztanak mint az ati.
 
Válasz írásához előbb jelentkezz be!