iPon Hírek

Két GPU-s GeForce videokártya az EVGA-tól

Dátum | 2011. 03. 11.
Szerző | J.o.k.e.r
Csoport | MEGJELENÍTÉS

Úgy néz ki, hogy az EVGA mérnökei nem csak az Nvidia hivatalos bejelentésre váró GeForce GTX 590-es két GPU-s videokártyáján munkálkodtak az elmúlt hetek és hónapok folyamán, hanem egy saját tervezésű, két GPU-val ellátott videokártya különlegességen is, amely először az idei CES alkalmával mutatkozott be a nagyközönség előtt, bár akkoriban még nem lehetett tudni, hogy milyen termékről van szó.


Most végre lehull a lepel az újdonságról, amely EVGA GTX 460 2WIN néven válhat majd ismertté a piacon. A videokártyán két GeForce GTX 460-as videokártyákról ismert GPU teljesít szolgálatot, amelyekhez 1-1 GB-nyi, azaz összesen 2 GB-nyi fedélzeti memória társul. A két GPU között ezúttal is egy PCIe híd chip foglal helyet, amely a belső SLI kapcsolat biztosításáról gondoskodik.


A GF104-es GPU-k egyenként 336 CUDA magot kínálnak a rendszer számára, magórajelük pedig 700 MHz-es értéket képvisel. A CUDA magok 1400 MHz-en ketyegnek, a fedélzeti memória esetében pedig 3600 MHz-es effektív órajelet alkalmaztak a gyártó mérnökei. A két GPU és a videokártya egyéb alkatrészeinek hűtéséről egy egyedi megoldás gondoskodik, amit természetesen az EVGA fejlesztett ki. A rengeteg alumínium hűtőbordával, és hőcsövekkel is ellátott hűtő három darab 80 mm-es átmérőjű légkeverővel érkezik.


A termék SLI támogatást is kínál, így akár két ilyen két GPU-s videokártya összekapcsolására is van mód (Quad-SLI rendszer). A különlegesség tápellátásáról két darab nyolctűs PCI Express tápcsatlakozóval kell gondoskodnunk.



Az új videokártya összesen három darab DVI és egy mini-HDMI videó kimenettel érkezik.


Az EVGA egy házi teszt segítségével arra is fényt derített, hogy hogyan muzsikál a kártya. A 3DMark és Unigine tesztek alapján úgy tűnik, hogy a termék 5-10%-kal gyorsabb, mint egy GeForce GtX 580-as videokártya, legalábbis ezekben a tesztekben. Az EVGA illetékesei egyébként nem árulták el, hogy a GeForce GTX 460 2WIN pontosan mikor jelenik meg az üzletek polcain és mennyiért lehet majd hozzájutni.

Új hozzászólás írásához előbb jelentkezz be!

Eddigi hozzászólások

62. carraroxt
2011.03.11. 12:21
Fura, hogy nem GF114-eseket használtak.
 
Válasz írásához előbb jelentkezz be!
61. Fecniii
2011.03.11. 12:28
gyönyörű és piszok erős, elfogadnám!
 
Válasz írásához előbb jelentkezz be!
60. gery84
2011.03.11. 12:31
Elkéstek a 460 egy kifutó széria! 560-ból csinálták volna, akkor még valamit érne, de ez fütbe ment terv!
 
Válasz írásához előbb jelentkezz be!
59. somakb
2011.03.11. 12:33
Az Engadget szerint olcsóbb lesz a GTX580-nál. Így már annyira nem füstbe ment talán... bár ez igazándiból úgy érdekes, ha megrántják azokat a gpu-kat.. a GF104 jó tuningpotenciállal bír, a 2*8 tű táp valszeg ad elég delejt, ah a hűtés is bírja, akkor azért egy 800 körül járatott ilyen már egész életképes egy 580-al szemben.
 
Válasz írásához előbb jelentkezz be!
58. jozsefm
2011.03.11. 12:46
Na ez érdekes ,ha a legjobb gyártópartner nem vállalta be a saját név alatt a két GF110-es csip egy nyákra épitését!?
Kiváncsi lennék a fogyasztási adatokra?Abból sok mindenre lehetne következtetni!
 
Válasz írásához előbb jelentkezz be!
57. nightmare1...
2011.03.11. 12:49
Ez kb olyan hosszú lehet, mint anno a 3870x2? Már azt is egy batár állat volt, tapasztalat, de ez... valahogy mintha a feketétől rohadt hosszúnak tűnne...
 
Válasz írásához előbb jelentkezz be!
56. Dragon3k
2011.03.11. 12:53
Már rég volt róla hír h az evga ki fog adni egy ilyen egyedi kártyát.
józsef m.: mint írtam erről már régebben volt hír h az evga készül ilyesmivel, gf110-zel hülyeség lett volna egy saját kártyát csinálni, amikor ott lesz a gtx590.
 
Válasz írásához előbb jelentkezz be!
55. jozsefm Drago...
2011.03.11. 12:57
Ebben nem vagyok biztos, hogy hülyeség ..én inkább azt látom ,hogy nem tartották reálisnak, illetve kétségeik voltak ezzel kapcsolatosan...???
 
Válasz írásához előbb jelentkezz be!
54. somakb jozse...
2011.03.11. 13:10
persze persze... oszt mi értelme van pénzt, fejlesztést erőforrást ölni egy 2 GF110-el szerelt saját VGA-ba, ha az NV készít egy referencia modellt? Te sem gondolod komolyan, hogy egy tonna pénzt beletesz egy gyártó ebbe, ha úgyis lesz ref... főleg, ha esetleg az NV nem is engedi...

Az AMD engedte a HD6990-ek gyártóspecifikus gyártását? Nem... még a hűtőt sem cserélhetik rajta, nem hogy saját 2 GPU-st fejleszthetnének...
 
Válasz írásához előbb jelentkezz be!
53. jozsefm somak...
2011.03.11. 13:19
Mert igy mi értelme lesz? Ezt miért engedte?Ez is egy zsák pénzbe került!


Az AMD engedte a HD6990-ek gyártóspecifikus gyártását? Nem... még a hűtőt sem cserélhetik rajta, nem hogy saját 2 GPU-st fejleszthetnének...

Egyenlőre ,de azt biztosra veszem ,hogy lesz egyedi modell, csak a ref. volt kötelező minden partnernek, az OEM piac miatt,onnantól aki akar fejleszthet, saját rizikóra!
Bár szerintem itt is csak az ASUS a GIGA meg esetleg a SAPPHIRE lesz a VaporX-el, a kisebbek nem fognak -mernek rizikózni vele.
 
Válasz írásához előbb jelentkezz be!
52. Ragnarr
2011.03.11. 13:23
Ezt most meg minek kellett kiadni ? az egy dolog hogy benchmarkokban jol teljesit de a jatekokban mar mas lesz a helyzet. Valoszinuleg tul sok a 460 GPU a raktaron valahogy meg kell toluk szabadulni. A 2GPU-s megoldasokkal mindig sok a problema , inkabb egy 570 OC ediciot vennek az se lehet dragabb mint ez , es mindenhol jol teljesit problema nelkul ...
 
Válasz írásához előbb jelentkezz be!
51. somakb
2011.03.11. 13:32
Miért engedte? Mert ilyen ref. modell nincs... azért, ennyire egyszerű...
 
Válasz írásához előbb jelentkezz be!
50. carraroxt
2011.03.11. 13:41
Nekem csak az a furcsa, hogy GF104 és a GF114 lábkompatibilis, és a GF114 egyértelműen sokkal előnyösebb lett volna ilyen használatra. Ezek után tényleg csak valami nagyon diszkontáron történő raktársöprésre tudok gondolni, pláne figyelembe véve a termék állítólagos alacsony árát. Tehát ez így mégiscsak a vevőknek kedvez akkor.
 
Válasz írásához előbb jelentkezz be!
49. gunclub
2011.03.11. 13:56
A hosszáról csak annyit ha megnézed 3 db 80mm venti van benne.Kb olyan 25-28cm közé tenném a hosszát.
 
Válasz írásához előbb jelentkezz be!
48. markangabo...
2011.03.11. 14:18
Itt van wazze
 
Válasz írásához előbb jelentkezz be!
47. markangabo...
2011.03.11. 14:28
Meglep a teljesitménye, bár játék alatt biztos nem hozná az 5-10 előnyét az 580-al szemben, de ha a 460-sok árából indulok ki, 100k+- környékére tippelem az árát, ami 20-as olcsóbb, mint az 580. Tesztet akarok!
 
Válasz írásához előbb jelentkezz be!
46. markangabo...
2011.03.11. 14:31
Product Length: 11.5in - 292.1mm
 
Válasz írásához előbb jelentkezz be!
45. Cooley
2011.03.11. 14:43
Gondolom ez összeköthető egy sima GTX460-nal is. Meggondolandó. De 2 GF114-gyel valóban érdekesebb lenne, hisz a GTX560 Ti-nek is csak 2 utas SLI támogatása van, csak gondolom ezt kicsit korábban kezdték el fejleszteni, minthogy megjelent volna a GF114. Minden esetre érdekes dolog, mindig is kíváncsi voltam, hogy vajon mit tud 4db GTX460.
 
Válasz írásához előbb jelentkezz be!
44. pal07
2011.03.11. 15:09
Na 580 sincs már értelme venni.
 
Válasz írásához előbb jelentkezz be!
43. Zeratuldan...
2011.03.11. 15:51
Ha azt még hozzáfűzöm, hogy ez 300 és 375 W között eszik, az 580-as pedig 244 W-ot, szerintem mégse tűnik olyan jó vételnek. De ennek ellenére tisztes erőt produkál. És persze aki ilyet vesz, annak már lehet, hogy másodlagos a fogyasztás.
 
Válasz írásához előbb jelentkezz be!
42. markangabo...
2011.03.11. 17:20
244 W? Álomkártya lenne ha igylenne. Szoftveresen fér be a 3kilóba
 
Válasz írásához előbb jelentkezz be!
41. jozsefm Coole...
2011.03.11. 17:28
Nagyon meg lennék lepve ha ennek a fejlesztésekor, pont az EVGA nem tudta volna ,hogy áll a GF114.
 
Válasz írásához előbb jelentkezz be!
40. Simba
2011.03.11. 17:30
pal07: Miért ne lenne? A single GPU az mindig előnyösebb mint a dual megoldások. Nem kell szopni az SLI/CF-es szarakodások miatt.
 
Válasz írásához előbb jelentkezz be!
39. pal07
2011.03.11. 18:11
Simba : én az árára céloztam.
 
Válasz írásához előbb jelentkezz be!
38. jozsefm
2011.03.11. 18:12
Tényleg sok GF104 maradt eladatlan, jönnek a többiek is:

 
Válasz írásához előbb jelentkezz be!
37. thspo
2011.03.11. 19:22
prohardveren írták, hogy az ára a GTX580 alatt fog maradni, egyébként ez a korábban EVGA Gemini Néven emlegetett kártya. Én elfogadnám, az egyszer biztos.
 
Válasz írásához előbb jelentkezz be!
36. jozsefm
2011.03.11. 19:40
Ha jobban belegondolok lehet ,hogy az év hátra lévö részében több ilyen megoldás is fog jönni.Most ,hogy a 40nm.-en ragadtunk, se az egy, se a két GPU-s kategóriában nem nagyon lehet már mit felmutatni a 300W-os limiten belül.
Nem lennék meglepve ha nemsokára az AMD is előrukkolna valami két kisebb, (mondjuk 6850-es )csippből álló VGA-val.A teljesitménye simán a 6970-580 felett lenne ,és még lehet maximális órajeleken hajtva is alatta maradna a büvös határnak.A két Barts chip pedig jóval kisebb, olcsóbb megoldás, és a nyák se lenne akkora batár!
 
Válasz írásához előbb jelentkezz be!
35. rabib
2011.03.11. 20:10
Ez szép. Lesz GTX590 és "GTX460x2" is.
 
Válasz írásához előbb jelentkezz be!
34. jozsefm rabib
2011.03.11. 20:25
Lesz itt idén még több is! Mit szólsz a fenti ötlethez? Ha bármelyik gyártó tényleg a mi érdekeinket tartaná szem előtt, még akár az se lenne nagy mutatvány ,hogy a belső CF kapcsolást úgy oldani meg mint a laptopok integrált és diszkrét kártyája közti váltást, terheléstől függően az egyik GPU lekapcsolna, akkor még a fogyasztása és melegedése is baráti lenne!
 
Válasz írásához előbb jelentkezz be!
33. Csaber
2011.03.11. 20:32
nekem nem tetszik de azért elfogadnám
 
Válasz írásához előbb jelentkezz be!
32. jozsefm Csabe...
2011.03.11. 20:50
Minél többet gondolkozom rajta annál jobban teszik ez a két kisebb GPU-s VGA dolog, milyen szépen menne egy ilyen, mondjuk két 6850-el és 2x2GB-nyi 5500MHz-es memóriával.Az ára meg simán 100-ezer alatt lehetne.
 
Válasz írásához előbb jelentkezz be!
31. rabib jozse...
2011.03.11. 20:54
Jó ötlet. Minél több lesz, annál jobb.
 
Válasz írásához előbb jelentkezz be!
30. jozsefm rabib
2011.03.11. 21:26
Nekünk!
 
Válasz írásához előbb jelentkezz be!
29. tibi27
2011.03.11. 23:43
Lehet ez a kari is arra a sorsra jut mint anno a 3850x2,nem lehetett kapni nálunk.Azért azt meg kell hagyni hogy akármilyen rossz helyzetben vagyunk mi emberek,egyre többen vagyunk akik drágább hardverekkel egészitik ki a konfigurációjukat,tehát alaposan átgondolt,inkább spórolok még egy kicsit történések vannak,tehát ez a kari számomra semleges,jó ötlet de nem kéne.
 
Válasz írásához előbb jelentkezz be!
28. jozsefm tibi2...
2011.03.11. 23:52
Ha már az EVGA megjelent nálunk akkor talán lesz ebböl is !
 
Válasz írásához előbb jelentkezz be!
27. kiskoller
2011.03.12. 08:08
én a következő csíkszélességes alsó-közép kategóriás kártyákat várom. Úgy saccolom hogy azok akár ennek a karinak a teljesítményét is el fogják érni (vagy csak közel lesznek), pici NYÁK- és hűtő-mérettel
 
Válasz írásához előbb jelentkezz be!
26. jozsefm kisko...
2011.03.12. 09:02
Idén sajnos nem nagyon lesz részünk benne a TSMC részéről legalábbis.Esetleg ha az AMD belépteti a Glo.Fu. valamelyik gyártósorát akkor, ők előbbre vannak a saját 28nm.-es technológiájukkal.
Vagy még lehetne a 32nm.es soron is alkotni valamit persze ez kevésbé esélyes, de ők végül is ezen már gyártanak GPU-t, a Brazos platform keretén belül.
 
Válasz írásához előbb jelentkezz be!
25. Bazsy89011...
2011.03.12. 09:17
Szerintetek lehet majd sli-be sima 460-al?
 
Válasz írásához előbb jelentkezz be!
24. jozsefm Bazsy...
2011.03.12. 09:19



A termék SLI támogatást is kínál,
Elvileg lehetséges nem látom akadályát.
 
Válasz írásához előbb jelentkezz be!
23. Dragon3k jozse...
2011.03.12. 09:27
Gpu-ként a 2GB felesleges lenne, a húzott 6850nél a 4600 és 4800MHz-en járatott ram között nem veszek észre semmi különbséget így az 5500MHz is tök fölösleges lenne. Ha csinálnának ilyen megoldást mindkettő csak fölöslegesen emelné a kártya árát.
 
Válasz írásához előbb jelentkezz be!
22. jozsefm Drago...
2011.03.12. 09:43
Szerintem meg kellene!
Ahogy ennek a kártyának is a legfőbb ujitása igy az lesz ,hogy mostmár egyetlen NV kártyáról lehet három monitort is üzemeltetni, (amit eddig csak kettő összekötésével lehetett megoldani a Ge-force kártyákon) a nagyobb felbontáshoz meg kell a GPU-kénti 2GB-nyi memória, és árban se jelent sokat, elég csak rápillantani azokra ahol lehet kapni 1-és 2 GB-os verziot is /560Ti -5950-70/
 
Válasz írásához előbb jelentkezz be!
21. Tirexi
2011.03.12. 09:59
Ha nincs SLI támogatás nem ér semmit ez a VGA és a tapasztalatok azt mutatják, hogy nem is annyira éri meg SLI-t építeni.
Egyetlen egy helyen láttam azt, hogy 99% mind két GPU-m:
A Crysis Warhead-be ha a levegőt néztem és volt 150FPS-em...
 
Válasz írásához előbb jelentkezz be!
20. jozsefm Tirex...
2011.03.12. 10:05
Ez a hátrány minden multi GPU-s rendszernél megvan.Mostában egyre jobb azért az ilyen támogatottság, bár 100%-os skálázódás soha nem lesz az biztos,de a gyártók is erre mozdulnak.Viszont a régebbi játékoknál sok helyen akad ,vagy nem is megy ez kétségtelen.
 
Válasz írásához előbb jelentkezz be!
19. kiskoller
2011.03.12. 12:15
"Ha nincs SLI támogatás nem ér semmit ez a VGA"

Ezt kifejtenéd bővebben? Szerintem az SLI támogatás nem ér semmit ezen a karin, ki akarna még 1 460-at ez mellé? A háromutas SLI és a 4 utas (ha 2 ilyet használsz mondjuk) nem annyira kiforrott, mint a 2utas.

Nem akkor "éri meg" az SLI ha mindkettő kártya 100%on van, ez teljesen irreveláns. Akkor éri meg az SLI, ha a plussz egy kártyával nagyobb teljesítménynövekedést érsz el, mint egy nagyobb VGA-ra való cserével (ugyanannyi pénz ráfizetésével mindkettő helyzetben).

A helyedben örülnék hogy nincsenek 99%on a kártyáim all-the-time, és csak a Warhead esetében voltak olyan buták a kártyák hogy a semmit számolták (itt a 150 FPS-re gondolok)
 
Válasz írásához előbb jelentkezz be!
18. jozsefm kisko...
2011.03.12. 12:28
A 3 és 4 utas az valóban egyre romlik hatásfok szempontjából a sima SLI-hez képest.
 
Válasz írásához előbb jelentkezz be!
17. Tirexi
2011.03.12. 12:53
kiskoller:
Én úgy értettem, hogy ezzel az EGY karival nem nyer semmit ha nincs SLI. Értem?
Mert ez is egyfajta SLI (multiGPU) és ha nincs támogatás akkor ez sem müxik dual-ban akár csak két külön kari esetében.

Ha már a GPU kihasználtságnál járunk:
150FPS-em volt ha a levegőt néztem és 99% mind2 GPU. Na de akkor az miért van ha meg a tájat nézem akkor meg van 50FPS-em és csak 60%-osak a GPU-k...
Kajak ezt nem vágom.
Nem akkor kéne a VGA-nak jobban teljesítenie ha kevesebb FPS-em van? Magyarul még jobban használni a GPU-t?
Ez nekem magas...
 
Válasz írásához előbb jelentkezz be!
16. jozsefm Tirex...
2011.03.12. 13:03
Na igen, a bárányfelhőket könnyebb megjeleniteni 150 FPS-el, mint a növényekkel teli tájat!
 
Válasz írásához előbb jelentkezz be!
15. Heroes27 Tirex...
2011.03.12. 13:10
Amit most Tirexi mond nem hülyeség. Valamilyen szinten igaza van.
 
Válasz írásához előbb jelentkezz be!
14. MaximumGam...
2011.03.12. 13:26
Dragon3k : nekem HD5870 en ment 5450 et is Memoriákban... és volt rendesen gyorsulás.. baj nemvolt vele.. Órajelet meg 20% al néztem meg mitt tudd ha 1025Mhz-ig emelem.. a Teszt eredménye : Jobb teljesitménye volt mint egy
GTX480-GTX570 nek... most lejárt lemez ez a GTX460.. Elég jó kártya... de inkább GTX560Ti ből csináltak volna 2gpu sat...
 
Válasz írásához előbb jelentkezz be!
13. jozsefm Maxim...
2011.03.12. 13:31
Lessz még abból is, ne izgulj! Messze még a jövö tavasz, addig is kell valami újdonság!
 
Válasz írásához előbb jelentkezz be!
12. rini
2011.03.12. 13:41
Gondolom amikor nekiálltak a fejlesztésnek akkor még ez volt a legreálisabb grafikus mag ilyen célra. Most fejezték be a fejlesztést és így ez került rá. Viszont mivel nem sok különbség van a 104 illetve 114 között, várható lesz, hogy ezen a fejlesztett nyákon érkezhet egy 560Ti variáns is amihez már nem kell ilyen komoly fejlesztést végrehajtani hiszen az alap már megvan. A kérdés már csak az, hogy az nV engedi e ezt létrehozni.
 
Válasz írásához előbb jelentkezz be!
11. MaximumGam...
2011.03.12. 13:45
rini : Hát GTX560Ti ilyen 110 ért jólenne mint 2 magos GTX570 ilyen 170 ért
 
Válasz írásához előbb jelentkezz be!
10. jozsefm Maxim...
2011.03.12. 13:53
Azt meghiszem!De ha kiszámolom akkor is kijönne belöle kényelmesen.
 
Válasz írásához előbb jelentkezz be!
9. Dragon3k Maxim...
2011.03.12. 14:18
Ha megnézed, hogy mire válaszoltam, akkor nem jössz az 5870nel, mert a 6850 nagyon távol áll tőle. Én néztem a 6850em 950MHz-ig (alap feszültséggel) a gpu-t és a memóriát egészen 4800MHz-ig(4800 felett már instabil lesz), játékokban 1920*1200 és 1 monitorral, mivel csak 1 áll rendelkezésemre, ramnál 4600 és 4800MHz közt nem volt semmi változás, mivel a 4600MHz-nél lévő ramsávszél is bőven elég volt a vga-nak. Lehet, hogy 3 monitornál már más a helyzet, mivel nem tudom kipróbálni így ebben az esetben nem nyilatkozom róla.
 
Válasz írásához előbb jelentkezz be!
8. Heroes27 Drago...
2011.03.12. 14:22
a 6850-edet 3 monitor megfekteti.
 
Válasz írásához előbb jelentkezz be!
7. jozsefm Heroe...
2011.03.12. 14:25
Azért lenne jó egy ilyen dual GPU-s verzio 2db 6850-el 2x2GB memóriával, nem a GPU kevés a három monitorhoz hanem a memória!
 
Válasz írásához előbb jelentkezz be!
6. Heroes27 jozse...
2011.03.12. 14:29
ez is igaz. Józsi most per pill 3 monitor van előttem. És, mondjuk oké, 5830-am van, ami persze lassabb a 6850-nél, de nem olyan mérvadóan, és bizony kevés. 3 moncsihoz minimum az 5870, ami neked is van, de egy 6950-6970 az optimális. A játékoknál nem a felbontás a mérvadó, hanem azon belül a részletesség. Bizony el kell felejteni a szűrőt és társait, mert diavetítés a vége
 
Válasz írásához előbb jelentkezz be!
5. Dragon3k
2011.03.12. 16:13
Hát újabb játékok amikkel játszottam metro2033 kivételével minden ment 1920*1200 full grafikával (crysis-t még a régi géppel toltam végig így azt nem néztem, gta4 meg nem érdekel így azt sem).
 
Válasz írásához előbb jelentkezz be!
4. carraroxt
2011.03.12. 17:28
Hát ezért sem fogok új házat venni, bár NV termékért amúgy sem adnék egy petákot sem... Személyes vélemény, nem flame indítónak szántam, és kéretik nem megtéríteni a zöld oldal által! Egyébként sem vennék szerintem soha 70 rugó fölötti kártyát, mert szimplán fölösleges.
 
Válasz írásához előbb jelentkezz be!
3. kiskoller Tirex...
2011.03.13. 10:00
Én azt gondoltam egyértelmű hogy minden dual GPU-s kártyában beépített SLI meg CFX van, de akkor tévedtem.

Azért nem járnak maximumom a kártyák amikor a tájat és nem az eget nézed, mert akkor sokkal többet féle dolgot kell számolni, amik egymásra hatnak, pl árnyékok és a takarás, stb stb amiket nem olyan egyszerű két GPU között megosztani úgy hogy ezzel ne lassuljon a rendszer, hanem gyorsuljon. Tehát a sok egymásra ható modellezés nem lehet bármilyen sorrendben kiszámolni (mert egymásra is hatnak, gondolj például arra amikor egy erdőben eldobsz egy füstgránátot, ki kell számolni a fák "helyzetét" hogy kiszámolhasd azt hogy a füst merre terjedhet egyáltalán, és ez a kettő "információ" kell azután a napfény generálásához is, hiz napfény nem mehet át sem fán sem a füstön, ez béna példa de érted a lényeget.)

Az égen viszont van X darab felhő, egy nap és kész. Kiszámolod a nap helyzetét, az abból származó napfényeket, majd párhuzamosan kiszámolod a felhőket, hisz azok egymásra nem hatnak olyan mértékben. Ez könyebben párhuzamosítható két GPU között. Minden egyes képkockát apró processzorok garmadája számolja ki ugye (stream procik meg CUDA magok), ergo ezek a feladatok alapból párhuzamosítottak, de a kulcs itt az, hgy úgy oszt fel a feladatot a két GPU között, hogy a kettő közötti lassú adatfolyamot is figyelembe kell venned. Tehát mig a föld kiszámolásánál sokszor az egyik GPU a másikra vár (mert kellenek a plussz információk amiket a másik GPU ad meg neki) addig az ég generálásánál ilyen nincs.

A baj azzal van, amikor a GPU-k maxon pörögnek és 150 FPS-t generálnak. Azt hittem egy mai felsőkategoriás VGA lekapcsol már amikor fele erővel is elérhetné ugyanazt (értsd a kontstans 60 FPS-t)
 
Válasz írásához előbb jelentkezz be!
2. szala11
2011.03.15. 18:06
"A baj azzal van, amikor a GPU-k maxon pörögnek és 150 FPS-t generálnak. Azt hittem egy mai felsőkategoriás VGA lekapcsol már amikor fele erővel is elérhetné ugyanazt (értsd a kontstans 60 FPS-t)"

Erre találták fel a V-sync-et. Én mindíg bekapcsolom. Hűvősebb is a kártyám.
 
Válasz írásához előbb jelentkezz be!
1. jozsefm Heroe...
2011.03.15. 18:25
Nocsak ,nocsak sikerült!

Persze nem lehet mindent a max.-ra tenni ,de normál beállítások mellett szépen viszi!
 
Válasz írásához előbb jelentkezz be!