iPon Hírek

Március 22-én rajtol el a GeForce GTX 590

Dátum | 2011. 03. 10.
Szerző | J.o.k.e.r
Csoport | MEGJELENÍTÉS

Az AMD a napokban indította hódító útjára legújabb videokártyáját, a Radeon HD 6990-es modellt. A két GPU-val ellátott videokártya különlegesség már az összes neves AMD partner kínálatában feltűnt, de a legfrissebb hírek szerint nem sokáig marad konkurencia nélkül. Az Nvidia hamarosan, egészen pontosan március 22-én mutatja majd be saját két GPU-s kártyáját, a GeForce GTX 590-es modellt, amelyen két darab GF110-es GPU teljesít majd szolgálatot.

Az új videokártyával az Nvidiának esélye nyílhat arra, hogy elhódítsa a trónt az AMD-től. Maga a GeForce GTX 590 egyelőre ködbe burkolózik, konkrétumokat nem nagyon tudunk. Egyelőre csak annyi biztos, hogy a két GPU között egy NF200-as PCIe híd chip teremt majd kapcsolatot. A belső SLI kapcsolat jóvoltából a GeForce GTX 590 esetében lehetőség lesz az Nvidia 3D Surround technológiájának kiaknázására is (amihez egyébként két GeForce kártya kell).


Órajelekkel kapcsolatban semmi információ sem áll rendelkezésre. Az is csak sejthető, hogy az újdonság két GF110-es GPU-ja egyenként 512 CUDA maggal érkezik és 2 x 384-bites adatsínen keresztül kapcsolódnak majd a 2 x 1536 MB-nyi GDDR5-ös típusú fedélzeti memóriához.

Így vagy úgy, a megjelenés időpontjának közeledtével remélhetőleg egyre több hiányzó információra derül majd fény. Érdekesség, hogy a március 22-ei dátum nem csak a GeForce GTX 590 megjelenése miatt különleges, hanem azért is, mert ekkor érkezik egy igen népszerű játék, a Crysis folytatása is, valószínűleg nem véletlen az időzítés.

Új hozzászólás írásához előbb jelentkezz be!

Eddigi hozzászólások

64. carraroxt
2011.03.10. 11:07
Ez a panelkép már tavaly is egyszer szerepelt hírekben, de valahogy azóta sem akaródzik nekem elhinni, hogy ez így tényleg működik... Én inkább voksolnék az EVGA-féle 2xGF114-es megoldásra.
 
Válasz írásához előbb jelentkezz be!
63. Tirexi
2011.03.10. 11:16
Várjuk.
 
Válasz írásához előbb jelentkezz be!
62. thspo
2011.03.10. 11:29
ha ezt kihozzák két teljes értékű GF110-el akkor ez minősíthetetlenül brutális lesz
 
Válasz írásához előbb jelentkezz be!
61. iponnorbi
2011.03.10. 11:30
ok; hogy rá rakják egy nyákra, de a fogyasztási igényt hogyan oldják meg?
 
Válasz írásához előbb jelentkezz be!
60. Heroes27 iponn...
2011.03.10. 11:33
200ezres karinál nem hót mindegy?
 
Válasz írásához előbb jelentkezz be!
59. levaipeti
2011.03.10. 11:35
fogyasztási igény alatt a 300 w-s oem limitet érted vagy mit? Mert azt a 6990 is túlszárnyalta...

Elég egy brutláis szerkezet lesz.
 
Válasz írásához előbb jelentkezz be!
58. RAYEN
2011.03.10. 11:36
brutális hőerőmű lesz ez is szokás szerint
 
Válasz írásához előbb jelentkezz be!
57. Kajafun
2011.03.10. 11:40
Központi fűtést köttessem be vagy elég ezt megvenni?
 
Válasz írásához előbb jelentkezz be!
56. axe
2011.03.10. 11:56
2 ilyen rákötöd a radiátort a szobában aztán nálad tuti meleg lesz a szobában.
 
Válasz írásához előbb jelentkezz be!
55. gery84 axe
2011.03.10. 11:58
Központit fűtést ne a kazánra közsd hanem a kártyára!
 
Válasz írásához előbb jelentkezz be!
54. Heroes27 axe
2011.03.10. 12:06
axe:

4 kilóért fűtsön is
 
Válasz írásához előbb jelentkezz be!
53. zakarias20
2011.03.10. 12:07
Az biztos hogy az AMD is túl szárnyalta a 300 as határt, de ha azt a 300 fölötti energia mennyiség felvételt elfelezzük akkor nem jön ki 300 fölé! szóval 2 gpu az AMD nél meg ennél is, akkor az áram is meg feleződik, ezáltal "gazdaságosabb"! SZERINTEM
 
Válasz írásához előbb jelentkezz be!
52. _DiEGO_
2011.03.10. 12:33
fogyasztási igény alatt a 300 w-s oem limitet érted vagy mit? Mert azt a 6990 is túlszárnyalta...

Talán nem ment le a terhelt fogyasztása 500W alá


Az Nvidia első dual-gpu-s kártyáját a Cebit alkalmával mutatta be, azonban csak zárt ajtók mögött. A kiváltságos résztvevők néhány információt kiszivárogtattak az új csoda VGA-ról, melyek szerint a kártya korábban bemutatott változata eltér a CeBIT-es változattól. Az Nvidia tesztjátékként a Crysis 2-őt futtatta 3D-s opciókkal bekapcsolva, azonban ezzel könnyedén elbánt a két processzoros szörnyeteg, tehát a kártya teljesítményére nem lehet panasz. A nézők elmondása szerint a kártyánál a hőmérséklet az ami problémát jelenthet, mivel a két nyolctűs PCI csatlakozót igénylő GTX 590 hőfoka meglehetősen magas volt.
 
Válasz írásához előbb jelentkezz be!
51. jozsefm
2011.03.10. 13:20
Pedig ha olyan állapotban van,hogy 22-re ki lehet adni akkor mégiscsak ez a nyák lesz az alany,mert ezen kivül más nem került ki sehol sem, és aha tényleg csak a CRY.megjelenése miatt halasztották a rajtot akkor egy ideje már kész kellett ,hogy legyen, sőt a teljesitményével is tisztában vannak a kiválasztottak akiknél már kinn van tesztelésre a kártya.
 
Válasz írásához előbb jelentkezz be!
50. Fzoltan
2011.03.10. 13:32
Techpowerup fogyasztási adatok, maximumérték:
6970 - 287W
580 - 317W
6990 - 338W

Ha ezek után 400W alatt lesz a fogyasztása, akkor igencsak meg fogok lepődni...
 
Válasz írásához előbb jelentkezz be!
49. somakb
2011.03.10. 13:48
Onnantól kezdve, hogy AMD is dobta a 300w limitet már annyira amindegy... jelenleg sem azért vesz valaki HD6970-et GTX580 helyett, mert kevesebbet fogyaszt, hanem mert olcsóbb... kutyát nem érdekli, hogy valami 375 wattot nyel vagy 450-et az übercsúcs szinten. Édesmindegy onnantól kezdve, hogy felrúgták a 300w limitet. Jelneleg is sokan építenek GTX580-ból SLI rendszert... őket sem érdekli, hogy HD6970 CF-el kevesebbet fogyasztana, ha neki a csúcs kell.
 
Válasz írásához előbb jelentkezz be!
48. jozsefm Fzolt...
2011.03.10. 13:49
Ráadásul ezek a maximumok a furmark szerü terhelés alatti maximumok, melyeket játék alatt nem lehet elérni.Az NV is dönthet ugy ,hogy bizonyos energia gazdálkodási beállitások mellett legyen 300W körüli fogyasztás, amit természetesen az user otthon ugy állit ahogy akar ,de az OEM partnerek számára ebben a formában elfogadható lesz.Láttuk már az AMD megoldásához hasonló kapcsolót valamely termékükön ,és az 580 is a szoftveres korlátokkal fér be még a 317W-ba is.
Az a kérdés ,hogy ezen a fogyasztási limiten belül mire lesz elég az meg csak elméleti és technológiai dicsőséget hoz mert ugyse fogja senki ebben az állapotában használni.Innentől meg már mindegy ,hogy 350W-vagy 450W.A lényeg az abszolut elsőség elnyerése és ezért mindent el fog követni az NV hiszen már régóta nincs a cim birtokában.
 
Válasz írásához előbb jelentkezz be!
47. somakb jozse...
2011.03.10. 14:03
Egyébként meg a véleményem a két kártyáról az, hogy kár volt értük. Kár volt ezeket 40nm-en kidobni. Ezzel precedens értékűvé vált, hogy lehet tojni a 300w limitre. Ráadásul ugye egy CF HD6970-et is meglehet építeni a HD6990 árából, és valszeg ugyanez fog élni a GTX590-re is... komolyan csak kárt okoz mindkét VGA azzal, hogy nyíltan mindkét gyártó végül felrúgta ezt az évek óta tartott limitet.
 
Válasz írásához előbb jelentkezz be!
46. jozsefm somak...
2011.03.10. 14:17
Sajnos ez igaz, és erre nem mentség ,hogy a TSMC töketlenkedik a 28nm.-el a 32-őt meg törölte.De várható volt, hogy öszinte legyek, mióta kiderült ,hogy idén nem is lesz váltás.Nem tudták volna kihuzni a gyártók ezt az időt az egyre csökkenő kereslet melett ,ha semmi uj csucs modell nem jön.Annyi előnye azért van ,hogy összerázta a mezőny levegőhöz jutattva az NV-t.
A két kisebb kártyából összeállitható kedvezőbb ár és fogyasztás melett elérhető teljesitmény tekintetében tökéletesen egyet értünk. Két 6870-es vagy 460 ,szinte ugyanzt tudja, az 570- 6950 meg tul is szárnyalja és még az utóbbi párosok is olcsóbbak.
De a presztizs viszont akinek fontos annak az abszolut csucs kell , végül is el lett adva az összes legyártott ASUS MARS és az ARES is.
 
Válasz írásához előbb jelentkezz be!
45. sanyix
2011.03.10. 14:37
aztakurva 650w csak videokártyára ez már kemény ezresekben érzékelhető majd a villanyszámlákon.
Grillforce. Kár hogy nem raknak rá egy visszatápláló csövet a központi fűtéshez
 
Válasz írásához előbb jelentkezz be!
44. Fzoltan
2011.03.10. 14:56
A 6990 nem rúgott fel semmilyen fogyasztási határt. Az OEM szereplők 300Wattos szabványát be tudja tartani (szoftverrel). Az, hogy kereskedelmi forgalomba más verzió kerül, az nem jelenti azt, hogy az OEM nem fér bele a szabványba. A GTX590 viszont sehogy sem fog beleférni az OEM szabványba, amikor már az 580-nak is szoftveres segítség kell.
 
Válasz írásához előbb jelentkezz be!
43. jozsefm Fzolt...
2011.03.10. 15:09
Ez max.az eladási mutatókban fog látszódni, nyiván az OEM partnerek elvesztése érzékenyen érinti a gyártót, és a megtérülést is hátrányosan befolyásolja.Viszont a teljes kinálat max 2-4%-a amit ezek a modellek tesznek ki, ezért mondtam ,hogy itt inkább lesz kérdés a presztizs mintsem a jövedelmezőség.Itt van a kockázata annak ,hogy némileg vissza vannak fogva a 6970-es csippek a 300W TDP tarthatósága érdekében.Ez ad esélyt az NV-nek ,hogy valami brutális fogyasztás mellett de mégiscsak előzzön, feltéve ,ha az ehhez szükséges órajelek mellett le tudják még hüteni 100°C alá a két GF 110-et. Ha ezt a feladatot sikerrel megoldják és gépbe szerelhető lesz a kártya akkor elhódithatják a koronát ,ha nem akkor megintcsak nézhetik a 6990 tündöklését.Az első kisérlet a két GF 104-el pont ezen bukott el.Mire a hütés megoldható lett, addigra olyan mértékü órajel csökkentést kellet alkalmazni ,hogy nem lett volna értelme kihozni.
 
Válasz írásához előbb jelentkezz be!
42. somakb Fzolt...
2011.03.10. 15:20
?? Vagyis a HD6990-et lehet szoftveresen 300w alatt tartani oem szempontból de a GTX590-et nem Oszt miért nem? Visszaveszik az órajelet meg a feszt egy OEM profilehoz oszt csók. Ennyi. Az ég világon semmi nem korlátozza őket sem, hogy legyen egy OEM profile...akár egy hatalmas billenőkapcsolóval is megoldhatják , de ettől még mindkét VGA nagyívben felrúgja a 300W limitet, csak mert van olyan üzemmódjuk, hogy beleférnek a 300W-ba, amit nyilván senki nem fog használni, mert akkor vett volna egy HD6870-et...
 
Válasz írásához előbb jelentkezz be!
41. Fzoltan
2011.03.10. 15:26
somakb: Igen. Csak a 6990-t 50MHz-el kell visszavenni, a GTX-et meg majd ki tudja mennyivel (ha egyáltalán megoldható, mondom újból). Ettől függetlenül a 6970-ben alapvetően volt dual bios pont emiatt, az 580-ban viszont nincs. Ez nem jelenti azt, hogy az 590-ben sem lenne, de azért valamit sejtet.
 
Válasz írásához előbb jelentkezz be!
40. gezu1025
2011.03.10. 15:28
Nincs értelme arról vitatkoni melyik mennyit fogaszt. Baj, hogy ennyit fogaszt, de szerencsére az ésszerű kategóriában törekednek az alacsonyabb fogyasztásra, ha nem is minden áron... Aki meg 2 gpu-s szörnyet vesz az tisztában van vele, hogy mit kap.

A sebeségen sem érdemes vitatkozni. Egyértelmű, hogy a GTX590 lesz a gyorsabb, márcsak a gf110 miatt is és az nvidia felfogás miatt is. Szerintem a cél náluk az, hogy mindegy mennyit fogyaszt, mindegy ha 6 venti kell rá, mindegy ha mocskos drága lesz csak gyorsabb legyen.
 
Válasz írásához előbb jelentkezz be!
39. Fzoltan
2011.03.10. 15:29
józsef m.: Nem félek én attól, hogy a 6990 vagy az 590 valami hatalmas nyereséghez juttatná mindkét gyártót, OEM ide vagy oda. Hiába a hatalmas ár, kis széria, és ez nem csak a bevételekre, hanem a gyártási költségekre is nagy hatással van.
 
Válasz írásához előbb jelentkezz be!
38. carraroxt
2011.03.10. 15:30
Ha 2x GF110-es konfigot akarsz annyira visszalassítani, hogy beleférjen a 300W-ba könnyen ott találod magad, hogy egy GTX580-at alulteljesít a cucc. Ennek így nem sok értelme lenne, semmilyen szempontból. Épp ezért mondtam, hogy valószínű 2xGF114-es cucc lesz ez ami jön, a sok ködösítés meg csak porhintés. Egy 560SLI konfig teljesítménye igencsak a csúcskategória alját nyaldossa (és mint tudjuk viszonylag tuningbarát is), ráadásul a fogyasztási keretbe is viszonylag könnyen bele lehet tuszkolni.
 
Válasz írásához előbb jelentkezz be!
37. somakb carra...
2011.03.10. 16:03
A 2*GF114 szimplán kevés. a GTX570 SLI is elmarad hajszállal a HD6990 mögött átlagban. Egy 950-1000mhz körülre húzott GTX560 éri be a GTX570-et. Azaz a 2*GF114 akkor is kevés a HD6990 ellen, ha megvan húzva 1ghz-re. Egyszerűen kell a GF110 ide nincs mese. HD6990-nél kisebb teljesítményt meg nincs értelme kidobni.
 
Válasz írásához előbb jelentkezz be!
36. carraroxt
2011.03.10. 16:06
Lehet nem is az NV jelenti be, hanem az EVGA a sajátjaként.
 
Válasz írásához előbb jelentkezz be!
35. carraroxt
2011.03.10. 16:09
Vagy a másik verzió, hogy egy MARS-hoz hasonló szörnyeteget dob ki valamelyik partner erősen limitált példányszámban, és természetesen ebben az esetben magasról tesznek a fogyasztási határokra.
 
Válasz írásához előbb jelentkezz be!
34. Fzoltan
2011.03.10. 16:37
Én is 2xGF114-et várok, lehet, hogy nem lesz 6990 verő, de a közelben lesz. Az, hogy nincs értelme kiadni, olyan nincs. Lesz alternatíva az abszolút csúcson. Ha van egy választási lehetőség egy nvidiásnak, bár igaz, hogy ~5%-al az ellenfél alatt marad, akkor is azt veszi meg és azért is azt fogja magyarázni, hogy az övé jobb. 2xGF110-et én nagyon nem tartok valószínűnek. Pont a carraroxt által leírtak miatt. De 22-én kiderül, hogy mi az igazság.
 
Válasz írásához előbb jelentkezz be!
33. zsolt200
2011.03.10. 16:49
Ha ingyen adnák se kéne, max eladnám!
Ilyen fogyasztás mellett havi 40k villanyszámla
 
Válasz írásához előbb jelentkezz be!
32. jozsefm Fzolt...
2011.03.10. 17:56
Ahogy kb. most is teszik, az 580-al az 5970 ellenében. Lemarad vagy 10-15% -al még a full-HD és ehhez hasonló alacsony felbontásokon is, de nekeik jobb, mert n vidia és kész.
Ettől független mégegyszer mondom ,hogy rá fognak próbálni a csucsra két GF-110-el annak ellenére is ,hogy szólóban is felette van a 300W-nak ,ha sikerül valahogy megoldani azt hogy ne olvassza el a házat.
 
Válasz írásához előbb jelentkezz be!
31. Dragon3k
2011.03.10. 18:03
józsef m. Ha nekem választanom kéne h 5970 vagy gtx580 egyértelműen az nv-t választanám mert ott nem lehet az a gond, mint az 5970nél, hogy szarul megy a cf. Na meg olcsóbb is az 580. Persze ha valakinek szükséges a 3 monitor akkor az 5970 a jobb választás. De nincs szükségem ilyen erős vga-ra és még pénzem se lenne rá.
 
Válasz írásához előbb jelentkezz be!
30. Joachim21
2011.03.10. 18:10
Megint kezdődik. Pedig ezek csak kirakatkártyák. A kisebbség számára a GTS450 - Gtx470 ami még elérhető, a vásárlók nagyobb része pedig ennél gyengébb modelleket alkalmaz. Én személy szerint megvenném ha tehetném, de jelenleg az erőforrások ésszerű beosztását figyelembe véve nem fogom megvenni. Kíváncsi leszek a fórumon találkozunk-e majd 590 tulajjal. Egyáltalán mekkora tornyot kell venni, hogy beleférjen a kártya? Talán a Tt-nek vannak olyan házai amiben kivehető a VGA elöl a merevlemeztartó, és így a kis házban is elfér.

Jah, egy kis szolgálati közlemény, ASUS magyarország facebook oldalán lehet szavazni, hogy hol legyen teszt az új 6990-ről, írjon mindenki h szeretne az iPonon tesztet látni, mert akkor remélhetőleg küldenek egyet kipróbálásra!
 
Válasz írásához előbb jelentkezz be!
29. rabib
2011.03.10. 18:22
A fogyasztás miért kérdéses? HD6990 is 400 watt körül fogyaszt, akkor a GTX590 miért lenne a 300 wattba behatárolva? Két GF110 lesz, fogyasztás 400-450 watt. Az NVidia úgyis megpróbálja a HD6990-et megfogni, kerüljön bármibe. Március 22-én pedig fény derül minden, még most homály fedte részletre.
 
Válasz írásához előbb jelentkezz be!
28. carraroxt
2011.03.10. 19:21
Az a 400W az 336W maximum valójában.
 
Válasz írásához előbb jelentkezz be!
27. carraroxt
2011.03.10. 19:27
[LINK]
 
Válasz írásához előbb jelentkezz be!
26. jozsefm
2011.03.10. 19:37
400-500 MHz közötti magórajellel a rendszer megfelelhet a szabványnak.
Na akkor az szép teljesitmény lesz!
 
Válasz írásához előbb jelentkezz be!
25. jozsefm carra...
2011.03.10. 19:46
Vagy 319 W, ilyen terhelés mellett, ahol az egyetlen 580-as 453W.ot produkál!
Már csak az az érdekes,hogy az európai tesztek miért nem ezt irják?


[LINK]
 
Válasz írásához előbb jelentkezz be!
24. carraroxt
2011.03.10. 19:47
Akkor ezek alapján ~450MHz- es GF110-esekkel milyen is lenne a teljesítménye? 450/772=0,583 Ezt kb 1,8-al szorozhatjuk meg az SLI nem tökéletes skálázódása miatt ami így 1,049 azaz egy hajszálnyi gyári tuningos 580as már gyorsabb lenne...
Továbbra sem tűnik hitelesnek az egész ahogy van.
 
Válasz írásához előbb jelentkezz be!
23. carraroxt
2011.03.10. 19:49
Mondjuk mert +20%-al tesztelnek, miközben a GF-ek meg visszalassítják magukat Furmark alatt.
 
Válasz írásához előbb jelentkezz be!
22. jozsefm carra...
2011.03.10. 20:01
Ahhoz képest az étvágyuk megmarad,...
 
Válasz írásához előbb jelentkezz be!
21. Csaber jozse...
2011.03.10. 20:10
szerintem aki ilyen vga-át vesz nem érdekli a fogyasztás meg amúgy is szereti a hasát
 
Válasz írásához előbb jelentkezz be!
20. carraroxt
2011.03.10. 20:15
Gondolom ott kikapcsolták bennük a furmark védelmet, és a fogyasztásuk ténylegesen felment a maxra (asszem 340W körül van neik a tényleges max).
 
Válasz írásához előbb jelentkezz be!
19. FullGas
2011.03.10. 20:19
Szerintem jó kis kari lesz mind az ATI mind az Nvidia csúcs kártyája..
Azt meg hogy állandóan azon megy az adok kapok hogy melyik mennyit fogyaszt elég unalmas, ezek a kártyák nem azért készülnek hogy minél környezet barátabbak legyenek hanem a puszta a teljesítményért. Aki meg megteheti hogy birtokoljon egy ilyen kártyát az pont le...ja hogy mennyit eszik. Ez az én véleményem.
 
Válasz írásához előbb jelentkezz be!
18. carraroxt
2011.03.10. 20:26
Nem az a lényeg, hogy jaj de sokat fogyaszt, hanem, hogy a megadott konfigurációban egyáltalán lehetséges-e, hogy a működéséhez szükséges energiát fel tudja venni.
Ha csak a fogyasztás számítana, akkor senki nem venne NV kártyát (tyű mit kapok ezért)!
 
Válasz írásához előbb jelentkezz be!
17. Csaber carra...
2011.03.10. 20:48
☻☺☻☺☻☺☻☺☻☺☻☺☻☺☻☺☻☺☻☺☻☺☻☺☻☺☻☺☻☺☻☺ na ezt mind tőlem kaptad rakd ki szépen az ablakba hogy mindenki jól megtudja nézni
 
Válasz írásához előbb jelentkezz be!
16. jozsefm carra...
2011.03.10. 20:51
Ma már semmit ,lefeküdtek, majd holnap!
 
Válasz írásához előbb jelentkezz be!
15. jozsefm carra...
2011.03.10. 21:32
működéséhez szükséges energiát fel tudja venni.

Elvileg 2X150W-ot vehet fel a 8 tűs csatlakozókon, és slottól függöen 75 vagy 150W-ot a PCI-e ból, tehát a 450W-ot két tápcsatlakozó esetében nem lépheti túl, ahhoz már három kell legalább!
 
Válasz írásához előbb jelentkezz be!
14. kinghaxor FullG...
2011.03.10. 21:44
Azért ez sem feltétlenül igaz. Sok olyan ember van aki fél évet/egy évet is dolgozik azért, hogy vehessen egy csúcs számítógépet mondjuk ilyen VGA-val. Na ezek az emberek pont nem a milliomosok. Őket igenis érdekli a fogyasztás, mert még a számlát is fizetni kell.
 
Válasz írásához előbb jelentkezz be!
13. pal07
2011.03.10. 22:50
Ilyen cukor és benzár mellet ilyet venni az csak a tehetősek engedhetik meg .
 
Válasz írásához előbb jelentkezz be!
12. jozsefm
2011.03.10. 22:55
Nem normál, átlag felhasználói igények kielégítésére szánják, arra meg van választék, jobb ár érték aránnyal mindkét gyártónál.
 
Válasz írásához előbb jelentkezz be!
11. carraroxt
2011.03.10. 23:51
Józanul belegondolva az emberek többségének (még az erős gamer vénával megáldottaknak is) bőven elegendő a 6850/460 páros. HD felbontásig bőven visznek azok is mindent. Az affölötti monitorok meg már úgyis csillagászati összegekbe kerülnek, nameg a válaszidejük is rosszabb.
 
Válasz írásához előbb jelentkezz be!
10. jozsefm carra...
2011.03.10. 23:58
Ez teljesen igaz. Egyébként látszik egy-egy hírnél a hozzászólások számából is mennyire tart érdeklődésre számot az adott termék.Azoknál a kártyáknál amit emlitettél már ilyenkorra két három oldal telt meg, de találkozunk is velük a verseny topicokban. Ezzel nem fogunk.
 
Válasz írásához előbb jelentkezz be!
9. tibi27
2011.03.11. 00:13
Hát én ezeknek a dual gpu-s kariknak nem szabnák határt fogyasztásban,ha 600 vagy 700 wattot kel kajáznia,hogy menjen mint atom,akkor fogyasszon annyit,de ha beszabályozzák,úgy meg nem lesznek kihasználva teljesen
 
Válasz írásához előbb jelentkezz be!
8. amd
2011.03.11. 00:20
Az 570 fogyasztása nagyon közel van a 6970 fogyasztásához, 10-20W közötti az eltérés.

Lehet kombinálni, hogy milyen beltartalommal érkezik, de ahhoz azt is biztosra kellene tudni, milyen tápcsatlakozók lesznek rajta. Ahhoz olyan fotó kell, amiről meg lehet tudni biztosan.
 
Válasz írásához előbb jelentkezz be!
7. jozsefm tibi2...
2011.03.11. 00:23
működéséhez szükséges energiát fel tudja venni.

Elvileg 2X150W-ot vehet fel a 8 tűs csatlakozókon, és slottól függöen 75 vagy 150W-ot a PCI-e ból, tehát a 450W-ot két tápcsatlakozó esetében nem lépheti túl, ahhoz már három kell legalább!

Előbb irtam, nem Te szabod a határt, hanem a csatlakozókon átvihetö teljesitmény.
Kihasználni meg 2500-as felbontás felett lehet, addig minden proci limites lesz kb.Nem véletlen akarják ennél is, egy kártyáról a több monitor hajtás lehetöségét.
 
Válasz írásához előbb jelentkezz be!
6. Crytek01
2011.03.11. 00:34
Egy újabb cucc ami nekem soha a büdös életbe nem lesz!

(No ha pénzem van rá itt a tömbházunkban esélytelen a nagy fogyasztású cuccok használata.Olyan az áramhálózat hogy katasztrófa. 10-ből 11szer lekurja a biztosítékot )
 
Válasz írásához előbb jelentkezz be!
5. Fada
2011.03.12. 09:29
Mostanában azért elgondolkoztam egy két GPU-s megoldáson. Az ellene felhozható érveket már ezerszer és ezer helyen leírták, viszont emellé én odatennék két dolgot. Egyrészt építesz egy kétkártyás rendszert, újításkor egyből két kártyától kell megszabadulni, amit nyomott áron oldasz meg, plusz nekem nincsen kedvem 16 éves hülyegyerekekkel alkudozni, akik mindig hatodáron akarnak megvenni mindent, mivel "deazótamárkijöttekújszériák". Teszem azt, egy 5970-essel, vagy egy 6990-essel, GTX 590-essel elvagy úgy másfél-két évig úgy, hogy problémamentesen visz mindent (az 5970 eddig a single-card szegmensben egyeduralkodó volt). Amikor meg két év múlva eljön a csere ideje...elteszem a szekrénybe. Azért van különbség aközött, ha egy kismillió darabos videokártya sorozatból porosodik valami a szekrényedben, vagy egy egyedi megoldás, amit tíz év múlva kuriózumként mutogathatsz. Csak annyit akartam megvilágítani, hogy van ennek egy érzelmi része is (számomra legalábbis; a számtalan logikus, ellene szó érv mellett), kétévente meg ki lehet gazdálkodni ennyit különösebb megerőltetés nélkül.
 
Válasz írásához előbb jelentkezz be!
4. jozsefm Fada
2011.03.12. 09:36
A másik két GPU-s hirnél én is elmondtam ezzel kapcsolatban érveket, és látok benne fantáziát, bár most egy kényszer helyzet miatt kell ezt a távolról sem ideális megodást választani a gyártóknak. Viszint két kisebb teljesitményü GPU egy nyákra helyezésével jó dologlehet ez. Mégiscsak egy kártya, kevesebb helyet foglal a házban, nem kell hozzá CF-SLI-alaplap,táp is egyszerübben kábelezhető, stb.szóval vannak előnyei.
 
Válasz írásához előbb jelentkezz be!
3. _DiEGO_
2011.03.12. 19:53
No még 10 nap és jön
 
Válasz írásához előbb jelentkezz be!
2. jozsefm _DiEG...
2011.03.12. 20:11
Az a kérdés hogyan!? A 6990-es is jön már mióta, és Magyarországon még sehol se látom hirdetve?!
 
Válasz írásához előbb jelentkezz be!
1. carraroxt
2011.03.26. 16:17
Már lehet kapni, több helyen is. [LINK]
 
Válasz írásához előbb jelentkezz be!