iPon Hírek

Napokon belül itt a GeForce GTX 46x?

Dátum | 2010. 05. 12.
Szerző | J.o.k.e.r
Csoport | MEGJELENÍTÉS

Az Nvidia GeForce GTX 460-as - vagy a legfrissebb információk szerint GTX 465-ös, de a továbbiakban GTX 46x - videokártyájának specifikációival kapcsolatban szinte minden fontosabb adat kiszivárgott már, így jelenleg csak az a kérdés, hogy a termék vajon mikor kerülhet végre kereskedelmi forgalomba. Néhány európai webáruház kínálatában már feltűnt a GeForce GTX 400-as család harmadik tagja, így most már némi támpont is van a kártya várható érkezésével kapcsolatban.


Akik a korábbi híreket nem olvasták és kíváncsiak a GeForce GTX 46x modell várható – nem hivatalos – specifikációira, vessenek néhány pillantást a témával kapcsolatos legutóbbi hírünkre. A legfrissebb értesülések holland webáruházak jóvoltából szivárogtak ki. A webshopok az újdonság specifikációival kapcsolatban eléggé szűkszavúak, gyakorlatilag semmit sem árulnak el azzal kapcsolatban, hogy mire számíthatunk a kártyával kapcsolatban. A terméklisták szerint – amelyek egy részét azóta valószínűleg az Nvidia határozott kérésére eltávolították – a GeForce GTX 46x ára 284 és 322 euró között mozoghat majd, azaz a korábban feltételezett 285-295 dollár körüli induló ár valószínűleg helytálló. Egyes webáruházak azt állítják, hogy az új kártya 4-7 munkanap múlva lesz elérhető, míg mások valamivel realistább módon 10-20 nap várakozási időről beszélnek a termék esetében.

A meglehetősen érdekes kiszivárogtatások alapján most már nem lehet túl messze a GeForce GTX 46x modell hivatalos megjelenésének időpontja.

Új hozzászólás írásához előbb jelentkezz be!

Eddigi hozzászólások

34. rabib
2010.05.12. 20:24
GTX46x: a középkategória felső részébe fog tartozni szerintem. Azért nagyon kíváncsi leszek a hőmérséklet/fogyasztás/ár/teljesítmény négyesre.
 
Válasz írásához előbb jelentkezz be!
33. axe
2010.05.12. 20:51
én ezt most elmondom neked: hőmérséklet, fogyasztás egekben, teljesítményhez képest horribilis ár.
 
Válasz írásához előbb jelentkezz be!
32. Joachim21
2010.05.12. 21:43
HD5850es árában lesz valahol, melegszik majd mint egy kazán és sokat is fog fogyasztani, afféle 5830 féle kényszerpálya eredményeként született kártya lesz, de biztosan nem egy sikersztori.
 
Válasz írásához előbb jelentkezz be!
31. lajthabala...
2010.05.12. 23:03
A fogyasztás esetén a "sok" elég lazán értelmezett fogalom. A GTX470 átlagos játék alatt mért fogyasztása 63%-al(http://www.techpowerup.com/reviews/ASUS/GeForce_GTX_470/28.html), magasabb, mint a HD5850-é. Az sok ám! 60W. Tehát ha égve hagysz egy hagyományos izzót, miközben a HD5850-el játszol, akkor ugyanott vagy.

Ha a 450W-os táp nem 85%-os, hanem csak 70%-os, akkor 67W-al fogyaszt többet a géped. Ezt a 67W-ot a tápban adja le, amit egyetlen 12cm-es ventillátor hajt ki a gépből, a 70%-os tápra - és rosszabb FSP tápok is vannak - senki sem panaszkodik bőszen...

Ami meg a melegedést illeti, 60W-tól annyival lesz melegebb a szobában, mint ha égve hagynád az elején említett izzókörtét.

Fel kéne egy kicsit ébredni, és nem csak a számokat, hanem a mögöttes tartalmat is felfogni.
 
Válasz írásához előbb jelentkezz be!
30. |nsane
2010.05.12. 23:21
rabib
előre megmondom neked
hőmérséklet/fogyasztás: 92C foknál venti szabályozás/ 215-225W TDP tök ugyanaz, mint a 470-é vagy picit több
ár/teljesítmény: 280-320 euróig/ ATI 5830-5850-között, inkább 5850-t fogja súrolni, de elégé elmaradva egy GTX470-től.

Szerintem aki követte a híreket az mind hasonló adatokban gondolkodik.
 
Válasz írásához előbb jelentkezz be!
29. Terror
2010.05.12. 23:24
lajthabalazs - Az most komoly, hogy a melegedés alatt te a szobahőmérséklet emelkedését érted? Amúgy nekem 60 Watt nagyon is sokat számít, a gép, ami előtt most ülök, ennyit eszik összesen, és mi most két videokártya fogyasztásának különbségéről beszélünk, hol van még az egész gép...
 
Válasz írásához előbb jelentkezz be!
28. |nsane
2010.05.12. 23:45
Több, mint valószínű fogyasztással hasonló gondok lesznek, mint a 5850, 5830-as párosnál, mert hiába van lapka jelentős része letiltva 46x-en a 470-hez képest a fogyasztás marad 215 watt+ felett ami max leterhelve 250 wattot is elérheti.
512 CUDA magból 384 darab aktív mag éli túl a kiherélést. A memóriavezérlő is meglesz csonkítva 384 bitesből 256 és a ROP blokok száma is csökken, csak 32 darab blending egység marad a 48-ból. A tranzisztorokról nem is beszélve. A fedélzeti memória pedig 1 GB lesz. 600 MHz körüli mag, 1215 MHz-es shaderórajel és memórialapkák pedig 3,2 GHz-en ketyegnek.
 
Válasz írásához előbb jelentkezz be!
27. |nsane
2010.05.12. 23:48
Én az árverseny miatt is bizakodva várom a legjobbakat.
 
Válasz írásához előbb jelentkezz be!
26. YuGabe
2010.05.13. 00:18
Utálom a zöldeket.
 
Válasz írásához előbb jelentkezz be!
25. jozsefm |nsan...
2010.05.13. 06:24
Az 5850-es fogyasztásával semmi gond nincs , főleg a teljesitményéhez képest,az 5830-assal kapcsoltban Igazad van.Ez mindkét gyártmány esetében azért van mert korántsem csak a letiltott részekben lévő magok egyenkénti fogyasztása nagy
 
Válasz írásához előbb jelentkezz be!
24. lajthabala...
2010.05.13. 06:44
Terror
Azt nem vitatom, hogy a 150W-os átlagos fogyasztás - DC ágon mérve - túlzás egy kártyától. A gép, amit játékra használok (P35, E6300, HD5750, 2X1G Dominator, Caviar Green) egy gyenge FSP táppal konnektorból nem fogyaszt peak 150W-ot 3DMark akatt.
kártyát vesz, valószinüleg nem várja ki a végét. De pont ezért tartom viccesnek, hogy arról beszélgetnek emberek, hogy egy 100e Ft-os kártya (GTX470) 60W-tal többet fogyaszt, mint egy másik. Hiszen a kártyával szerelt gép valószínüleg nem áll meg 300W-nál, főleg, ha tunningolják a processzort. Ha a bika gép képét egy TV-n akarja élvezni a játékos - mert egyébként minek az erő, ha nem látszik rendesen minden pixel és minden szín - akkor az hozzáad még 120(40" LED)-400W(50" plazma)-ot.

Szóval szerintem a zöldséget nem ott kell elkezdeni, hogy 60W-ot sórolsz a High-End kártyánál, hanem ott, hogy meg sem veszed.
 
Válasz írásához előbb jelentkezz be!
23. silentfrog lajth...
2010.05.13. 08:09
lajthabalazs.: Hát pont erről van szo.
Nem kell megvenni,ha van ugyanolyan teljesitményű, egyárban vagy olcsobban ami nem fogyaszt annyit.
Lehet modani hogy 50watt nem sok de a következö kártyájuk még 60 wattal többet fogyaszt akkor arra is azt mondjuk,hogy nem sok igy soha sincs vége.
Bár nálam amennyit megy a gép /kb 250/ora6ho / évente majd egy tizessel kerül többe a "60watt nem sok "
 
Válasz írásához előbb jelentkezz be!
22. nattila77
2010.05.13. 08:12
fogyasztás -> melegedés -> zaj

ez az igazi gond, nem az h a 2 órányi játék alatt elfogyasztok + 10 forintnyi áramot
 
Válasz írásához előbb jelentkezz be!
21. pal07
2010.05.13. 09:49
lajthabalazs: mostani plazmák egyike sem eszik 400w-ot nekem 2éves van és fogyimérővel mérve 150 és 260 között ingadozik .
 
Válasz írásához előbb jelentkezz be!
20. lajthabala...
2010.05.13. 10:53
silentfrog
Jól számolsz, de nehéz elhinni, hogy napi 8 órán át terheled a videokártyát 3D-s alkalmazásokkal. A "nem kell megvenni"-t a felsőkategóriás gépre értettem. Az XBox 360 150W-os táppal érkezik, a PS3 95W-ot fogyaszt játék közben, és futnak rajtuk a mai játékok. Szerintem ezeket kéne PC-ben referenciának tekinteni.

pali07
50"-os, 2009-es csúcs panasonic plazma, Power consumption rated: 589W, on mode average: 290W, amit valószínüleg filmekkel (sok sötét) értek el.

nettila77
fogyasztás -> melegedés
melegedés + sok pénz -> halk hűtés (passzív víz, fázisváltásos hűtés, átgondolt léghűtés, +1 szoba a gépnek, ahonnan csak a jel jön ki...)

Az, hogy a gyári hűtő szar, nem azt jelenti, hogy nem lehet jobban, csak azt, hogy nem annyiba fog kerülni a végén a kártya, processzor, ami az árlistára van írva, mert mondjuk kell egy nagy-torony ház, 6 jó 12-14cm-es ventillátor, bazinagy passzív bordák...
 
Válasz írásához előbb jelentkezz be!
19. |nsane
2010.05.13. 12:17
józsef m.
Kösz, hogy szóltál.
Bocsánat elírtam az 5850-hez képest sokat eszik a 5830. Én így gondoltam csak bután fogalmaztam meg.

Nekem van olyan érzésem, hogy az AMD az új Nvidia kártyák végett (vagy miatt? sose tudom melyik kel ) nem fog engedni az árakból, csak akkor fognak lemenni a 5xxx kártyák árai ha kijön az ATI 6xxx széria. Mert nagyon úgy tűnik, hogy az AMD-t hidegen hagyja (vagy inkább nem tartja úgy, hogy engedni kéne az árakból) mit is csinál az Nvidia.
 
Válasz írásához előbb jelentkezz be!
18. Xenio
2010.05.13. 13:03
lajthabalazs

Ez mind szép és jó amit leírtál, de ezzel pont saját magad alatt vágod a fát, mert oké, hogy lehet rá venni másik hűtést stb, de ha megnézed, h alapból többe kerül egy nv kártya ami jobban melegszik, hangosabb(ergó új hűtést kell rá venni ami megint pénz), akkor egyértelmű sztem, h melyik kártya éri meg jobban az árát!
 
Válasz írásához előbb jelentkezz be!
17. oliba
2010.05.13. 13:19
Észrevehetnéd, hogy ő kőgazdag, és leszarja az ilyesmit Megteheti, ennyi. Plazatv 500W-ot fogyaszt, mi az a 60W
 
Válasz írásához előbb jelentkezz be!
16. kiskoller
2010.05.13. 13:20
én is rühellem a zöldeket ezzel a hozzáállással.. képmutatás az egész, vagy nem érti a lényeget. nekem teljesen lényegtelen az a +60w..
ha te ennyire szeretnéd megvédeni a Földet (ami amugy becsülendö) ne ezen a 60W-on lovagolj, hanem mondjuk ha lemész a boltba sörért altasd el a géped, kapcsold ki a monitort, ne használd 0-24ben a géped.
aki meg a melegedésre panaszkodik.... no comment. ha normális házad van (nem feltétlen 10 db ventis empire sate buildingre gondolok) és normálisan raktad össze a géped (a tápkábelek nem a venti elött 2 centire vannak összekötözve) akkor nem fog beolvadni a géped, megnyugtatlak. Persze, jobb az Ati most (én azt vennék ha kellene egy uj VGA), de nem kéne állandoan ezen a fogyasztásos hömérsékletes mizérián lovagolni mert már nagyon unalmas.
 
Válasz írásához előbb jelentkezz be!
15. jozsefm
2010.05.13. 13:30
|nsane
Hogy öszinte legyek én is elég csalódott vagyok vele kapcsolatosan/NV/mert számitottam rá mint lehetőségre.Az pedig ,hogy az ATI 6xxx-széria megjelenése esétén
mi lessz az 58xx-57xx sorsa elég homályos, attól tartok ezek nem olcsók lesznek hanem
eltünnek a termékkinálatból és az ő áraikon kapjuk a 6000-es szériát
Márpedig az 58xx minden darabja "feláras"volt konkurens hiján,és az is maradt mert
az ellenfél ár-teljesitmény mutatója nem versenyképes velük.
 
Válasz írásához előbb jelentkezz be!
14. rabib
2010.05.13. 14:04
Ati HD6xxx szária jó lenne, ha év vége felé már kapni lehetne mondjuk egy HD6770-et. Arra leszek én kívácsi, hogy az NV-nek az új GTX4xx kártyái közül egyáltalán lesz-e olyan, ami nem kér legalább egy 6 pines tápkábelt? A HD6xxx-ek ellen meg el se merem képzelni, hogy milyen GeForce-ok jönnek...
 
Válasz írásához előbb jelentkezz be!
13. Phantomstr...
2010.05.13. 14:37
rabib: "A HD6xxx-ek ellen meg el se merem képzelni, hogy milyen GeForce-ok jönnek..."

Hát sokáig semmilyen. Ezt is fél évbe telt kiimádkozni a gyárból. Most egy még erősebb kártya ellen, egy még nagyobb, komplexebb lapkát mennyi idő alatt terveznek, optimalizálnak és kezdenek el gyártani? A kihozatali arányba meg már bele sem merek gondolni. Ha az NV meg akar maradni az asztali PC-k piacán szemléletváltás kell.
 
Válasz írásához előbb jelentkezz be!
12. rabib Phant...
2010.05.13. 14:50
Igen, másképp tuti, hogy előbb vagy utóbb nem tudják majd hova bonyolítani a VGA-kat, és akkor az Ati egyedül marad a PC piacon, NV meg nem is tudom.
 
Válasz írásához előbb jelentkezz be!
11. rini
2010.05.13. 15:01
Az nV-től most jó ideig nem fogunk látni új fejlesztésű kártyákat. Ezeknek a kártyáknak a finomítása, csiszolása, optimalizálása fog történni. A leszűrt tapasztalatok alapján szépen tovább fejlesztik. Viszont az alapkártyák befutása után sokkal gyorsabban érkezhetnek a fejlesztet verziók, hiszen az alap már meg van.

Az AMD-nél is csak az 5000-es sorozat finomítása fog történni egyenlőre és csak a következő széria lesz új fejlesztés. Viszont ha a teljesítményben is jelentősen előbbre akarnak lépni akkor növelniük kel jelentősen a tranzisztor számot. Ez pedig nagyobb fogyasztáshoz és ezáltal nagyobb hőmérséklethez vezet. Ezt csökkentheti a kisebb csíkszélességű gyártás. (Ez vonatkozik akkor az nV-re is). Mivel az már egy új architcetura lesz, míg az nV már addigra kiforrott, bejáratott rendszerrel fog rendelkezni.

Én legalábbis így látom ezeknek a közeli jövőjét.
 
Válasz írásához előbb jelentkezz be!
10. rabib rini
2010.05.13. 15:11
Még több tranzisztor? Így is 3 milliárd van az egy GPU-s Fermiben, na ha ennél is több lesz, akkor a TSMC-nek a haja égnek fog állni.
 
Válasz írásához előbb jelentkezz be!
9. |nsane
2010.05.13. 16:06
Az a baj sokan össze akarják hasonlítani az ATI és a Nvidia üzletpolitikáját, miközben annyira eltérő úton járnak, hogy egyszerűen semmi közük nincs egymáshoz.
Nvidia mindig is azon törekedett, hogy az övé legyen a leggyorsabb egychipes videokártyák, miközben nemérdekli a fogyasztása, melegedése, hangossága (persze a Ferminél hiába nem érdekelte a fogyasztás, a 300 wattos TDP-be bele kellett férnie a kártyának, ezért is van megcsonkítva)és még az árazás is sokkal nagyobb lehet így, hogy Nvidia-é a leggyorsabb egychipes videokártyák cím. Ez már így megy nagyon régóta pl.: 8800ultra GTX 280-285 és most a GTX 480.
Vagyis az Nvidia a gazdagabb (pénzesebb) réteget célozta meg, ahol kiadnak több pénzt a legerősebb VGA-ért. Ez az üzletpolitika sajnos az NV-nél kihat az úgymond gyöngébb kártyákra is. Vagyis a főbevételforrást elúszik, ezzel kihatnak ránk vásárlókra is és igencsak kedvezőtlenné teszik azok számára, akiknek ezek a szempontok számítanak és itt az ATI érvényesül a jobbnak.
Csakhogy ha késik a projekt így a felsőkategóriás VGA piac is elveszik, mert félévig nem volt konkurenciára válasza az Nvidia-nak.
 
Válasz írásához előbb jelentkezz be!
2010.05.13. 16:15
Így van, annyit tennék még hozzá, hogy az Ati is hajt arra, hogy az övé legyen a leggyorsabb 1 GPU-s, és a világ leggyorsabb videokártyája cím. Viszont az Ati nem bármilyen áron törekszik erre. A HD5870-nek nincs nagy fogyasztása, annyira nem is melegszik, erő van benne jó nagy, az ára meg igaz, lehetne alacsonyabb, de mivel a "hivatalos ellenfele," a GTX480 140 ezer körül van, és csak egy kicsivel tud többet nála, ezért a HD5870 ára maradni is fog 90-120 ezer közt. Ugyanez igaz a HD5850-re is, a HD5970-nek meg nincs ellenfele.
Igazábó ez olyan dolog, hogy hol az Ati-é a leggyorsabb videokártya, hol az NV-jé.
 
Válasz írásához előbb jelentkezz be!
7. |nsane
2010.05.13. 16:26
Igen az a 3 milliárd nagyon sok, de egyben kevés is. Mert a Nvidia-nak sokkal rosszabb a tranzisztor kihozatali aránya a Nvidia-hoz képest.
Ezt be is mutatom nagyon egyszerűen:
Fermi 3 milliárd tranzisztort tartalmaz, melyek állítólag 529 mm²-es (23 x 23 mm) területen oszlanak el.
Cypress 2,15 milliárd tranzisztort tartalmaz és 334 mm² (18,27 x 18,27 mm)területen oszlanak el.
Vagyis vegyünk egy 300 mm-es waferen 112 darab felhasználható chip gyártható le a Fermin és a Cypressből ehhez képest 188 darab.
Vagyis ezáltal sokkal jobb az ATI gyárthatósága, kisebb a hibás a chip esélye, több tranzisztor helyezhető el rajta kisebb fogyasztással->melegedéssel->és még halkabb is lesz tehát nem kell rá vízhűtés se valamilyen gyártó által készített egyedi megoldású ventilátoros hűtés.
Viszont az AMD-ATI oldalon is vannak gondok pl.:
Az AMD a számolást helyezi előtérbe a textúrázással szemben és ez jó, meg szép is, csak épp a játékoknál nem mutatkozott eddig. Az Nvidia ezzel szemben komoly hangsúlyt fektetett a textúrázásra, ennek azonban a Fermivel "vége szakadt".
A nagy hátránya az ATI-nak a munimum FPS-ek amik jóformán a földet súrolják néha és a Nvidia-nak pedig ez az egyik legnagyobb előnye a játékokban
 
Válasz írásához előbb jelentkezz be!
6. rini
2010.05.13. 17:41
Nem a tranzisztor kihozatali aránya rosszabb. Az azonos csíkon ugyan olyan. Itt a probléma a mag méretével és összetételével van. Viszont gondoljál bele, hogy ha az AMD nem változtat a stratégián akkor a következő kártyájukra 4,3 milliárd tranyot kell tenni. Ha kisebb csíkszélességet(2 is figyelembe vesszük akkor is a mag mérete az 500-hoz lesz közel. Ez hasonló méret már mint az nV mag méret. Ez éppen úgy veszélyezteti már a gyárthatóságot, növeli a fogyasztást és ezáltal a hőtermelést. Ezért kell váltani az AMD-nek is, de a tranzisztorok számát így is növelnie kell. Amúgy most az AMD pont elindult a textúrák felé hisz azt növelte meg a kártyáin, míg az nV pont leépíti a textúra kapacitását.

Az nV-nél pedig pont a fordítottja játszódhat le. A csíkszélesség csökkenésével a 480-as mag mérete jóval kisebb lehet és ezzel kevesebb áram és hőtermelés jöhet létre. Lehet, hogy maradnak hasonló hőmérsékletnél és fogyasztásnál de drasztikusan megemelik az órajeleket. Jelenleg pont a hőtermelés miatt nem tudják ezeket a magas órajeleket használni. Nemrég láttam a guru3d oldalán egy vizes hűtésű tesztet. Ott a hűtés következtében 49 fok volt a 480 idle, és 69fok volt full pörgésnél úgy, hogy közben 28%-ot tekertek a kártyán.

Ezektől független azt mondom, hogy 28 nanométeren a jelenlegi fejlettségi szinten körülbelül 4 milliárd tranyot lehet elhelyezni, de a hőmérsékletek körülbelül a 470/80-as környékén fognak lenni kis eltéréssel. Szerintem a HD 6-os sorozat és a Fermi 2 is valahova ide igyekszik.
 
Válasz írásához előbb jelentkezz be!
5. Fzoltan
2010.05.13. 19:41
rini, |nsane: mi az, hogy leggyorsabb 1 GPU-s kártya??? A HD5970 a leggyorsabb videókártya, ennyi. Tök mindegy, hogy hány GPU. Nem értem... Ugyan az a végeredemény...
 
Válasz írásához előbb jelentkezz be!
4. jozsefm |nsan...
2010.05.13. 21:01
Az utolsó mondatodba még belekivánkozik:a texturázások kivül elég nagy hangsulyt helyzett arra is hogy a játékfejlesztők olyan drivereket irjanak melyek ATI érzékelés esetén nagyobb felbontásnál gyököt vonnak az FPS-ből.Na ennek is valószinü vége szakad.
az 5800-as szérián is lehet még fejleszteni ha akarja az ATI ,már vannak 2GB.memóriával ellátott kártyák
és a sávszélesség is bővithető.
 
Válasz írásához előbb jelentkezz be!
3. rini
2010.05.13. 22:32
A memória megnövelése az nem fejlesztés. 1920-as felbontás alatt semmi hasznát nem látnád vagy csak nagyon - nagyon ritkán. Azt se felejtsed el, hogy ezek a lépések csak drágítják a kártyát, de az átlagos felhasználónak erre nemigen van szüksége.

Fzoltan - Nem mondtam én semmit az egy vagy két magról. Engem ilyen nem érdekel amíg kapok olyan egymagos kártyát ami nekem elég az 1680-as monitoromhoz. Az, hogy kinek hosszabb a fütyije engem nem érdekel, amíg nekem elég ami van. Ehhez egy 4870 vagy gtx 216 erejű kártya elég. Sőt még a dx11 is hidegen hagy ahogy láttam a tesztekben, hogy mennyire visszaesik ennek használatakor a sebesség. Úgysincs idő ezekben az árnyékokban, arcokban gyönyörködni versenyzés vagy lövöldözés közepette.
 
Válasz írásához előbb jelentkezz be!
2. ThePoweR Fzolt...
2010.05.13. 22:42
Fzoltan te a PH-s F_Zolee vagy?
 
Válasz írásához előbb jelentkezz be!
1. adam0205
2010.05.15. 12:39
A DX11 egy parasztvakítás, nem egy kép van ahol látszik, mennyi különbség van ugyanabban a játékban DX10(.1) és DX11 között. Hát nem sok. Egyedül a tesszaláció lenne újdonság, az meg a jelenlegi VGA-kon használhatatlan, és hol vagyunk még attól, hogy majd' minden objektum tesszalációval van előállítva?
 
Válasz írásához előbb jelentkezz be!