iPon Hírek

GeForce GTX 480 csak 480 db shaderrel?

Dátum | 2010. 03. 17.
Szerző | J.o.k.e.r
Csoport | MEGJELENÍTÉS

Az Nvidia március 26-án, azaz picivel több, mint egy hét múlva mutatja be hivatalosan is első DirectX 11-es támogatással ellátott videokártyáit, amelyek a Fermi architektúrára épülnek és a GeForce GTX 400-as sorozatban kapnak helyet. A kártyák a friss hírek szerint majd csak április 6-tól kezdve lesznek jelen kereskedelmi forgalomban, de ez nem meglepő, hisz régóta tudhatjuk, hogy a március 26-ai bejelentés csak egy formális rajt lesz, kevés a kész kártya.

Ami ennél egy picivel meglepőbb, az nem más, mint az Nvidia AIB partnereitől kiszivárgott friss információ. A vállalat a bemutatók alkalmával némi betekintést engedett abba, hogy a GF100-as GPU-tól pontosan mit várhatunk: a lenti képen is látható prezentáció 512 darab CUDA magról, 16 geometriai egységről, 4 raszter egységről, 64 textúrázóról, 48 ROP egységről és 384-bites adatsínről árulkodik. A friss információk szerint a zászlóshajó szerepét betöltő GeForce GTX 480-as modell esetében 512 darab helyett csak 480 shader lesz jelen, azaz a 16 SM tömbből csak 15 lesz elérhető.

Fotó egy korábbi prezentációról.
Ezzel a lépéssel a gyártó valószínűleg a TDP-t próbálja leszorítani, illetve a kihozatali arányt növelni, hogy több kártya kerülhessen a boltokba. A jelenlegi információk alapján a GeForce GTX 480-as modell tehát 1536 MB-nyi GDDR5-ös fedélzeti memóriát tartalmaz majd, amely 384 bites adatsínt használ majd a 480 CUDA magot tartalmazó GPU eléréséhez. A GTX 470-es modell ezzel szemben már „csak” 448 stream processzorral (még egy SM tömb letiltva), 1280 MB-nyi GDDR5-ös fedélzeti memóriával és 320-bites adatsínnel lesz ellátva. A két újdonság közül a GeForce GTX 480-as modell 298W-os, míg GTX 470-es társa 225W-os TDP-vel rendelkezik majd. A végleges specifikációkra már csak alig több, mint egy hetet kell várni, akkor kiderül, hogy az állítások mennyire fedik a valóságot, de ha pontosnak bizonyulnak, akkor ezek a fogyasztási értékek nagyon magasak. Feszültség emelés ide vagy oda, nem lesz könnyű GTX 480-at tuningolni. Viszonyításképpen a két GPU-s Radeon HD5970 TDP-je 294W.

Új hozzászólás írásához előbb jelentkezz be!

Eddigi hozzászólások

88. VergilX
2010.03.17. 16:26
akkor az 5870 ellen is kevés lesz.fölös kiadni
 
Válasz írásához előbb jelentkezz be!
87. jadam92
2010.03.17. 16:28
komoly az nVidia fogyasztásban mint mindíg D (kemény , és drága is lesz)
 
Válasz írásához előbb jelentkezz be!
86. Tirexi
2010.03.17. 16:29
Hát azt hittem nagyobb durranás lesz.
 
Válasz írásához előbb jelentkezz be!
85. spuros
2010.03.17. 16:29
Physx ide vagy oda.. Egyre kezd szinpatikusabb lenni az AMD.. Pedig azt hittem hajthatattlan leszek a Gainward 9800GT GoldenSample óta..
 
Válasz írásához előbb jelentkezz be!
84. VergilX
2010.03.17. 16:34
lol nem tom mér küldte el 2x....
sporus:akk egyszer már bedőltél az nvidia nak,a 9800 is egy átverés volt
 
Válasz írásához előbb jelentkezz be!
83. Svindler
2010.03.17. 16:35
VergilX: nem lesz kevés az 5870 ellen, annál biztos erősebb lesz, nagyon kínos is lenne ha nem. Persze kérdés milyen áron (és nem csak a pénzre gondolok). Sajnálnám ha a kihozatali arány miatt tényleg kukáznák az egyik SM tömböt, de így majd kiadhatják még drágábban a GTX 485-öt
 
Válasz írásához előbb jelentkezz be!
82. spuros
2010.03.17. 16:35
ja hát igen.. de ezt akkor még nem tudtam..
 
Válasz írásához előbb jelentkezz be!
81. Szaby59
2010.03.17. 16:44
Holnap meg jön a hír, hogy csak dx10.1-es
 
Válasz írásához előbb jelentkezz be!
80. Oggy
2010.03.17. 16:47
Miért kéne, hogy gyorsabb legyen?

Jó, valamilyen szinten elvárható, ez tény, ha már ekkora felhajtást csináltak körülötte, plusz az elhúzódó piacraradobás miatt mindenki okokat akar a "megvárakoztatásra".

Nvidia fanclub ugysem vett ati hd5 szériát, 5870nél meg miért kéne jobb?

Sőt, perpill, 57xx széria helyett sem kell jobb, a tesztek alapján csak extrém helyzetekben került 20 alá az fps, valamelyik játéknál...kit érdekel?

Kijön egy gyors kártya, lehet szarabb lesz mint a high end atik, sok ember meg meg fogja vásárolni. Többet ebben nem látok
 
Válasz írásához előbb jelentkezz be!
79. horvathimr...
2010.03.17. 16:52
engem csak az érdekelne, hogy az nvidiánál a számok mindig olyan furák. nem a megszokott 8-as többszörösök. gondolok itt a memória méretre és az adatsínre. ők miért így csinálják?

pl még egy hírt sem olvastam, amiben az szerepelt volna, hogy az nvidia ilyen meg ilyen 1 GB-s kártyája. mindig 75x, 12xx, stb.
 
Válasz írásához előbb jelentkezz be!
78. Tirexi
2010.03.17. 16:55
"csak extrém helyzetekben került 20 alá az fps"

A vicc az egészben hogy pont az extrém helyzetek a leglátványosabbak.
 
Válasz írásához előbb jelentkezz be!
77. thspo
2010.03.17. 16:55
"5870nél meg miért kéne jobb?" mert nem futnak rajta normálisan a DX11-es játékok... A másik meg, hogy ez a 480 sp már nem egy új keletű dolog, hetekkel ezelőtt is lehetett már olvasni róla /bár akkor még valószínűleg csak feltevés volt/
 
Válasz írásához előbb jelentkezz be!
76. atti2010
2010.03.17. 16:58
Inkább ott a bukta hogy kb 5870 teljesítményt a HD 5970 áron fogja hozni és ha kijön az AMD röhögve csökkent akár 20-25% is az áron mert neki már megvan a számítása, valamint akkor hol van még egy középkategória? amin keresni is lehet.
 
Válasz írásához előbb jelentkezz be!
75. VergilX
2010.03.17. 16:58
hát elvileg a teljes (512 cudas) GTX480 lenne erősebb 10-15% al egy 5870 nél.de igy herélve gondolom(a 16 helyett ugye 15 blokk,szal ha jól tudom nem csak a cuda mag lesz kevesebb hanem rop stb..) max olyan gyors lesz mint az 5870
 
Válasz írásához előbb jelentkezz be!
74. viktorxxx
2010.03.17. 17:00
1536/8=192
1280/8=160
512/8=64
480/8=60
384/8=48
64/8=8
48/8=6
16/8=2
...

mi nem oszthato 8-al?
 
Válasz írásához előbb jelentkezz be!
73. LittleDemo...
2010.03.17. 17:03
Tirexi: ha meg a látvány kell akk nem hd57xx-et veszel, hanem hd58xx-et annál jobb ugyse kell még jó darabig jó lesz (ebben a mondtaban jó sok a "jó" )
 
Válasz írásához előbb jelentkezz be!
72. Szaby59
2010.03.17. 17:03
mert nem futnak rajta normálisan a DX11-es játékok.

Melyik?
 
Válasz írásához előbb jelentkezz be!
71. karee26
2010.03.17. 17:06
nekem az 5870-en 8db memóriachip van , akkor gondolom 128mb/db
lehet h csak azért rakják rá a + 2-4 chipet h elmondhassák nekünk eböl is több van
ki tudja?????
 
Válasz írásához előbb jelentkezz be!
70. yeezs
2010.03.17. 17:07
"Sajnálnám ha a kihozatali arány miatt tényleg kukáznák az egyik SM tömböt, de így majd kiadhatják még drágábban a GTX 485-öt"

Kb ugyanez jutott elsőre eszembe, mindig csinálnak reviziókat, finomhangolásokat utólag a kártyáikon és új nevet is kapnak (általában).

Mindenképp erősebbnek kell lennie az amd kártyáknál, különben nem lesz látványos árverseny.

De ez a fogyasztás télleg elég dulva.
 
Válasz írásához előbb jelentkezz be!
69. eff
2010.03.17. 17:18
Itt kap új jelentést a "zöld" videókártya fogalom Mondjuk emellett nem nagyon kell majd fűteni
 
Válasz írásához előbb jelentkezz be!
68. Svindler
2010.03.17. 17:22
horvathimre: ezt már kiveséztük más topikokban párszor, szerintem téged inkább az zavar, hogy nem 2 valamelyik hatványa. Ez azért van, mert a memóriasín határozza meg a modulok számát. Szóval nagyon leegyszerűsítve a memóriasín valahányszorosa lesz a használt memória mennyiség MB-ban.

karee: meg azért, hogy komolyabb memóriasávszélességet érjenek el azt vagy órajelnöveléssel vagy több chippel (nagyobb adatsínnel) tudod elérni.
 
Válasz írásához előbb jelentkezz be!
67. rabib
2010.03.17. 17:49
Ilyen híreket. Még egy ok, hogy a következő VGA-m Ati lesz, nem GeForce. Max majdnem 300 watt? Na ebből a GTX480-ból kell majd 3-at SLI-be rakni. Ja meg mellé egy legalább 1,3 Kw-os tápot.
 
Válasz írásához előbb jelentkezz be!
66. Slider
2010.03.17. 17:51
Na puff. Van egy olyan érzésem, hogy az 5870-et kb 2-3%-al fogja elverni a kártya. NA de mennyiért is lesz hozzáférhető az Nvidia kártyája? Kb egy árban lesz egy ati 5970-el. Ár érték arányban ez nagy cancel lesz.
Nem beszélve arról amit elöttem már sokan elmondtak, hogy az ATI csökkenti az áréait. Aztán már dolgoznak a 6xxx-es szérián.

Hogy miért mondom azt, hogy nem lesz szerintem a kártya nagy szám? Azért mert az NV mindig elárasztja a forumokat ha ATI alázó kártyája közeleg mindenféle grafikonnal tesztel. De most akkora a csend hogy halálhörgést és siralmakat látok.
 
Válasz írásához előbb jelentkezz be!
65. Tom1985
2010.03.17. 17:53
"nem a megszokott 8-as többszörösök. gondolok itt a memória méretre és az adatsínre. ők miért így csinálják?

pl még egy hírt sem olvastam, amiben az szerepelt volna, hogy az nvidia ilyen meg ilyen 1 GB-s kártyája. mindig 75x, 12xx, stb."

"mi nem oszthato 8-al? "


Szerintem itt a tisztelt hozzászóló arra gondolt,h. ezek a számok nem a megszokott 2 hatványai amik az informatikában olyan gyakoriak. Pl. 256-512-1024-2048 stb.

Gondolom költséghatékonysági okokról van szó és persze eltérő tervezési szemléletről.

Míg az Ati mondjuk a "szokásos" ram mennyiségeket használja mostanában 512-1024 mega vga ram (vagy 2048 a maximalistáknak) míg adatsínből 128 bit (az "olcsóbb" és 256 bites a "felsőbb" kategóriákban. Úgy tudom,h. Ati 32 bit széles mem chipeket használ a "széleseknél",emiatt 32*8=256 tehát 8 db mem chip van a 256 bit széles kártyájukon (fotókon meg is lehet számolni mondjuk egy 5870-en) és talán 16 bitest 16*8=128 azaz 8 db chip a 128 bit széles kártyájukon. (pl. 5770) (gondolom vagy 128 megásak lehetnek ezek a chipek méretükben viszont szélességben 32 v. 16 bitesek,ebben nem vagyok 100% biztos)

Ezzel szemben az Nvidia úgy látszik, egy "köztes" utat jár be. Náluk 1536 mega ram és 384 bites sín esetén 32 bit széles chipekkel számolva 384/32=12 db chip lesz a kártyán (és ha ezek mérete 128 mega/db akkor 128*12=1536).
1280 mega vga ram esetén: 320/32=10 db chip lesz a kártyán és ha ezek 128 megásak akkor 128mb*10=1280 mega...

A régebbi Geforce-ok esetén valszeg 64 megás chipeket használtak így 12*64=768 (8800 GTX) és 10*64=640 v. 10*32=320 mega a régi 8800 GTS-ek esetében...

(GTX 260 : 448 bit/32=14 db chip ; 14*64mega/db=896 mega ram... GTX 280: 512 bit/32=16 db chip ; 16*64mega/db=1024 mega ; lehet számolgatni a fotókon a chipek darabjait...)

Csupán tervezési kérdés az egész...

(a pontos államvizsga tételt most nincs kedvem előbányászni a radeonok és geforce-ok memória alrendszeréről
 
Válasz írásához előbb jelentkezz be!
64. markangabo...
2010.03.17. 17:58
AMD röhögve csökkent akár 20-25% is az áron

Erre akkor látok esélyt ha ha jobb lesz a fermi, viszonylag elfogadható áron. De ez egyre inkább felejtős.
Épp ezért, szerintem röhögve nem fog csökkenteni az ATI és pofára fog esni az aki erre vár.
 
Válasz írásához előbb jelentkezz be!
63. pal07
2010.03.17. 18:27
Aki ilyen vga karit vesz annak nem gond a 30ezres villanyszámla.
 
Válasz írásához előbb jelentkezz be!
62. atti2010
2010.03.17. 18:34
markangabor: Ezt úgy értettem ha szorul a kapca, de nem fog és valószínű hogy neked lesz igazad.
 
Válasz írásához előbb jelentkezz be!
61. _DiEGO_
2010.03.17. 18:49
Mi lesz igy a többmonitoros támogatottsággal ....... lemondanak róla hatalmas fogyasztás miatt ? mekkora tápokat kell venni aki ezt szeretne .

GTX480 - 480 Shader

GTX512
....

 
Válasz írásához előbb jelentkezz be!
60. tibi27 _DiEG...
2010.03.17. 18:55
550 w-os chieftec
 
Válasz írásához előbb jelentkezz be!
59. _DiEGO_
2010.03.17. 19:05
2db GTX470 vagy 2db GTX480 többmonitoros módhoz - plusz egy i7 + 8GB ram és a többi kiegészítő .....

550W chieftek - viccelsz ....

Lassan 3Fázisu ipari áramot kell bevezetni tápok miatt 380V - 3 fázisu ...már szebben hangzana ...
 
Válasz írásához előbb jelentkezz be!
58. atti2010
2010.03.17. 19:16
tibi27: Sokat gondolkodtál? A Fermi megzabál 300W+egy hozzá illő proci 150W+ 50W a kiegészítők és már a térdénél a nyelve a chieftek tápnak.
 
Válasz írásához előbb jelentkezz be!
57. ThePoweR
2010.03.17. 19:19
Rabib megtérült ba***tokmeg. Úristen mi történt. Bontsunk pezsgőt!!! Világ nem tom hányadik csodája. 9.? Már van 8. nem?
 
Válasz írásához előbb jelentkezz be!
56. Powerdream
2010.03.17. 19:24
Egy 850W-os 2D ben elbírná a két kártyát.
 
Válasz írásához előbb jelentkezz be!
55. rabib
2010.03.17. 19:44
ThePoweR: Jó ötlet, régen volt már szilveszter. Megtérültem. Igen. Néztem néhány tesztet, és a HD5850 a GTX285-él jobb teljesítményt nyújt kevesebb pízért, és kisebb fogyasztásért cserébe. Arról nem is beszélve, hogy DX11-es támogatású. Nembaj, a 9600 GT-mel azért megvárom az i5 750-et. Jelenleg viszont nincs olyan játék, ami mellett ne lenne CPU limitem a GPU-Z szerint.
 
Válasz írásához előbb jelentkezz be!
54. spuros
2010.03.17. 20:15
Srácok! Megérné GTX 295 vásárlás ezek után? Vagy az már végleg ment a levesbe?
 
Válasz írásához előbb jelentkezz be!
53. rabib
2010.03.17. 20:21
spuros: GTX295-öt kapni se lehet már. Legalábbis újan nem./Itt az Iponon már egy jó ideje nem láttam/ Teljesítménye nem sokkal jobb a HD5870-nél, árban viszont kb. 20 ezer Forinttal drágább volt. A jelenlegi best buy játékra középkategóriában a HD5770, feljebb a HD5850. /Na de ezzel nem akarom mondani, hogy egy GTX275 nem jó manapság mindenféle játékra./ A GTX295 pedig nem más, mint két GTX260 egy lapkán, persze mindkettő GPU "butítva".
 
Válasz írásához előbb jelentkezz be!
52. _DiEGO_
2010.03.17. 20:27
spuros

Az attól függ ... ha magad keresetén veszed-e meg , vagy csak választási kérdés mert fater adja rá a zsét és csakis nvidia GTX295 or GTX470/480 ?

kérdéssel válaszoltam szerintem...
 
Válasz írásához előbb jelentkezz be!
51. spuros
2010.03.17. 20:28
De miért tüntek el ennyire a GTX 295-ök egyik napról a másikra....?
 
Válasz írásához előbb jelentkezz be!
50. Juliska
2010.03.17. 20:32
spuros: Mert szeptemberben EOL-t kaptak. Október óta nem szállítják őket.
 
Válasz írásához előbb jelentkezz be!
49. Fix
2010.03.17. 20:34
Na jó akkor majd a lesz egy HD6870-esem.
 
Válasz írásához előbb jelentkezz be!
48. Multitask
2010.03.17. 20:34
Szerintem sem fog ennek láttán nagy árcsökkentésbe kezdeni az AMD.
Az jutott eszembe a cikk olvasása közben, hogy lehet már így jobb valamivel 480-as, és az 512 cuda magosat megtartják későbbi aduásznak. Még reménykedek!
 
Válasz írásához előbb jelentkezz be!
47. Fix
2010.03.17. 20:35
Addigra szerintem a monitorom is kifingik.
 
Válasz írásához előbb jelentkezz be!
46. spuros
2010.03.17. 20:35
Vagyis? Csak azért értetlenkedek mert nem értem.. Nemrég újúlt meg a 295ös.. Új design.. Szimpla nyák.. Ilyenek.
 
Válasz írásához előbb jelentkezz be!
45. tibi27 atti2...
2010.03.17. 20:39
A gtx280-am kb 280 wattot fogyasztott amikor még megvolt,egy 550 chieftech táppal amit most is használok.
 
Válasz írásához előbb jelentkezz be!
44. tibi27 _DiEG...
2010.03.17. 20:41
Csak a több GPU-s megoldással lehet majd többmonitoros rendszert építeni?
 
Válasz írásához előbb jelentkezz be!
43. Fix
2010.03.17. 20:45
Multitask:
Az AMD-nek még mindig ott van egy lehetősége az HD5890-es személyében. Ha mondjuk igazak a hírek és csak egy kicsivel jobb a GTX480-as és máris bajban van megint az Nv. Mindaddig amíg sikerül GTX480-as ból kitolni mindent a csövön. ....ééés máris ott vagyunk a HD6xxx- es sorozatnál.
Kész szappanopera.
 
Válasz írásához előbb jelentkezz be!
42. _DiEGO_
2010.03.17. 20:51
tibi27

A kérdőjelet cseréld le pontra .

De jelen helyzetben 2db ilyen uj VGA kell ezen esetben ...
 
Válasz írásához előbb jelentkezz be!
41. Svindler
2010.03.17. 20:58
Csak a Surround 3D-hez kell 2, simán két monitort kezel egy VGA is ha desktopot nézed.

spuros: a válasz abban rejlik, hogy a GT200 alapú cuccok lassan eltűnnek. Azért mert sokkal drágább gyártani őket mint a Radeonokat, egy 5870 előállítása jóval kevesebb mint egy GTX295-é, nincs értelme.
 
Válasz írásához előbb jelentkezz be!
40. _DiEGO_
2010.03.17. 21:09
Ahhoz majd minden kártya biztosít lehetőséget , amelyiken van 2db monitor csati... sztem nem erre gondolt
 
Válasz írásához előbb jelentkezz be!
39. Sytyx
2010.03.17. 21:27
Valaki árulja már el nekem, hogy a több monitorhoz miért is kellene egynél több Fermi? Sok "szakértő" van itt szokás szerint. Mondjátok Ati fanos fejjel a hülyeséget. Sokat fog zabálni a GTX480? És a HD5870 talán termeli az áramot? Mielőtt nekiálltok linkelgetni. Igen 3d-hez kettő kell DE CSAK 3D-hez. (Mellesleg ezt az Ati nem tudja, de ez már nem is fontos) Sokan sokszor leírták, de látszik képtelenek vagytok felfogni. A HD 5000-es széria célhardware, míg a GTX 4X0 nem, csak képes helytállni a játékoknál is. Tényleg nem szeretem annyira az nV-t, hogy meggyőződésből védjem vagy elvakultságból, de amit műveltek....
 
Válasz írásához előbb jelentkezz be!
38. StevyXIX
2010.03.17. 21:39
Hírbe volt, hogy lesz az Nvidiának is Ati Eyefinity-hez hasonló több kijelzős technológiája, de két Fermi kell hozzá.
GTX480 annyit fog ezek alapján enni mint egy 5970 vagyis két darab 5870, ez barátok közt is rohadt sok, nem beszélve róla, hogy ahhoz már tényleg kell egy erős táp is, lehet a VX450-em is kevés lenne hozzá és kérdés mit hoz játékokban, mert ezek szerint 5970 szintjét kellene hozni, árban és fogyasztásban már ott lesz, kérdés teljesítményben is. Amúgy 5870 nem fogyaszt többet a 4870-nél ami elég nagy szó azért.
GTX4x0 is célhardver, vagy nem egészen értelek, HD5800 széria is alkalmazható lesz már egyéb általános feladatokra tudtommal, persze ha megírják programba, másrészt itt fórumozók 99%-át szerintem csak a játékok alatt nyújtott teljesítménye érdekli, nem pedig az általánosított számítási képessége.
 
Válasz írásához előbb jelentkezz be!
37. Sytyx
2010.03.17. 22:10
StevyXIX: Veled végképp nem akarok vitázni de most ez mi is? Hírbe volt, hogy lesz az Nvidiának is Ati Eyefinity-hez hasonló több kijelzős technológiája, de két Fermi kell hozzá Épp az a lényeg, hogy ezt az nV 3D-ben csinálja, amihez 2 kártya kell, de sima többmonitorhoz (amilyen ténylegesen a Eyefinty) elég egy is.
Az Ati féle HD 5800as széria kifejezetten játékokra készült, amíg az nV GTX 400as szériája már egy általánosabb kártya. másrészt itt fórumozók 99%-át szerintem csak a játékok alatt nyújtott teljesítménye érdekli, nem pedig az általánosított számítási képessége Ez miért gátolja a fórumozókat a tények és adatok feldolgozásában, illetve megértésében?
 
Válasz írásához előbb jelentkezz be!
36. spuros
2010.03.17. 22:21
Kár.. Pedig egy GTX 295-re nagyon fájt a fogam eddig.. Nagy nVidia fan létemre lehet váltok ATI-ra... Egyre jobban nem szimpatikus amit csinálnak.
 
Válasz írásához előbb jelentkezz be!
35. rabib
2010.03.17. 22:29
spuros: Nem vagy egyedül. Nemrég én is gondolkodtam egy GTX285-ben, de sokba került, ezért letettem róla. Gondoltam egyet, na majd a GTX4-asok... Na mindegy. Ezek se lesznek olcsóbbak. Ha majd lesz GTX4-as VGA középkategóriában is, kb.szeptember felé, talán azokból majd kinézek egyet. De még nem tudom.
 
Válasz írásához előbb jelentkezz be!
34. Juliska
2010.03.17. 22:35
Sytyx: Az NVIDIA Sorround és a 3D Sorround is két kártyával lesz támogatva. Az AMD azért tudja ezt egy kártyából, mert új RAMDAC-ot fejlesztettek. Az NVIDIA évek óta az NVIO-t használja, amit most beépítettek a chipbe.

spuros: Az új GTX 295-öt forgalmazták 3 hónapig. Többet nem kértek a partnerek, mert nem volt rajta haszon.
 
Válasz írásához előbb jelentkezz be!
33. StevyXIX Sytyx
2010.03.17. 22:37
Az hogy mi a fermi általános számítási képességét nem vagy csak nagyon minimálisan fogjuk kihasználni, mi még mindig játékra vesszük a kártyát és nem általános célú műveletek elvégeztetésére.
Ha támogatja a több monitoros megjelenítést egy fermi is akkor annál jobb.
Fogyasztása így is iszonyatos, valószínű az ára is, sokunkat nem fog érinteni ez a kártya, mert ennyiért komplett gépeket állítanak össze.
Mellesleg akkor most ki téved?:
"A gyártó termékénél már elérhető lesz a 3D Vision Surround technológia, amely az ATI Eyefinity technológiájához hasonlóan több nagy felbontású monitor egyidejű használatát teszi lehetővé. A hírek szerint az Nvidia megoldásának ehhez legalább két videokártyára van szüksége, amelyek SLI módban üzemelnek."
 
Válasz írásához előbb jelentkezz be!
32. Sytyx
2010.03.17. 23:15
StevyXIX: Ok menjünk vissza oviba.
3D Visio
n - ergo nem sima többmonitoros, hanem 3D-vel fűszerezve.
ATI Eyefinity technológiájához hasonlóan - A hasonlóan szóra felhívnám figyelmed.
 
Válasz írásához előbb jelentkezz be!
31. Joachim21
2010.03.17. 23:36
Jó isten, csődbe ment az Nvidia... ja nem, csak pár @&Ł$ł írogat baromságokat . Ha nem lesz 512 CUDA mag ki sem érdemes adni, mert 512 CUDA maggal lenne egygivel meg annyival erősebb a riválisnál ... ezt hol olvastad? Tesztelted? Én biztos nem veszek ilyen kártyát, de baromságokat sem írkálok róla, főleg olyan baromságokat aminek alapja semmi, mert még egyedül az Nv prezije ismert, az alapján pedig a 470es is verni fogja az 5870et, de kérdem én, van vkinek vmi hitelesebb forrása is, vagy csak mindenki elővette a kristálygömböt és cigánykodik?
 
Válasz írásához előbb jelentkezz be!
30. dongo84
2010.03.17. 23:44
Remélem, hogy valami nagyot villant az nV. Mert ilyen fogyasztással az hétszentség, hogy nem fognak egy nyákra két ilyen (méretben is óriás) chip-et ráintegrálni. Így tehát egy chippel kell felvenniük a versenyt az 5970-es ellen.
Van egy olyan sanda gyanúm, hogy 10 tesztből éppen, hogy csak 4-ben egy kicsivel jobban fog teljesíteni a fermi. A maradékban meg lehet még jól le is lesz maradva....
Szerintem ebben a generációban az ATI technikai K.O.-val fog nyerni. De ne legyen igazam.
 
Válasz írásához előbb jelentkezz be!
29. _DiEGO_
2010.03.17. 23:50
Sytyx

Ajjaj , nyelvtan / szövegértés .... vagy úgy érted helyesnek , ahogy magad felé cseng ?

A gyártó termékénél már elérhető lesz a 3D Vision Surround technológia, amely az ATI Eyefinity technológiájához hasonlóan több nagyfelbontású monitor egyidejű használatát teszi lehetővé. A hírek szerint az Nvidia megoldásának ehhez legalább két videokártyára van szüksége, amelyek SLI módban üzemelnek.
 
Válasz írásához előbb jelentkezz be!
28. Juliska
2010.03.18. 00:21
Joachim21: Sajnos az NVIDIA prezentációja egy szintetikus viszonyokat felépítő benchmarkra épül. A játékokat folyamatosan mellőzik. Az interneten felbukkant minitesztek is magas felbontásban születtek. Feltételezéseim szerint megpróbálták az 1 GB-os memóriából kifuttatni a Radeonokat. Én a szakmán miatt GeForce-ra vagyok kényszerítve, de játékra most a Radeon jelentősen jobb. Technikailag jó helyre helyezték a hangsúlyt és jó stratégiát alakítottak ki, ennek most élvezik az előnyeit.
A Fermi felépítése számomra csak akkor érthető, ha a játékokban mutatott teljesítmény volt a legutolsó szempont a fejlesztés alatt. Más esetben problémák vannak. Túl erős a geometriai feldolgozó, amihez a raszteres feldolgozás már nem passzol. A textúrázók száma nagyon kevés, még jitter mintázás mellett is vérszegény az elérhető kapacitás. Érthetetlen a gyorstárak mérete is. 64 kb helyett egy 16+32-es felosztás célravezetőbb lenne. A mai játékok eltérő felépítése miatt szerintem az interpolációt is emulálni kellene. Rengeteg kihasználatlan integer ALU van a CUDA magokban, ezek a játékok alatt csak malmozni fognak.
 
Válasz írásához előbb jelentkezz be!
27. StevyXIX Sytyx
2010.03.18. 00:32
Előttem írták, hogy ahhoz is két fermi kell, meg linkeltem is és cikkben is az áll, hogy kettő kell, de igazából az se érdekel, ha egy fermire Mo összes monitorát rákötheted, mert büdös életbe nem lesz 150k-m rá, esetleg ha megnyerem a lottót, de akkor meg teszek rá mennyi az ára.
Igen hasonlóan, mivel Eyefinity-be is több monitoros megoldásról szól, ügyebár.
Azért én nem bunkóztam veled szerintem, kedves rokon.
 
Válasz írásához előbb jelentkezz be!
26. Fix
2010.03.18. 02:38
ATI stereoscopic 3D -nek nevezi az amd az ő technológiáját (asszem). De hogy most több megjelenítőn is működne passz. De amúgy van valami iZ3D driver amivel ATI-ik is tudják a 3D-s megjelenítést.
Annyira nem merültem el a témában.
 
Válasz írásához előbb jelentkezz be!
25. Svindler
2010.03.18. 03:15
Az iZ3D meghajtók mennek nVidia és ATI kártyákkal is, régebben voltak csak problémáik a GF-ekkel, ezért inkább ATI-t javasoltak, de most már nincs ilyen a honlapjukon.

De hogy letisztázzuk a több monitort is: surroundot nem tud egy Fermi, de simán két monitort bármikor kihajt. A 3D Vision már három monitort használ amihez kell a két kártya, mert egy GF csak két monitort képes kezelni szemben a Radeonok 3-6-jával. Ettől függetlenül ez is egy elég kis réteget fog igazán érinteni, kevesen pakolnak három egyforma monitort az asztalra egymás mellé. A közös a Visionben és az Eyefinityben egyébként az, hogy képesek egy monitorként kezelni a hármat.

Az meg csak magánvéleményem, nem tény, hogy szerintem a jelenlegi nV-s 3D gyenge. Én legalábbis nem szeretem az aktív záras megoldásokat, sok helyen van ilyen, de sok évi TFT bámulás után ez a 60Hz-es CRT-re emlékeztető hatás zavar, főleg, hogy sok játék csak akkor megy ha butítassz a grafikán.

Az új GTX-ekre meg igyekszünk majd időben rátenyerelni, hogy legyen egy jó kis magyar teszt is róluk. Alapos tesztelést kap majd, csak azt sajnálom, hogy a DX11-es kínálat jelenleg még nem túl erős játékokban.
 
Válasz írásához előbb jelentkezz be!
24. pal07
2010.03.18. 09:31
Kimondta hogy nem kapható ujonnan a [LINK][URL=http://www.argep.hu/main.asp?suche=gtx295&sort=preis][LINK]295[/URL] az máskérdés hogy nem éri mármeg ujonnan venni mex használtan valai garisat.
 
Válasz írásához előbb jelentkezz be!
23. pal07
2010.03.18. 09:33
ops az előző nem volt [LINK]
 
Válasz írásához előbb jelentkezz be!
22. Sonny26
2010.03.18. 10:04
Sziasztok!
Friss fórumozóként olvasgatom a sok infót, amiket írtatok és elég érdekes híreket és párharcokat olvasgatok rendszeresen...
Kb. 3 hónapja gondolkodtam erősen én is egy új konfin, mert az "őskori" P4-emen nem igazán fut a sokminden...
De ez sajnos meghiúsult egyéb money-ügyek miatt...
Azóta rengeteget olvasgattam mi éri meg, és mi nem, és a vártam én is a fermit, mit hoz ki belőle az Nv, de értetlenség fogott el. Annyira fel lett fújva a fermi, és mindenki várta a nagy hírt. Erre meg jön a cikk, hogy a GTX480-as is csak butítva jön ki, ráadásul a nagy fogyasztás miatt?? Én függetlenül nézem a két "szállítót", de az nyilván való hogy a Cypress nincs butítva az 5870-en, mégis kevesebbet eszik. Az ATI egyből a maxot adta, jó teljesítménnyel.
És ugyan az 5970-en is egy nagyon picit faragni kellett hogy beleférjen a "300-as gatyába", ráadásul 2 maggal, de cserébe az elvárható dolgokat hozta, szerintem... a másik meg majd jönnek az újabb driverek is idővel, amikkel még egy kis pluszt is lehet remélni, amit kicsirhatni lehet belőlük, és ez az Nv-re is igaz. Szóval szerintem a GTX470/480, most egy kapkodó "válasz" a kérdésekre. Csak szurkálódásnak tűnik, mint a boxban, mielőtt bevinné a "nagy" ütést. És ugye mint tudjuk a harcban a meglepetés ereje igen nagy, majd váratlanul fog jönni az "igazi". Hiába..., a piac is egy háború, csak itt a fegyver a pénz
A lényeg szerintem a középben most az ATI a nyerő, és egy ideig a felsőben is ő lesz, és ha a pénzgondjaim sem lennének, azt venném...
De remélem ezzel az eszmefuttatással nem léptem a "tyúkszemekre"...
 
Válasz írásához előbb jelentkezz be!
21. Melkor
2010.03.18. 10:34
annyira viccesek vagytok. vitáztok egy olyan technológiáról, ami nagyon gyerekcipőben van
Igen valóban az nV 3Dben kínálja azt amit az AMD eyefinitynek nevez.
De ez a 3D ég elég butácska.
És akkor most számolgassunk egy kicst...
2 db GTX4X0 "csoda" /nem kis pénzért/
legalább 2 db 3D-s 120Hz-es monitor /szintén nem kis pénzért/
nV 3D kit: szemüveg + hozzávaló kütyük /megint csak nem kis pénzért/
(tt jegyezném meg h a moziból lopott 3d-s szemüveggel nem, NEM fog menni a dolog )
Tehát ez a technológia kiteszi egy BKV vezető végkielégítésének egy nagyobb hányadát!

Szóval valljuk be, ez nem sok embert fog megmozgatni és az nV sem ezzel fog most áttörést okozni a piacon
 
Válasz írásához előbb jelentkezz be!
20. 7ep3s
2010.03.18. 10:46
Mikor jon a pci-expres 3.0? Kene kicsit nagyobb megengett tdp ugy latszik.
 
Válasz írásához előbb jelentkezz be!
19. StevyXIX Svind...
2010.03.18. 12:35
Az rendben van, hogy két megjelenítőt képes kezelni, de Eyefinity lényege, hogy 2-3 monitort egyként kezel, vagyis felosztja a képet, erre eddigi olvasatomba nem képes egy fermi, hanem kettő kell, de lehet tévedek, ami tekintve ennek az árát majdnem mindegy is, nem sokan fognak 2-3 monitort venni a "fokozott" játék élményért, inkább vesz még erősebb gépet.
 
Válasz írásához előbb jelentkezz be!
18. Melkor Stevy...
2010.03.18. 12:44
Így van .. itt is egyként kezeli a monitorokat, de 3D-ben is képes erre .. ezért kell a 2 kártya.
De arra viszont valóban sehol sincs utalás, hogy ha te szimplán 2D-ben használod a monitorokat, mint ahogy a vörös kolléga, akkor is két kártya kell-e hozzá
 
Válasz írásához előbb jelentkezz be!
17. Szaby59
2010.03.18. 12:44
Mivel max 2-t tudsz rákötni, szerintem nem képes rá, vagy ha igen, majd gondoskodnak róla, hogy kivegyék belőle a "tudást"...
 
Válasz írásához előbb jelentkezz be!
16. Fix
2010.03.18. 12:50
Akkor az ati is tudja a 3d-s megjelenítést csak nem feltétlen három monitoron?
 
Válasz írásához előbb jelentkezz be!
15. Juliska
2010.03.18. 13:07
Fix: A többmonitoros és a 3D-s megoldások külön vannak kezelve. Röviden összefoglalom a lényeget.
Radeon HD5000: Eyefinity technológia egy kártyával három monitort támogat. Úgy tudom már van olyan kártya is, ami hat monitort is kezel. A 10.3-as meghajtóban található 3D megoldások működnek egy és három/hat monitoron is.
Az NV-nek van Surround technológiája, amihez SLI rendszer kell (Fermi vagy GTX 2xx). Ez három monitort támogat. A 3D driver szintén működik egy és három monitorral.
 
Válasz írásához előbb jelentkezz be!
14. spuros
2010.03.18. 16:01
Szerintetek a Fermi megjelenésével mennyire mennek le a GTX 2xx árai? 285-295-re gondolok... Ahol még majd lehet kapni persze újonnan.
 
Válasz írásához előbb jelentkezz be!
13. StevyXIX
2010.03.18. 16:11
Így se nagyon van rajta profit, nem éri meg gyártani túl drága, szóval nem valószínű, hogy olcsóbb lesz, vagy raktár söprés lehet még talán.
 
Válasz írásához előbb jelentkezz be!
12. Juliska
2010.03.18. 16:23
spuros: a GTX 2xx árazása nem az NV-n múlik. Ők már eladták a készleteket, tehát a kereskedő annyiért szabadul meg tőlük, amennyiért akar.
 
Válasz írásához előbb jelentkezz be!
11. spuros
2010.03.18. 17:12
Hát az cumi..
 
Válasz írásához előbb jelentkezz be!
10. bar1984
2010.03.18. 17:50
Nem kéne az Nvidiát enyire támadni, mert egy uj architekturával próbálkozik. Az eddígi chipek felépítésükből adódóan elérték a teljesítményük csúcsát, ezért váltani kell. A nagy késés is ennek köszönhető. 1 vagy max 2 éven belül az Ati is ide fog jutni ugyanis egy adott technológiát nem lehet a végtelenségig fejleszteni. Mert hát mit csinálna az Ati a jövőben megint megduplázna mindent? Hát akkor az egész kártya csak 1 nagy chipből állna. neki is váltania kell. Az nvidia bátrabb volt és ő kezdte de mire az Ati is ide jut addígra az Nvidia már tudni fogja az uj technológia buktatóit és könnyedén fog fejleszteni. Az idő tehát az Nvidiának kedvez. És akkor majd az Ati lessz ott ahol most az Nvidia. Tudjátok a labda egyszer itt egyszer ott...
 
Válasz írásához előbb jelentkezz be!
9. neofery
2010.03.18. 18:10
bar1984 az ATI mindíg modernebb és előrelátóbb megoldásokat hoz ki a piacra.Nem tudom honnan gondolod azokat amiket leírsz de szerintem hallottad valahol valakitől aki is csak hallotta valakitől.Az ATI mindíg modernebb volt csak a driver-ek voltak szarok és ezzel el is mondtam hogy mi a gyengéje az ATI-nak.AzNvidia most csúszik de volt már ilyen mással is.Nem baj hogy az ATI-AMD egy kicsit szorongatja a tökét a kettő riválisnak.(Intel,Nvidia)Jó mind a kettő gyártó terméke.Ez már csak hitvallás.Szerintem nem ezen kell vitatkozni az embereknek vagy csak ennyi problémájuk van?
 
Válasz írásához előbb jelentkezz be!
8. Fix
2010.03.18. 20:06
Miért az ati kung-fu ja sem volt jó a HD3xxx család idejében mert ők is fejlesztettek. Aminek a gyümölcsei majd a HD4xxx-es szériával kezdett beérni az HD5xxx -nél meg meg is érett.
Én csak attól tartok, hogy az ati most egy kicsit leül és megpihen és a HD6xxx -es majd valami 5xxx-es tupírozása lesz. De ne legyen igazam.
Minden gyártónak vannak mélypontjai. Az Intelnek is volt olyan amikor az AMD megoldása jobb volt. Most az Nv esett bele abba bizonyos gödörbe. (szerintem)
 
Válasz írásához előbb jelentkezz be!
7. _DiEGO_
2010.03.18. 21:57
Fix

Te nem vagy tisztában egy HD3850 512MB GDDR3 erejével , de nagyon nem

Ha lenne egy ilyen karid , mert nekem van , akkor nem írnál butaságot , de van egy HD4850 512MB GDDR3 is másik gépben ...
 
Válasz írásához előbb jelentkezz be!
6. Fix
2010.03.18. 22:16
Én az akkori Nv megoldáshoz viszonyítva írtam. (Pubi)
Na nekem meg egy HD4870 512MB van a gépemben. És nincs is vele bajom.
 
Válasz írásához előbb jelentkezz be!
5. StevyXIX Fix
2010.03.18. 22:53
Már most is duplázott, HD5870 két 4890 egybe integrálva, szóval már most is ezt csinálja az Ati, persze azért ezt-azt beletett, de új fejlesztésről nem beszélhetünk.
Nvidia meg folytatja amit elkezdett a GTX2xx szériával, bazi nagy és bonyolult gpu-kat tervez, de már nem kifejezetten játékra, előbb utóbb ki fog csúszni a játékiparból, mert senki nem fog egy egyébként nagy kapacitású és számítási képességgel rendelkező akármilyen műveletre általánosítható VGA-ra százezreket kiadni, már most is kérdéses a Fermi szereplése, ill piacon milyen helyzetbe kerülhet, ez még nem is lenne gond, lehet odaver az 5970-nek is a GTX480, ez mind szép és jó, de mi lesz a közép és alsó kategóriával (ami talán a legnagyobb piac az integrált VGA-k után, vélhetően)? Kétlem, hogy 80%-ban hibás Fermik jelennének meg belépő szintre, kicsi vicces lenne, esetleg újabb ráncfelvarrás GTS450 néven? Vagy marad a mostani GT210/220/240 és a jó öreg GTS250? Kettő közt megint nagy űr tátong, mert GTX260 GTX275 GTX8x már ezek szerint el fog tűnni, ide mi kerül?
Én nem látom jelenleg teljes termékpalettát az Nvidia részéről, de valaki világosítson már fel, ha vannak ilyen jellegű tervek, mert a Fermi az oké, de kb a "gamer" társadalom 1%-át ha érinteni fogja, java részt nem adnak ki többet VGA-ra 50-60k-nál, én is 35k-t vettem a jó kis 4850-em (nem mintha cserélni szeretném, jó darabig tervezem még tartogatni ezt, monitorom is 1680x1050-es, ehhez meg elég az 512MB-os is).
 
Válasz írásához előbb jelentkezz be!
4. Fix
2010.03.18. 23:07
Hát én amit itt a pletykákból levettem, köze nem lesz a GTX480-nak a HD5870-eshez max csak az ára meg a fogyasztása.
 
Válasz írásához előbb jelentkezz be!
3. Juliska
2010.03.18. 23:08
StevyXIX: Nem vagyok benne biztos, de úgy hallottam, hogy az Nvidia még a múlt évben törölt kép chipet, ami pont a hiányos kategóriába nevezett volna. Azt hiszem GT214 és GT212.
 
Válasz írásához előbb jelentkezz be!
2. Fix
2010.03.18. 23:10
Hülye. HD5970-est akartam írni.
 
Válasz írásához előbb jelentkezz be!
1. Prosac17
2010.03.20. 04:00
neofery Én meg nem tudom te honnan hallottad ezt ha volt is olyan hogy az ati előbbre látó volt az nem most van

szerintem bar1984-nek van igaza
 
Válasz írásához előbb jelentkezz be!