iPon Hírek

GeForce GTX 360 és GTX 380 tesztek?

Dátum | 2009. 12. 14.
Szerző | J.o.k.e.r
Csoport | MEGJELENÍTÉS

Az Nvidia DirectX 11-es támogatással ellátott videokártyái valamikor a következő év első negyedévében debütálhatnak a nagyközönség előtt, így még kell némi idő, míg kereskedelmi forgalomban is megvásárolhatóak lesznek. A gyártó néha-néha felkavarja az állóvizet egy-egy kijelentésével vagy fotójával, ám ezt leszámítva gyakorlatilag sötétben tapogatóztunk azzal kapcsolatban, hogy a termékek pontosan milyen teljesítménnyel rendelkezhetnek majd a rivális megoldásaival szemben. Most ennek látszólag vége, ugyanis hivatalosnak tűnő, belső felhasználásra szánt dokumentumok szivárogtak ki, amelyek a GeForce GTX 360-as és GTX 380-as újdonságok teljesítményéről adnak némi képet (persze, ahogy az ilyenkor lenni szokott, főleg az eredményeket elnézve, lehet nem is véletlenül "szivárgott" ki az anyag).

Far Cry 2
Mivel korai tesztekről van szó és a hivatalos dizájnt egy haladó felhasználói is tudja utánozni a megfelelő programok használatával, így a fenti és a lenti képeket, pontosabban diagramokat érdemes erős fenntartásokkal kezelni. A tesztek a kártyák Far Cry 2, Resident Evil 5 és STALKER Clear Sky alatti teljesítményét próbálják bemutatni.

Stalker Clear Sky
Az eredményeket - mivel azok hitelessége erősen megkérdőjelezhető - egyelőre nem kívánjuk komolyabban kommentálni, mindössze  az érdekesség kedvéért mutatjuk be őket.

Resident Evil 5
Nos, ki mit gondol?

Új hozzászólás írásához előbb jelentkezz be!

Eddigi hozzászólások

124. oliba
2009.12.14. 10:20
Azt, hogy most feltámadnak az NV fanok és szétlesz offolva a topik a sok anyázással, mikor ez a teszt a tomászhardveres kitalált tesztre épül, ahol 1,8 és 2GB-ot írtak a fermi ramja mellé, amikor ez lehetetlen. Na támadjanak az NV-sek

"NV a király"
"Le lesz alázva az ati"
"Na én megmondtam"
"Ilyen kell"
 
Válasz írásához előbb jelentkezz be!
123. Csaber
2009.12.14. 10:25
én reménykedek hogy ezek reális erdemények mivel akkor lehet venni olcsón jó kis AMD videókártyát , mondjuk itt csak " Dx10-ben tesztelték"
off:tényleg nem elírás hogy a HD5850-es most 44K??
 
Válasz írásához előbb jelentkezz be!
122. Svindler
2009.12.14. 10:29
Ez sajnos így van, pedig ez még kőkemény sóderbányának minősül. A saját megjegyzésem csak annyi lenne hozzá, hogy a már létező kártyák eredményei sem stimmelnek a saját méréseinkhez képest, de a Fermi normális órajel mellett képes lehet a GTX285 dupláját hozni régebbi (vagy inkább egyszerűbb) játékokban. Persze ott a 600fps nem sokat jelent, inkább az lesz az érdekes, hogy pl. mit nyom egy AvP-ben.
 
Válasz írásához előbb jelentkezz be!
121. oliba
2009.12.14. 10:33
Bár akár elméletileg lehetséges is lenne. Valószínűleg pusztán az otthoni user, csak annyit csinált, hogy kiszámolta, hogy ebben ennyivel több sp van és ennyivel nagyobb a memóriaórajele, akkor kb ennyi meg ennyi lesz az eredmény. Persze matematika gyengesége miatt nem volt már képes kiszámolni, hogy vajon mennyi ram kerülhet fel egy ilyen kártyára, így megszületett a nagyon hangzatos 1,8 és 2,0GB mikor 320 és 384bites memóriavezérlőjük van
 
Válasz írásához előbb jelentkezz be!
120. mihaly.her...
2009.12.14. 10:38
Majd a hivatalos teszteken kiderül, hogy mit teljesít... Addig érdekességként lehet tekinteni az ilyen hírekre, és fenntartásokkal kell kezelni, mert lehet, hogy fake... De az is lehet, hogy nem...
 
Válasz írásához előbb jelentkezz be!
119. Svindler
2009.12.14. 10:41
Mondjuk ami engem is nagyon érdekel, hogy valójában hogy fognak skálázódni ezek a kártyák elődeikhez képest, mert az RV870 duplázásai nem jelentett dupla sebességet. Meg az órajelek cseppet kérdésesek.
 
Válasz írásához előbb jelentkezz be!
118. oliba
2009.12.14. 10:49
Merre van ez a sok NV fan? Még nincs vége gyurmázásnak? Szerintem be sem fogják most őket adni napközibe, mert megkérik az anyucit, hadd maradhassanak, mert NV hír van

Abu most valamilyen 500/1200mhz-es hírt közölt le, hogy ott tartanak
 
Válasz írásához előbb jelentkezz be!
117. mihaly.her...
2009.12.14. 10:59
A DX11-es tesztekre is kíváncsi vagyok... Ott hogyan alakulnak az eredmények...
 
Válasz írásához előbb jelentkezz be!
116. Suicid
2009.12.14. 11:04
na de ezt komolyan, kit érdekel

normális ember nem erre él...ez el.

majd ha te is kinőttél a játékból, és nem az érdekel már hogy a pistikének a nagycsoportból benyöghesd hogy nekem 10-el több lett

nekem is van nv és ati is, nv a blu-ray kodolásban segit , ati meg a blu-ray filmet segiti hdmi-n ,de lehetne forditva

 
Válasz írásához előbb jelentkezz be!
115. slayer1944
2009.12.14. 11:21
Szerintem megtörténhet, hogy normális teszt. Mert végül is nem mindig az nV van felül.
 
Válasz írásához előbb jelentkezz be!
114. somakb
2009.12.14. 11:22
"Merre van ez a sok NV fan? Még nincs vége gyurmázásnak? "

legalább ati fan már van

 
Válasz írásához előbb jelentkezz be!
113. _DiEGO_
2009.12.14. 11:32
Nálam ( 3perc graf) ügyesebbek még jobb eredményeket is kihozhatnak grafikusan

 
Válasz írásához előbb jelentkezz be!
112. TescoZsomi
2009.12.14. 11:37
Ez úgy FAKE ahogy van. A sok hozzá nem értő ember meg beeszi. Egyrészt a VRAM mennyisége sem stimmel, másrészt meg még ki se jött az A3-as revízió próbanyomata amire a korábbi revíziók elégtelen órajelei miatt van szükség. Szóval az nV teljesítmény gondokkal küszködik, amire az első eredmények majd Januárban várhatók, de hidjük el, hogy a gyengébbik változat is szétalázza a Radeonokat. Aha... PowerPoint-ban talán...
 
Válasz írásához előbb jelentkezz be!
111. oliba
2009.12.14. 11:37
_DiEGO_: Ez tuti fék, mivel túl nagy a különbség két GF között

somakb: nemvagyok AMD fan. Örülnék, ha ilyen lenne az új NV, mert akkor olcsóbban tudnék ATi-t venni Ezt csak azért mondom, mert ezekre nincs pénzem
 
Válasz írásához előbb jelentkezz be!
110. oliba
2009.12.14. 11:39
Ja, meg ha így szerepelnének, akkor NV már rég kijött volna velük, mert ha a leggyengébb Fermi is szétalázza a legerősebb radeont, akkor miért nem adják ki a kártyát? Kicsit furcsa
 
Válasz írásához előbb jelentkezz be!
109. TescoZsomi
2009.12.14. 11:42
És ahogy Abu is írta, az lesz itt a gond, hogy az ilyen kamu cuccok túl mags elvárásokat gerjesztenek majd a Fermivel szemben, aminek nem fog tudni megfelelni. Én nem lennék meglepve, ha vmelyik AMD dolgozó kreálta volna a cuccot... Visszavágó...

'-Igen, nV?? Megy nektek a marketing?? Akkor fulladjatok bele!'

'Csóri' nV meg nem tud mit tenni ezek ellen. Nem mondhatja, hogy mégse lesz jó, mert azzal nyílt utat engedne az AMD-nek.
 
Válasz írásához előbb jelentkezz be!
108. _DiEGO_
2009.12.14. 11:42
Mindjárt javítom szebbre - ujratettem igy már valóságosabb ? az alantin lemaradt a szám

 
Válasz írásához előbb jelentkezz be!
107. oliba
2009.12.14. 11:47
Most meg a szám maradt le a kisebbik Fermiről. Akárhogy is próbálod megcsinálni, ez fake

szerk.: látom...már jó. Ez sztem hihető már
 
Válasz írásához előbb jelentkezz be!
106. Sytyx
2009.12.14. 12:05
És a kocka Ati/AMD fanos iPon forumozók csodálkoznak az nV fanokon? Itt mindekni csak lesajnálja az nV-t egy jó Ati széria miatt? Grat. Ti nem vagytok ovisok mi? Vagy az influenzia miatt zárva a bölcsi? TESCO-Zsömle még talán igaz is lehetne a feltevés, hogy az Ati keze van a dologban, DE az Ati ilyet? Ök rendesek és tisztességesek és ....... Rosszat csak az nV csinálhat. Főleg itt az iPon fórumon.
Félreértések elkerülése végett: Nem vagyok nV fan. De a 8800GTX-em nem mai darab és a Gridet is viszi 1440*900-ban minden csilli villi marhasággal. És igen nem dájrektiksz11-es, de még nem haltam bele. Ha egy 4850-es vagy 3870-es Ati lenne helyette az is tökéletesen megfelelne nekem.
Amúgy miért hihetetlen a grafikon? Amikor kezdtek kiszivárogni az 5000-es szériáról az ilyen "adatok" akkor itt vertétek a nyálatokat, hogy WÁÓÓÓ az új Ati milyen isten király lesz. Nem lett rossz ez vitathatatlan, de ezt miért is nem tudná megcsinálni az nV? Vannak nehézségei és lehet bele is bukik, de nem ma kezdte az ipart. Tehát amíg nem vezettek senkit körbe az nV-nél addig ne állítson már tényként marhaságokat. Ez olyan oliba-s, akarom mondani ovis
 
Válasz írásához előbb jelentkezz be!
105. Szaby59
2009.12.14. 12:05
Most nem azért, hogy az nV-t szidjam, de:

Csak nekem tűnik fel, hogy magáról a hardverről egy képet sem láttunk, pontos specifikációk sincsenek még, de teszteredmények már vannak???

@Sytyx: azt a játékot az én Mobility 4650-em is viszi
 
Válasz írásához előbb jelentkezz be!
104. _DiEGO_
2009.12.14. 12:15
Amúgy meg ha AMD csinálta volna a grafikont , akkor meg saját maga ellen dolgozna , nem ? Mert akkor NV hívőket erősítené , hogy skacok érdemes várni mert hamarosan itt a tömeggyártott FERMI csoda - kis türelem nVIDIA-t terem. Ime mit várhatttok ha kitartatok .

AMD -nél sem fejükre ejtett emberek vannak, sőt ... ugye e termékeket jóideje lehet venni is... csak nem győzik gyártani .... TSMC ?
 
Válasz írásához előbb jelentkezz be!
103. Sytyx
2009.12.14. 12:20
Nekem ez a hír egy nemrég teljesen más vonalon megírt cikknek a hasonlatosságának tűnik. Megjelent egy koreai oldalon, a Hanbit oldalán, hogy a Hellgate:London Hellgate:Resurrection címmel fog tovább menni koreai szervereken és majd jön hozzá kieg meg miegymás. A honlapot bárki lefordíthatja (elég silány minőségben) a Google segítségével. Ezt tehette néhány "szakértő" cikkíró és elhintették, hogy lesz EU/USA vonalon is. De mivel ezt a Hanbit soha nem is mondta, most ők a szemetek, hogy nem hozzák erre.
Ez a cikk is lehet valakinek az agyszüleménye, aki unatkozott.
 
Válasz írásához előbb jelentkezz be!
102. Szaby59
2009.12.14. 12:20
Itt mindekni csak lesajnálja az nV-t egy jó Ati széria miatt?

nV-nek is a 8000-es széria volt ami, "ütött" szóval nem véletlen vagy megelégedve a GTX-el, azóta csak átnevezgettek ezt azt, meg kiadnák csökkentett csíkszélességen.
 
Válasz írásához előbb jelentkezz be!
101. straw
2009.12.14. 12:22
oliba: igazad volt!
Szét vn offolva a topic!
 
Válasz írásához előbb jelentkezz be!
100. Sytyx
2009.12.14. 12:29
Szaby59: Egy GTX260-nal tuti elégedetteb lennék. Az is átnevezés? Tényleg botrányos ez a: Minek nevezzelek? mizéria, de csak ezen csámcsogni állandóan? Meg a dájrektiksz 10.1-el. Tudom most meg lehet a másik oldalról fizikszezni. No mind1. Úgy is csak az AMD lehet itt az iPon fórumon a király.
 
Válasz írásához előbb jelentkezz be!
99. norb55
2009.12.14. 12:31
sziasztok!

az Nvidia ezzel a tipussal nagyot fog ütni és ez nem kétség már !

ugyanis áttér a jóval erősebb GDDR5-ös memoriákra sávszélességbe eddig is gyorsabb volt az Nvidia az ATI-nál.

a GPU-i az Nvidiának sokkal alacsonyabb órajeleken üzemelt és úgy tudott hozni kimagasló eredményeket célzok a 8-as seriára felső kategoriára az ATI -t a földbe döngölte és sikert aratott.

95% hogy az Nvidia most is nagyot fog alkotni !
 
Válasz írásához előbb jelentkezz be!
98. Szaby59
2009.12.14. 12:34
Nem, de a 9000-es széria az.
A "királyságnak" meg van oka is.
Ha már szóba hoztad a PhysX-et akkor szerinted az normális, hogy letiltja a SAJÁT kártyáin, csak azért mert van melette egy ATi is?
A mocsok húzásai miatt tart ott ahol most, a teszt egyértelműen kamu, a bemutatón is egy GPU nélküli dobozt mutattak be, FERMI felirattal... no comment.

@norb55: Miből gondolod? csak úgy behúz 2 évnyi fejlesztést? Az, hogy magasabb az órajel semmit sem jelent, a kettőt nem lehet összehasonlítani, teljesen más architektúra, ilyen alapon ATi-nak több Stream processzora van.
 
Válasz írásához előbb jelentkezz be!
97. Sytyx
2009.12.14. 12:34
norb55: Ezt a kijelentésedet mégis mire alapozod? Te már láttad működés közben az új csodát?
 
Válasz írásához előbb jelentkezz be!
96. csab959
2009.12.14. 12:40
A GTX380 az 2 GPU-s a másik meg 1? Mert ez nem derül ki.
 
Válasz írásához előbb jelentkezz be!
95. dongo84
2009.12.14. 12:41
Ezen a híren jót röhögtem.... Persze azért örülnék ha lenne valami valóság alapja és nem csak a fele lenne mindennek igaz.
 
Válasz írásához előbb jelentkezz be!
94. _DiEGO_
2009.12.14. 12:43
Sytyx


Bakker itt vannak a tesztek ... kell ennél több , vagy nem látod melyik húz el felfele a legjobban ?- már bocs
 
Válasz írásához előbb jelentkezz be!
93. Sytyx
2009.12.14. 12:43
A fizikszet nem véletlen tiltotta le. Megvolt az oka, még ha nekem is egy kissé gerinctelen húzásnak tűnik, de ha az Ati/AMD lett volna abban a nyeregben, akkor ugyan azt lépték volna meg. It lehet egymással vitázni, hogy ki milyen, de mindkét cégnek a pénze kell, nem a szereteted. Azt meg úgy érik el, ahogy a legjobbnak gondolják.
Amúgy az Ati meg miért verte a mellét a tesszaláció miatt? Volt bármi haszna? Neked okozott valami jóságot a tesszaláció? Szerintem nem. Ha meg kihagyod azt a pár játékot, ami játszhatatlan a fiziksz miatt, akkor se dől össze a világ.
 
Válasz írásához előbb jelentkezz be!
92. Sytyx
2009.12.14. 12:44
http://forum.amtech.com.vn/attachments/card-do-hoa-video-cards/15901d1105212697-ati-nvidia-cuoc-chien-khong-bao-gio-co-hoi-ket-gtx380-3.jpg
 
Válasz írásához előbb jelentkezz be!
91. Sytyx
2009.12.14. 12:44
http://forum.amtech.com.vn/attachments/card-do-hoa-video-cards/15901d1105212697-ati-nvidia-cuoc-chien-khong-bao-gio-co-hoi-ket-gtx380-3.jpg
 
Válasz írásához előbb jelentkezz be!
90. norb55
2009.12.14. 12:45
sziasztok!

az Nvidia ezzel a tipussal nagyot fog ütni és ez nem kétség már !

ugyanis áttér a jóval erősebb GDDR5-ös memoriákra sávszélességbe eddig is gyorsabb volt az Nvidia az ATI-nál.

a GPU-i az Nvidiának sokkal alacsonyabb órajeleken üzemelt és úgy tudott hozni kimagasló eredményeket célzok a 8-as seriára felső kategoriára az ATI -t a földbe döngölte és sikert aratott.

95% hogy az Nvidia most is nagyot fog alkotni !
 
Válasz írásához előbb jelentkezz be!
89. _DiEGO_
2009.12.14. 12:50
 
Válasz írásához előbb jelentkezz be!
88. Szaby59
2009.12.14. 12:51
Na ez aztán a kép...
Mellesleg milyen oka volt, hogy letiltsa MOST a Physx-et?
A tesszallációnak dx11-ben lesz haszna, mondjuk én nem emlékszem, hogy "verte volna a mellét"...
 
Válasz írásához előbb jelentkezz be!
87. Sytyx
2009.12.14. 12:52
_DiEGO_

Tudom, hogy most az 5000es széria az uralkodó, ez nem is vitás. De az ellen a Fermi lesz ellenfél. De nem szeretem, ha tényként állítanak olyat, amiről fingjuk sincs. Nem mondom én se, hogy milyen lesz a Fremi. Ennek egyzserű oka van. Nem tudom.
 
Válasz írásához előbb jelentkezz be!
86. norb55
2009.12.14. 12:56
Kétségtelen ,hogy az ati feltudott most mutatni 1 seriát !
jól átgondolt és megtervezett lépések után.


Viszont az Nvidiában még sose csalódtam amit igért azt meg is valósította ez se lesz másképp !

És azt se feledjük el hogy az ati új üdvöskéje 5970 az elég hosszúra sikerült ami sok gépházba belese fér

Az Nvidia a fermik nagyságát nem növelte így barátságosabb főleg ha teljesítménybe is veri az új atit
 
Válasz írásához előbb jelentkezz be!
85. Sytyx
2009.12.14. 12:58
Szaby59: Legjobb ismereteim szerint, ha engedné a fizikszet többkártyás rendszerben, amikor nem csak nV-k vannak összekötve, akkor nem használnál SLI-t, ami jogdíjas vagy mi a fene. Ebben az esetben elesne pár dolcsitól az nV.
A tesszalácónak akkor mi értelme volt DirectX10-ben? Mert azért volt az 10.1-es mert tudta a senki által nem használt tesszalációt. (most a DirectX11-et vond be)
 
Válasz írásához előbb jelentkezz be!
84. TescoZsomi
2009.12.14. 12:58
Sytyx: Mindkét oldalt ugyanazok a motivációk hajtják. Olyan ez, mint itthon a politika. Mindkét oldal csinálja, de nv már nem is nagyon titkolja.

norb55: Ütni fog az bitzos, csak nam PC-s vonalon, hanem HPC piacon, ahova készült. Fogjátok már fel, hogy a Fermi az nam vedókártya, hanem egy általáns számolásra gyártott brutális erejű szörny.

DX9 alatt 100, hogy elpáholja az ATI-kat. DX11 viszont ATI szájíze szerint lett megírva, az ő HW-ükre optimalizálva, másfelől ők már 3 éve foglalkoznak a tesszelálással, amit nV most csinál először.

2010 végére több mint 20 DX11-re optimalizált játék lesz, köztük olyan címekkel, mint az AvP3, vagy a Crysis 2. A visszafele skálázódás és a fejlesztőbarát környeret olyan lendületet ad az API-nak, aminek nV sem állhat az útjába.

Ha egy kicsit utánajár az ember rájön, hogy botor dolog nagy alázást várni a Fermitől. TSMC még mindíg vajúdik. Első eresztésből 7 működőképes Fermi lapka jött ki, és az RV870-esek kihozatali aránya sem rózsás.


Az elvárások az egekig szöknek, hála az ilyen grafikonoknak, meg az egyéneknek, akik szentírásként elfogadják, figyelmen kívül hagyva, hogy még nincs is kész benchmarkolható kártya.

Ezek tekintetében az nVidia a Fermivel nem nyerhet. Mostmár akármit csinál a Fermi vesztes. Még akkor is, ha valahol az 5870 és 5970-es közé esik. Mert a nép azt várja, hogy az 5970-est alázza. Nem kicsit, nagyon.

Előre sajnálom szegény nV-t. És itt felhívnám a figyelmet, hogy nem LE sanálom, mert ők nem tehettek arról, hogy így alakultak a dolgok. Ember tervez, isten végez. Terveik alapján pedig az ATI-nak már halottnak kéne lennie. És mivel egy ekkore cég nem 1évre tervez, ezért itt hosszú távon bukták a PC-s piac hasznát. Ha rajtuk múlna, már rég CUDA platformra íródnának a játékok. De ugye jött az AMD...
 
Válasz írásához előbb jelentkezz be!
83. Sytyx
2009.12.14. 13:01
norb55: Azért az 5970-es méretével jönni gyenge húzás. Akinek van rá pénze, biztos nem ezen fog megrökönyödni, hanem a vazze ez miylen jó kártya dolgon
 
Válasz írásához előbb jelentkezz be!
82. norb55
2009.12.14. 13:01
Kétségtelen ,hogy az ati feltudott most mutatni 1 seriát !
jól átgondolt és megtervezett lépések után.


Viszont az Nvidiában még sose csalódtam amit igért azt meg is valósította ez se lesz másképp !

És azt se feledjük el hogy az ati új üdvöskéje 5970 az elég hosszúra sikerült ami sok gépházba belese fér

Az Nvidia a fermik nagyságát nem növelte így barátságosabb főleg ha teljesítménybe is veri az új atit
 
Válasz írásához előbb jelentkezz be!
81. Forcecaste...
2009.12.14. 13:05
TESCO-Zsömle azért egy kicsit ellentmondásba ütköztél. Ha a Fermi HPC barát, ami tény, akkor nagy számítási teljesítménnyel rendelkezik a CUDA-val. Ami azt jelenti, hogy az ATI a hajára kenheti a tesszalációval való 3 éves tapasztalatát, mert a GeForce-ok úgy fogják tudni emulálni, hogy észre se veszed, hogy nem tudják már évek óta használni. És ez így igaz minden egyes aspektusára a VGA-knak. Ha az NVIDIA kidob egy olyan drivert, ami felhúzza a CUDA használatát esetleg a játékok esetében is és nem csak a PhysX esetén, mert megtehetnék, akkor egyértelműen eldőlne, hogy ki a jobb. Egyébként DX 11 ide vagy oda, ezeket nem hardverre fejlesztik, hanem majd a hardvernek kell tudni alkalmazni az API-t. Egyébként a DX11 épp a Computing Shaderrel üt nagyot, így teljesen jól jön a Fermi orbitális számítási kapacitásához, hogy akár a játékokat is CUDA-n futtassuk. Fejlesztőbarát környezet pedig olyan, amilyet magadnak írsz.
 
Válasz írásához előbb jelentkezz be!
80. _DiEGO_
2009.12.14. 13:10



Még a végén a DirectX 11 -et is élből emulálja - nem is kell uj fejlesztés
 
Válasz írásához előbb jelentkezz be!
79. norb55
2009.12.14. 13:14
TESCO-Zsömle

Kíváncsi leszek én arra hogy a Fermi hova fog beszorúlni
Szerintem már jobb ha most elkezdi tervezni az ati az új seriát amivel arathat mert az 5970 csak a második fog lenni !

mikór kiadják az új nvidia seriát szerintem mindenki nagyon megfog lepődni!

Sytyx 1 kártya mérete is lényeges mert akár hogy is gondolod az 5970 kártya ára 1-2 éven belűl 40-50.000 FT körül lesz és akkór már fontos lesz a méret !

Vagy az ati úgy játszik hogy adjunk bele mindent egyszer már nem lesz olyan gépház amibe majd belelehet tenni a következő generációs kártyát !

Ebből is látszik nem gondolta át az ati a nyák tervezését , és az Nvidia legalább gondol ilyen apró részletekre !

kíváncsian várom az új Nvidia kártyákat és az Ati fanok arcán a lelkesedéseket !
 
Válasz írásához előbb jelentkezz be!
78. Forcecaste...
2009.12.14. 13:16
Ejj norb55 úgy látom veled jó barátok leszünk.

Diego ez most mi?!
 
Válasz írásához előbb jelentkezz be!
77. raiden
2009.12.14. 13:16
kit érdekel mennyivel jobb az nV, ha a +10 fps +100.000 forint?!
 
Válasz írásához előbb jelentkezz be!
76. norb55
2009.12.14. 13:17
TESCO-Zsömle

Kíváncsi leszek én arra hogy a Fermi hova fog beszorúlni
Szerintem már jobb ha most elkezdi tervezni az ati az új seriát amivel arathat mert az 5970 csak a második fog lenni !

mikór kiadják az új nvidia seriát szerintem mindenki nagyon megfog lepődni!

Sytyx 1 kártya mérete is lényeges mert akár hogy is gondolod az 5970 kártya ára 1-2 éven belűl 40-50.000 FT körül lesz és akkór már fontos lesz a méret !

Vagy az ati úgy játszik hogy adjunk bele mindent egyszer már nem lesz olyan gépház amibe majd belelehet tenni a következő generációs kártyát !

Ebből is látszik nem gondolta át az ati a nyák tervezését , és az Nvidia legalább gondol ilyen apró részletekre !

kíváncsian várom az új Nvidia kártyákat és az Ati fanok arcán a lelkesedéseket !
 
Válasz írásához előbb jelentkezz be!
75. TescoZsomi
2009.12.14. 13:17
Forcecaster: Nincs femmi ellentmodás. Sokkal nagyobb számítási kapacitása lesz, mint az RV870-nek. Viszont a tesszelásnak meg akkora a számítási igénye, amit a GPU nem tud értelmes sebességgel végezni. RV870-t ugye ez nem érinti, mert neki ott van a fix funkciós tesszelátor beépítve, az megcsinálja, célhardver...

A CUDA használata nem az nV-n múlik. A játékfejlesztőnek kell meghoznia a döntést, hogy ő a CUDA-t választja, és így lemond az nV-n kívül minden videókártyáról... Remélem érezhető milyen logikátlan döntés is ez...

Hát konkrétan a DX11-et azt Hardwerre fejleszteték, a Microsoft és az AMD közösen. Csak ők ketten, mivel nV ugye még most sincs sehol a DX11-es kártyáival, nehogy akkor. nV már csak a kész DX11-es spec-et kapja meg. Nekik kell hozzá alkalmazkondni.

A játékok a grafikát nem Compute Shader-en számolják, úgyhogy innentől kezdve ez is bukó...
 
Válasz írásához előbb jelentkezz be!
74. Forcecaste...
2009.12.14. 13:18
Ejj norb55 úgy látom veled jó barátok leszünk.

Diego ez most mi?!
 
Válasz írásához előbb jelentkezz be!
73. TescoZsomi
2009.12.14. 13:21
Forcecaster: Nincs femmi ellentmodás. Sokkal nagyobb számítási kapacitása lesz, mint az RV870-nek. Viszont a tesszelásnak meg akkora a számítási igénye, amit a GPU nem tud értelmes sebességgel végezni. RV870-t ugye ez nem érinti, mert neki ott van a fix funkciós tesszelátor beépítve, az megcsinálja, célhardver...

A CUDA használata nem az nV-n múlik. A játékfejlesztőnek kell meghoznia a döntést, hogy ő a CUDA-t választja, és így lemond az nV-n kívül minden videókártyáról... Remélem érezhető milyen logikátlan döntés is ez...

Hát konkrétan a DX11-et azt Hardwerre fejleszteték, a Microsoft és az AMD közösen. Csak ők ketten, mivel nV ugye még most sincs sehol a DX11-es kártyáival, nehogy akkor. nV már csak a kész DX11-es spec-et kapja meg. Nekik kell hozzá alkalmazkondni.

A játékok a grafikát nem Compute Shader-en számolják, úgyhogy innentől kezdve ez is bukó...
 
Válasz írásához előbb jelentkezz be!
72. Forcecaste...
2009.12.14. 13:22
TESCO-Zsömle:

Azért a Microsoftnak olyan mindegy, hogy ki használja, csak licenszeljék azt az átkozott API-t. Kell a pénz! Egyébként a CUDA-t nem kell választani. A CUDA maga a GeForce maga. Mit gondolsz hogy dolgozik a rendszer? GPU megkapja az adatot dolgoztatja a shadereket és kész. A CUDA ugyanez. Annyi különbséggel, hogy a CUDA GPGPU adatokat is megkaphat. Innen már csak driver kérdés, hogy a grafikus adatokat is átmozgatják GPGPU térre.

Játékok terén pedig nem a grafikára gondoltam. Egyébként azt is lehetne ott számoltatni, miért ne? De a fizika, az AI, és minden ami nem grafika, tehát a játék több mint fele mehet ott. Na ez az, ami fejlesztőfüggő, mert tudod ki fog ott pepecselni, hogy Compute Shaderre írja a játékában a nagy számítási dolgokat, akkor már inkább konzolra fejlesztenek... sajnos...
 
Válasz írásához előbb jelentkezz be!
71. norb55
2009.12.14. 13:22
Ejj norb55 úgy látom veled jó barátok leszünk.

muszály volt regisztrálnom mert nem tudtam nézni hogy az ati fanok ennyire lelkesítik
az ATI orbitális kártyáját!

Az lehet hogy most nvidia tulajok a süllyedő hajón vagyunk, de lesz ez fordítva is !
 
Válasz írásához előbb jelentkezz be!
70. Forcecaste...
2009.12.14. 13:25
norb55:
Nem hiszem, hogy bajban lennénk. Nagyon nem. Majd tátva marad a szájuk az ATI barátoknak. Már csak pár hét.
 
Válasz írásához előbb jelentkezz be!
69. Forcecaste...
2009.12.14. 13:34
Egyébként ha bajban lenne a GeForce, akkor is legrosszabb esetben veszünk egy HPC-t televágva 7 db GeForce 380 GTX-vel, aztán talán befér mellé 2 db 4 magos proci vagy már akkor 8 magos és kész! Azon biztos menne minden.
 
Válasz írásához előbb jelentkezz be!
68. _DiEGO_
2009.12.14. 13:39
Nagy tévedés...

Vásárlói konkurrencia NEM akar süllyedő NV-ről hallani sem , akkor az senkinek nem lesz jó ...
Tehát hajrá nVIDIA és mielőbb hadd jöjjenek az uj karik ... mégha nem is annyirán ütősek lesznek, mint a grafikonokon ábrázoltak .
Kell és szükséges - nem hinném hogy ATI pártiak is örülnének ha nVIDIA-nak nem sikerülne !
Szinte közös érdekünk - csak más-más szemszögből ... ennyi.
Tehát együttes akarással várjuk az uj Fermi-t... aki ezzel nem ért egyet az + nem normális. Persze ez csak a magánvéleményem.
 
Válasz írásához előbb jelentkezz be!
67. TescoZsomi
2009.12.14. 13:40
Forcecaster: A Microsoftnak tökmindegy, csakhogy AMD-n kívül senkinek nem volt célHW-e, aztán mégse írhatták meg hasraütve, hogy majd a gyártók alkalmazkodjanak...

A CUDA nem a GeForce maga. Az előbbi egy API, míg az utóbbi egy HW. A HW-eket rendszerint API-ra optimalizálva készítik, viszont ha egy APIt (DX) egy másik API alól (CUDA) számoltatunk, az teljesítmény-kiesés. Fölösleges többletmunka ami a (DX-nek) nem megfelelő architektúra miatt van. Meg lehet nézni a GT200-at. Hol van teljesítményben az RV770, 790-hez képest, és mekkora ugyanezekhez képest a mérete.

"Játékok terén pedig nem a grafikára gondoltam."

Hát pedig egy videókártyától elsősorban azt várják el, hogy grafikát tudjon jó hatásfokkal számolni.

Mint mondtam, ahhoz hogy nV bármit is tudjon CUDA-n számolni, ahhoz a játékot, vagy annak a számolandó részét CUDA-ra kell megírni. Ez pedig nem fog megtörténni az Intel és az AMD jóváhagyása nélkül. És itt vége ennek a történetnek.
 
Válasz írásához előbb jelentkezz be!
66. TescoZsomi
2009.12.14. 13:41
Forcecaster: "Egyébként ha bajban lenne a GeForce, akkor is legrosszabb esetben veszünk egy HPC-t televágva 7 db GeForce 380 GTX-vel, aztán talán befér mellé 2 db 4 magos proci vagy már akkor 8 magos és kész! Azon biztos menne minden. "

Szeretnék én egy évben megkeresni annyi pénzt...
 
Válasz írásához előbb jelentkezz be!
65. Forcecaste...
2009.12.14. 13:42
DIEGO:

Végülis nekem is mindegy. Elfogult vagyok az NVIDIA-val, mert az elmúlt 12 évben hűen szolgált a kezdetektől. De ha az OpenCL is tud olyan okos dolgokat mint a CUDA, akkor nekem mindegy ki jön itt GPGPU képességgel, amíg tönkrevágjuk a CPU-kat. De a diplomamunkát akkor is GeForceon írom. (Én a zöldekkel vagyok.)
 
Válasz írásához előbb jelentkezz be!
64. Forcecaste...
2009.12.14. 13:43
TESCO-Zsömle:

Majd megcélzunk valami regionális fejlesztési pályázatot. Azt se tudják itt az emberek, hogy mi az a GPU.
 
Válasz írásához előbb jelentkezz be!
63. TescoZsomi
2009.12.14. 13:46
Forcecaster: Nekem is egyre inkább ez az érzésem a veled folytatott vita okán...

Jah, és egy apróság... A HPC-n nem fog futni semmilyen játék, mert az CUDA alapú, a játékok meg DX-re íródnak...
 
Válasz írásához előbb jelentkezz be!
62. _DiEGO_
2009.12.14. 13:47
És mi is az a VPU ?
 
Válasz írásához előbb jelentkezz be!
61. Forcecaste...
2009.12.14. 13:47
TESCO-Zsömle:

Egyébként a teljesítmény kiesés az valós. Viszont igérik, hogy a CUDA és graf mód közötti átváltás gyorsabb. Kell a PhysX miatt sok váltással számolni, ami elveszi kapacitást a grafikai számítástól, ezért most ezen finomítanak a Fermivel.

Egyébként HW és API... hááát... A VGA az már 20 éve VGA, csak több minden került bele. Egyébként a támogatottságot nem úgy szerzed meg, hogy a hardvered DXx-es rendszerre lett írva, hanem, hogy ismeri az utasításkészletet. Ugyanaz mint amikor az ősidőben jöttek az új Pentiumok. Mind x86-os volt, csak tudott pár új parancsot meg miegymást.
 
Válasz írásához előbb jelentkezz be!
60. Szaby59
2009.12.14. 13:50
Tesszelláció már a HD2000-ben is volt, mégpedig a Xenos-é, a 10.1 a sebességnövekedés miatt előnyös amit a fejlesztők elérhettek a 10-hez képest.
A PhysX eddig semmi gondot nem okozott érdekes módon, csak most, mindenesetre szemétség megvetted a kártyát, ne tiltsák, hogy használd a technológiát, holmi licenszre hivatkozva, főként, hogy az AGEIA gyorsítók hoz nem ad már ki driverfrissítéseket.
 
Válasz írásához előbb jelentkezz be!
59. _DiEGO_
2009.12.14. 13:57
És akkor mi az a VRAM ?
SDRAM ?
DDR3 RAM ?
GDDR3 RAM ?
 
Válasz írásához előbb jelentkezz be!
58. TescoZsomi
2009.12.14. 14:02
Forcecaster: PhysX-nek nincs sok jövője, amíg CUDA-hoz kötik. Meg lehet nézni hány játék jön HW PhysX-el.

A VGA a már több mint 20 éve VGA és semmit sem változott.
Ez így van, de ahhoz, hogy ismerje az utasításkészletet, le is kell tudnia futtatni azt valamin, és ez a nemmindegy. A HW-nek képesnek kell lennie az utasításkészlet lefuttatására, vagy emulálására. Utóbbi esetben egy a HW által is támgatott utasításkészleten történik a másik utasításkészlet futtatása emulátor segítségével, ami komoly teljesítménykiesést eredményez a célHW-en történő futtatáshoz képest. Ezért lesz azonos méreten lassabb, azonos sebességen pedig nagyobb a chip.

Esetünkben a problémát a tesszelálás okozza, mert azt nem tudják se megkerülni, se emulálni.
 
Válasz írásához előbb jelentkezz be!
57. TescoZsomi
2009.12.14. 14:03
_DiEGO_:
"VRAM, or Video RAM, is a dual-ported variant of DRAM, or Dynamic RAM, which was once commonly used to store the frame-buffer in some graphics adaptors."
 
Válasz írásához előbb jelentkezz be!
56. alli1990
2009.12.14. 14:39
én inkább a pénztárcám pártján állok és várom hogy megjelenjenek az új geforce-ok mert így az atik ára lejebb megy és jobban megéri majd atit venni, aláirom szerintem is a geforce erősebb lessz (igaz dx 11-es grafikon nem is volt itt, meg ha 1általán igaz is ez a grafikon),de nem mindegy hogy 10-20 fps-ért fizetek 10-20 ezer vagy még nagyobb többletet. én ezért atit választanék ár/érték miatt természetesen ha a geforce-nak lenne jobb ár/értéke akkor azt, de ezt kétlem. és szerintem ati ugy is kijön egy új ellenféllel a fermi ellen.
 
Válasz írásához előbb jelentkezz be!
55. leviske
2009.12.14. 14:41
Hát ez nekem nagyon csak egy flame keltő grafikoncsokornak tűnik. A G92>GT200-nál sem sikerült teljesítményt duplázni, majd pont most sikerülne, mikor mondhatni az egész Fermi egy emuláció?

Ez nekem inkább egy nVIDIA fan álmainak tudható be. Már az is egy szép teljesítmény lesz az nVIDIA-tól, ha tudják hozni a GTX295 teljesítményét és ezzel a HD5870-ét.

Mikrobi: Kb ugyan ennyivel a megjelenése előtt az R600-ról csak olyan pletykák jöttek, miszerint a 8800GTX-et halálra veri Crysis alatt... Azok is valóságosnak tűntek. Az, hogy melyik oldal közli le, nem számít.
 
Válasz írásához előbb jelentkezz be!
54. _DiEGO_
2009.12.14. 14:41
Ennyiből - valaki megmondja hogy millen GPU ez ? természetesen a teljes kép is adott

remélem nem lóg ki jobbra ...

 
Válasz írásához előbb jelentkezz be!
53. Szaby59
2009.12.14. 14:44
Na akkor most mindentől elvonatkoztatva:
Egy árva hír nem volt, hogy elkészültek az első példányok, nemhogy teszt róla, szerintem kamu...
 
Válasz írásához előbb jelentkezz be!
52. Szaby59
2009.12.14. 14:46
Hol nem látom...
Majd itt iponos meg porhardveres tesztben meglátjuk, bár addigra az ATi is elkészül a válasszal.
Az nV nem fog csődbe menni, hisz ott a Tegra, meg az ION.
 
Válasz írásához előbb jelentkezz be!
51. alli1990
2009.12.14. 14:52
én sem látom hogy alázott volna az atik már régóta kereskedelmi forgalomban vannak míg a geforce csak most jelent meg korántsem akkor teljesítmény többlettel amennyivel azt "elvárható"lett volna
 
Válasz írásához előbb jelentkezz be!
50. Szaby59
2009.12.14. 14:56
Én azt sem látom, hogy megjelent volna...

Idézet Guru3D-ről: Do not ask us how or where these benchmarks source/originate from as we do not know. For all we care (and think) they are fake
 
Válasz írásához előbb jelentkezz be!
49. LittleDemo...
2009.12.14. 14:57
mese habbal -.-'
 
Válasz írásához előbb jelentkezz be!
48. Balucsek
2009.12.14. 15:01
Szerintem a grafikon akár még igaz is lehet majd, ha azt is beleszámítjuk hogy majdnem félévvel az első radeon 5000-esek után fognak rajtolni... Ennek a fél év eltolódásnak a hatására alap elvárásnak kell lennie, hogy ha nem is sokkal, de valamivel jobb legyen mint a legerősebb radeon...
Azonban a nagy kérdés hogy mit ér majd meg jobban venni az ár miatt... A radeonok árai általában kellemesebbek voltak. Az AMD-nek csak a TSMC tett be, itt van fél év hogy az nvvel szembe jól megszedje magát de a kártyáit alig lehet kapni, ez jobban is elsülhetett volna, itt a karácsony és nincs konkurencia...
 
Válasz írásához előbb jelentkezz be!
47. alli1990
2009.12.14. 15:01
bocs Szaby59 kimaradt ha hihetünk ennek a grafikonnak (de biztos nem)
 
Válasz írásához előbb jelentkezz be!
46. leviske
2009.12.14. 15:04
J.o.k.e.r: Minden tiszteletem a tiéd, de megoldható volna, hogy a már az eredeti szerző szerint is fakenek titulált eredmények inkább ne legyenek leközölve az iPon-on? Se AMD, se Intel, se nVIDIA fronton? A sok fanban ilyenkor csak elvárások keletkeznek és ha nemsikerül hozni a gyártónak, akkor elkezdenek majd siránkozni és szitkozódni... ezzel kétszeres munkát adva a moderátoroknak.
 
Válasz írásához előbb jelentkezz be!
45. Melkor
2009.12.14. 15:06
Hát a nagy szájkaratéban kb 2-3 érdemleges hozzászólás hangzott el (professziónális hardverelemzést leszámítva ... köszönet érte, bár az olvasók 80%-ának gőze nincs h miről beszélgettetek ).
Lényeg a lényeg, akár valós adatok akár nem ... AMD egyik legnagyobb előnye az ára ... hiába "alázzák le" az új nV kártyák az AMD-ket, ha az a +10 FPS 50.000-be kerül nekem.
És nekem ne mondja senki hogy látja a 110 és a 130 FPS közötti különbséget
Tőlem lehet az nV-é a legjobb kártya, de a vásárlók többsége úgyis azt fogja nézni, hogy neki ár-érték arányban melyik a legmegfelelőbb ... és ebben jelen pillanatban az AMD jobban áll és a csoda Fermi kártyák sem fogják az nV felé billenteni a mérleget.
 
Válasz írásához előbb jelentkezz be!
44. arkman
2009.12.14. 15:10
Ez most komoly, hogy egy nagyon-nagy valószinüséggel fake képsorozathoz jött vagy 100 post, aminek a megoszlásáról (dupla-triplapostok, értelmileg magasan szárnyalók, olyanok akiknek gőzük sincs a dolgokról) már írni se merek ?
Szerk: Ez rám is vonatkozik, mert ennek sem sok köze van a hírhez (csak közvetetten)
 
Válasz írásához előbb jelentkezz be!
43. Rider15
2009.12.14. 15:10
Én párttalan vagyok, ha akarok venni egy videokártyát, megnézem jelenleg melyik adja a legjobb teljesítményt, a legjobb technológiával baráti áron, és azt megveszem...
Lesz*rom, hogy 12321 hónap múlva jobb lesz az xyz, vagy 2213 hónappal ezelőtt jobb volt a zxy.
 
Válasz írásához előbb jelentkezz be!
42. paga
2009.12.14. 15:35
Szerintem ez a grafikon nem mutat reális dolgokat nemhinném hogy az ati ennyivel gyengébb lenne.....

 
Válasz írásához előbb jelentkezz be!
41. TescoZsomi
2009.12.14. 15:51
norb55: Hagyjadmá... És a hátsú GPU-t mi hűti?? Mert látszólag csak a venti van felette, borda nincs...
 
Válasz írásához előbb jelentkezz be!
40. Greathoof
2009.12.14. 15:55
@Tesco-Zsömle
Heh, elég gyorsan eltűnt a hozzászólása
Amúgy meg alapból nagyon reaális az X2 jelző a Geforceoknál inkább úgy alapból GX2.

A diagrammok meg remélhetőleg igazat mondanak, ha igaziak, ha nem.
 
Válasz írásához előbb jelentkezz be!
39. Szaby59
2009.12.14. 15:57
norb55: nVidia meg az átgondoltság... pakoljuk még +100 tranzisztort, mert az milyen jó lesz nekünk!
A HD5XXX lehet, hogy nagy, de aki olyan kártyát vesz szerintem tudja, hogy mibe veszi...
Az energiagazdálkodás meg jobb mint a 4xxx-é, pedig az sem valami szar...
 
Válasz írásához előbb jelentkezz be!
38. Kvez
2009.12.14. 15:58
Ha egyszer már vagy DX11 a kártyában akkor mért nem tesznek fel egy olyan tesztet róla ami DX11-es....???? Talán mert abban jobb az ati..
 
Válasz írásához előbb jelentkezz be!
37. Kvez
2009.12.14. 16:03
De szerintem is ez a grafikon nem valós adatot mutat Valakine sok pénze benne van
 
Válasz írásához előbb jelentkezz be!
36. jadam92
2009.12.14. 16:03
úristenDD hát elég "sufni" fotosoppolt méréseknek tűnnek hát én ezeknek nem hiszek tapasztalni kell nem tesztekre építeni.
 
Válasz írásához előbb jelentkezz be!
35. Norba
2009.12.14. 16:08
szerintem igaz lesz... az nvidiát soha nem olyannak ismertem,hogy beérné a 2. hellyel igaz meg is kell fizetni őket... amúgy én nekem teljesen jó az 5770-es ATI
 
Válasz írásához előbb jelentkezz be!
34. ThePoweR
2009.12.14. 16:17
Valószínű hogy veri az 5970-et jó poén.
 
Válasz írásához előbb jelentkezz be!
33. Cobrusz
2009.12.14. 17:40
sztem egyértelmű hogy nv jobb karit csinál most
beneveznék egy gtx380ra
 
Válasz írásához előbb jelentkezz be!
32. Joachim21
2009.12.14. 17:41
Csak néztem egész nap hogy alakul ez a topic, és feljsejlett bennem még mikor én is ekkora fan voltam. Nekem egyértelműen az lenne a legjobb, ha ez a hír igaz lenne, de nem azért mert hűűű de szeretem az NV-t, hanem mert hűű de szeretnék egy 5850est 40 ezer forint alatt venni, és ehhez kell egy erős Gforce ellenfél.
 
Válasz írásához előbb jelentkezz be!
31. Phantomstr...
2009.12.14. 17:42
Ezt kötve hiszem. Ekkora felépítésbeli különbség nincs a GTX2xx és GTX3xx kártyák között. Én is inkább a GTX295 környékére várom a 380-at.
 
Válasz írásához előbb jelentkezz be!
30. Cobrusz
2009.12.14. 17:43
sztem egyértelmű hogy nv jobb karit csinál most
beneveznék egy gtx380ra
 
Válasz írásához előbb jelentkezz be!
29. AnkerMarto...
2009.12.14. 17:47
én várom a fermiket, de csak azért h lássátok nem lesznek azok olyan jók, és még ha jönne egy jókis HD5890
 
Válasz írásához előbb jelentkezz be!
28. AnkerMarto...
2009.12.14. 18:00
ja meg a GTX285 nincs ilyen közel a HD5870-hez.....
 
Válasz írásához előbb jelentkezz be!
27. ThePoweR
2009.12.14. 18:06
Nem hiszem a gtx360 380 már 2gpu-s lenne akármelyik is. Azt meg ne meséljék már be hogy az új ati széria 2gpu-s kariát beveri egy egy gpu-s nv kari. PFFF hihető
 
Válasz írásához előbb jelentkezz be!
26. FullGas
2009.12.14. 18:17
Szerintem meg simán hihető, hogy jobb lesz valamelyik kártyájuk, lehet pont ez volt a céljuk hogy ATI után dobják ki a brutál kártyáikat. Egy ideje nem nagyon csinált új kártyákat.... igaz azt mondták nem fejlesztgetnek új kártyát, de hát azt mondanak amit akarnak, a háttérbe meg lehet sutyiba dolgoztak az új karikon. Bár ez az én véleményem lehet hogy semmi se igaz
 
Válasz írásához előbb jelentkezz be!
25. rabib
2009.12.14. 18:21
Én eddig olvasgattam a hozzászólásokat, és a hozzászólások érdekesebbek, mint maga a cikk.
Szerintem igen is lehetséges, hogy az NV kártyái jobbak lesznek. Akárhány széria jött ki az elmúlt pár évben, mindig az NV-jé lett a jobb. Nem sokkal, csak egy kicsivel. De mindig jobb lett. Az meg, hogy átnevez kit érdekel? Nekem az a lényeg, hanem az, hogy jó teljesítményt nyújtson minden körülmény között-legalább is nekem-.
Egy 9600GT-n igenis szükség van 1 GB GDDR3 videomemóriára. (személyes tapasztalat)

FullGas: Hát azért az NV szerintem mostmár siet az új kártyáival, mert tudja, hogy most aki vesz VGA-t, az szinte tuti, hogy Atit vesz, méghozzá az 5xxx szériából. Meg ráadásul eltűntek az Iponon a Gigabyte márkájú videokártyák közül a csúcskategóriás NV kártyák.
 
Válasz írásához előbb jelentkezz be!
24. waw
2009.12.14. 18:22
NV-vel szemben:
1. +30-40 ezer 10fps-ért a legnagyobb baromság.
2. A többség max. 1600-as felbontáson játszik.
3. Szerintem az AMD még előjön majd a Fermi után az 5790-el szénné húzva.
4. Ár/Érték arány eddig az AMD oldalán.

AMD-vel szemben:
1. Végre írhatnának egy rendes drivert és azzal sem lenne probléma
2. 5870-es 256bit-je semmire sem jó. Minimum 512 kellett volna és akkor biztos nem lenne ekkora hátránya, vagy egyenlők lenének.(5870-GTX360). A memória sávszélesség ezt jól
mutatja.
 
Válasz írásához előbb jelentkezz be!
23. jadam92
2009.12.14. 18:33
Amúgy: miért mindegyik grafikon DX10 es? a Fermi már nem DX11 es? No mindegy..
 
Válasz írásához előbb jelentkezz be!
22. rabib
2009.12.14. 18:42
jadam92: Biztos nem volt nekik, csak Vistájuk éppen kéznél.
Meg mondjuk azért, mert azok a játékok, amikkel teszteltek, DX10-es játékok. Gondolom én. Ha nem javítsatok ki.
 
Válasz írásához előbb jelentkezz be!
21. ThePoweR jadam...
2009.12.14. 18:44
Mivel egyik se dx11-es game. Nincs is még csak a Dirt 2 abba is tesszellálták a zászlót azt annyi na jó nem, a vizet meg a ruhákat is de a kocsit pl pont nem

rabib: azt elhiszem hogy jobb lesz de azt már nem hogy a 2GPU-s vga-t elveri egy egy GPU-s
 
Válasz írásához előbb jelentkezz be!
20. jadam92 ThePo...
2009.12.14. 18:47
de ajj gúy értem DX11 es tesztet rakhattak volna fel te power..
 
Válasz írásához előbb jelentkezz be!
19. _DiEGO_
2009.12.14. 18:50
AMD/ATI addig nem dob be erősebb kártyát , amig NV nem adja ki a kártyáit ... amugy sem győzi gyártani a 5xxx kártyákat , ha épp kiskerek kapnak ebből árut , szinte aznap elkél ... szal ATI -nak nem sürgős , nyugisan dolgozhatnak a legújabb kártyájaikon...
Ha az HD5870-est a 256bites memóvezérlő helyett felvértezik 512bitessel akkor már az ára sem ez lesz - de addig ezt nem teszik mig nVIDIA kinem adja kártyáit . Szerintem ATI ellenválaszra kész azonnal ...

Csak már jönnének FERMI-k... azt hadd lássuk ATI NAPALM-jait.
 
Válasz írásához előbb jelentkezz be!
18. ThePoweR jadam...
2009.12.14. 18:57
Azt mit raktak volna fel? Dirt 2-őt amibe azt nagyon lehet fps különbség Heaven Benchmark meg lehet nem volt kéznél
 
Válasz írásához előbb jelentkezz be!
17. mtrx220
2009.12.14. 19:09
a megrögzött NV fanok biztosan átélnek akkora agyvérzéseket a konkurencia sikerei láttán, hogy ilyen cuccok gyártására vetemedjenek.
bár az is lehet hogy tényleg NV csinálta ezt, ha 100-ból csak 1 felhasználót elvesz a konkurenciától akkor nekik megérte.
 
Válasz írásához előbb jelentkezz be!
16. mtrx220
2009.12.14. 19:21
mellesleg a gyengélkedő TSMC sorok is érdekesek,
van egy jó tippem mely szerint varázslatos módon addigra amire az NV kártyák startolnak a probléma is meg fog oldódni.
de ezt már irtam korábban is, hónapokkal ezelőtt.
kellemetlen, és ugyebár teljesen véletlen hogy az AMD-nek volt fél év előnye és egy ilyen fránya dolog megakadályozta hogy komolyabban elrugaszkodjon.
persze én nem bánom, mert nem különb mint az NV; sőt ha közel ugyanolyan erősek lesznek az új szutykok akkor az ár még barátibb lesz.
egy év múlva meg minden kezdődik elölről, igy megy ez.
 
Válasz írásához előbb jelentkezz be!
15. rabib
2009.12.14. 19:30
Ha már szóbakerült a Dirt 2. Annak láttátok, hogy milyen gépigénye van? Nagy. Alapból. Aztán közbe meg nem is akkora neki, hanem jóval kisebb de ez már más téma...
Az NV-nek most akkorát kell alkotnia, hogy ha az Ati majd \"válaszol\" a Fermire a megjelenése után nem sokkal, akkor a Fermik annál az \"Ati-válasznál\" is jobbak kell, hogy legyenek.

ThePoweR: egy két GPU-s kártyánál lehet jobb egy egy GPU-s, csak nem egy közvetlen utána kiadott szériában.

mtrx220: megoldják a TSMC-nél előbb vagy utóbb.
Hogy hogy nem fárad bele az NV és az Ati ebbe a párharcba...Mondjuk ez a dolguk.
 
Válasz írásához előbb jelentkezz be!
14. Kislakos
2009.12.14. 19:32
Skacok a topik nem azért van hogy itt szidjuk nvidiát vagy atit...... Az ati fanok most itt oltani akarnak az nvidiások meg isteniteni. Szerintem meg ilyenből még nem kell levonni semmit majd a valós tesztekből, addig nem kell kötekedni
 
Válasz írásához előbb jelentkezz be!
13. ThePoweR rabib
2009.12.14. 19:34
Tudtam hogy le fogod ezt írni. Csak azért nem írtam le hogy egy időben kiadott kariknál van így me azt gondoltam nem nézel hülyének.
 
Válasz írásához előbb jelentkezz be!
12. Thelon
2009.12.14. 19:39
Hát nem tudom, nem értem ha ennyivel jobb lenne az nVidia gtx380-as videó kártyája mint az ATI 5970,, szerintem már réges régen bemutatták volna. Szóval szerintem fake.

Akik annyira hype-olják a fermit hogy az majd.. stb. Én remélem megmutatja az nVidia mit tud, habár ATI párti vagyok és nagy eséllyel azt is fogok venni, nem jönne rosszul a konkurencia, az árak lejjebb tornázásánál.

Azoknak akik teljesen elfogultak... Hát nem tudom, mi az értelme, ha most jobb lesz a gtx380 akkor na bumm, majd válaszol valamit az ATI és fordítva. Ez így megy.
 
Válasz írásához előbb jelentkezz be!
11. Phantomstr...
2009.12.14. 19:52
@mtrx220: "mellesleg a gyengélkedő TSMC sorok is érdekesek,
van egy jó tippem mely szerint varázslatos módon addigra amire az NV kártyák startolnak a probléma is meg fog oldódni.
"

Tartok tőle, de h egyszer eljátsza a TSMC az AMD bizalmát, b*szhat egy komoly megrendelőt, mert viszi a gyártást a Global Foundaries-hez házon belülre.
 
Válasz írásához előbb jelentkezz be!
10. Hulky Boy
2009.12.14. 20:17
Sziasztok most, hogy végre én is végig olvastam az összes hozzászólást rájöttem, itt sokan nem gondolják át mit is írnak és miért háborognak.
Én speciel azon izgulok, hogy jön egy új Nv kártya ami [u][talán megszorongatja/u] az Ati-t és végre csökkenjenek az árak, hogy le tudjam végre cserélni a Nv 9600 GT-met egy Ati 5770-esre pedig inkább Nv-s vagyok de a pénztárcám és a józan ész dönti el hogy mi is éri meg nekem.

Peace
 
Válasz írásához előbb jelentkezz be!
9. Balucsek
2009.12.14. 22:11
Lehet hülyeséget írok de ha jól tudom az nv GPU-ja 2x akkora lesz mint a radeon 5870-esé ez alapján még hihetőnek is minősűlhet a grafikon bár szerintem cseppet túloztak azért és majd a DX11-es teljesítménye lesz a nagy kérdés. Amúgy nem tudom hogy az nv még próbálkozik-e 2 magos kártyákkal hiszen ha jól emléxem a GTX295-nek is több kínja volt mint a 4870X2-nek szerintem ezzel akarják megkerülni a 2 magos kártyáik gyengeségeit...
 
Válasz írásához előbb jelentkezz be!
8. Balucsek
2009.12.14. 22:13
Lehet hülyeséget írok de ha jól tudom az nv GPU-ja 2x akkora lesz mint a radeon 5870-esé ez alapján még hihetőnek is minősűlhet a grafikon bár szerintem cseppet túloztak azért és majd a DX11-es teljesítménye lesz a nagy kérdés. Amúgy nem tudom hogy az nv még próbálkozik-e 2 magos kártyákkal hiszen ha jól emléxem a GTX295-nek is több kínja volt mint a 4870X2-nek szerintem ezzel akarják megkerülni a 2 magos kártyáik gyengeségeit...
 
Válasz írásához előbb jelentkezz be!
7. tibi27
2009.12.15. 00:57
Hát sziasztok!

Gtx 360 és Gtx 380,nos ahogy elnézem nem ezek lesznek a tömegeknek gyártva,biztos lesz gyengébb változat,mondjuk Gtx 340 vagy Gtx 320,ugyanúgy mint Radeon 5870 vagy 5750.Nekem legtöbbszőr Geforce karim volt pontossan 7 db,Ati karim 5 db,mindegyikből volt alsó,közép és felső kategóriás.Mint átlag felhasználó nem éreztem hogy egyik cég jobb lenne mint a másik,3-D alatt ugyanazt nyújtották,ugyanabba a besorolásból származó kártyák.
 
Válasz írásához előbb jelentkezz be!
6. leviske
2009.12.15. 01:08
Emberek, tisztázzuk:

Az AMD-nek nincs rejtegetett ütőfegyvere. Lehet, hogy jön még egy HD5890, 9xxMHz, vagy magasabb órajellel, plusz egy HD5950 és kész, a 2010 Q1 letudva a felső és felső-középkategóriában.

Az nVIDIA játékok alatt kétséges, hogy a Fermivel ilyen teljesítményt érne el, mert nem játékra van tervezve. Ha képesek a GTX295 szintjét hozni, a GT200 méreteivel, az már egy nagyon szép eredmény, ha abból indulunk ki, hogy az emulációra építenek. Könyörgöm, ne játsszuk már el azt, mint az R600 esetén, akármennyire is hasonlónak tűnik a helyzet. Az az idióta aki készítette a grafikonokat, nem vagy (vagy pont, hogy igen) gondolt bele, hogy ezzel pont a szerencsétlen nVIDIA-nak okoz gondot, hisz az R600-at is azért fogata a nép úgy, ahogy, mert hatalmasak voltak az elvárások.

Őszintén szólva egyszerűen hülyeség a GTX295-höz képest 1,5x-ös és még annál is nagyobb teljesítményt várni. Ebben az esetben a hasonló elgondolással megtervezett Larrabee-t is kiadhatta volna az Intel, a Cypress-nél jóval nagyobb teljesítmény mellett.

És itt most nem mint "atifanboy" szólok, hanem mint olvasó, aki már gáznak tarja, hogy egy még meg nem jelent kártyán lovagolnak egyesek és mások meg azon igyekeznek túllicitálni. Miért kell folyton elborulni és ontani a marhaságokat? Van a fórumon nVIDIA pletyka topik, aminek meglepő módon jelenleg csak a Fermi a témája, és van AMD/ATi pletyka topik, könyörgöm, húzzon már át oda az, aki csak a saját gyártóját tudja isteníteni és nem lát reálisan.
 
Válasz írásához előbb jelentkezz be!
5. bul07
2009.12.15. 02:47
nekem csak egy érdekesség van az egészbe ez a rész

"valamikor a következő év első negyedévében debütálhatnak"

még az se biztos hogy 2010 első negyedévébe megjelenik akkor meg miről megy a szájkarate
 
Válasz írásához előbb jelentkezz be!
4. Sytyx
2009.12.15. 08:40
leviske és bul07: Miért rontjátok el az emberek játékát? Olyan jó volt vitázni De most lehet abbamarad Nem szeretlek titeket
 
Válasz írásához előbb jelentkezz be!
3. _DiEGO_
2009.12.15. 13:05
Akkor:

És ha ez a grafikon tényleg csak etetés , valójában meg sokkal erősebb a FERMI - csak eme grafikonokat közreadták , hogy AMD/ATI -sok ehhez próbáljanak lépni ... végén meg nagy-nagy happyend lesz FERMI-vel ...?!

 
Válasz írásához előbb jelentkezz be!
2. tibi27 _DiEG...
2009.12.15. 13:08
És ha a grafikon nem etetés,akkor mi lesz?Talán annyi hogy drágabb lesz mint az Amd,kb ennyi.
 
Válasz írásához előbb jelentkezz be!
1. rabib
2009.12.15. 22:23
Az, hogy drágább lesz, az egyértelmű. Az NV mindig drágább volt. Ha a HD5970 kb 150 ezer Ft, akkor a Fermi-ből a csúcs majd kerül kb 165 ezerbe. Viszont ha annyival drágább lesz, mint amennyivel erősebb, akkor nem lesz semmi baj se az árral. Részemről.
 
Válasz írásához előbb jelentkezz be!