iPon Hírek

Az Nvidia visszavág: hamarabb jön a GTX 275

Dátum | 2009. 03. 31.
Szerző | J.o.k.e.r
Csoport | MEGJELENÍTÉS

Napokkal ezelőtt érkezett  az értesülés, amely sokak számára jó hírnek bizonyult: az AMD rendkívül jó tuningpotenciállal rendelkező Radeon HD 4890-ese a korábbi tervekkel ellentétben nem április 6-án, hanem pár nappal előbb, azaz április 2-án válik elérhetővé a nagyközönség számára, ekkor az első hivatalos tesztek is kikerülhetnek majd a netre. Az akkori hírben már felvázoltuk annak lehetőségét, hogy ezt a lépést az Nvidia sem nézi majd tétlenül, most pedig megérkezett a bejelentés: az Nvidia is április 2-án indítja hódító útjára legfrissebb termékét, a GeForce GTX 275-ös modellt.

A GTX 275 hivatalosan ugyan tényleg útnak indul április második napján, ám ez a start csak formalitás lesz. Az említett napon a GTX 275 hivatalos specifikációi napvilágot láthatnak majd, valamint előrendelhetővé válnak a termékek is, ám a boltok polcain ekkor még nem lesznek jelen. A különböző gyártók weblapjain is feltűnnek majd a saját megoldások, illetve azok pontos műszaki paraméterei, de ez lesz az a nap is, amikor a kártyáról készített hivatalos tesztek végre megjelenhetnek.


A GeForce GTX 275 szélesebb körben várhatóan majd csak április közepétől lesz elérhető, azaz innentől kezdve találkozhatunk majd az újdonsággal az üzletek polcain. Az termék egyébként 55nm-es csíkszélességgel készülő G200b GPU-ra fog épülni, amely összesen 240 darab shadert tartalmaz majd. A kártya 896 MB-nyi vagy 1792 MB-nyi memóriával lesz felvértezve, a GDDR3-as chipek és a GPU között 448 bites memória interfész húzódik. A grafikus processzor 633 MHz-en, a shaderek 1404 MHz-en, míg a memória chipek 1161 MHz-en fognak üzemelni (effektív 2322 MHz).

Az Nvidia kártyája versenyképes árral próbálja majd felvenni a versenyt az AMD Radeon HD 4890-es modelljével, azaz a GTX 275 várhatóan a riválisához hasonlóan 250 dollár körüli ajánlott végfelhasználói áron kerülhet forgalomba. Ezzel egy időben az egy PCB-re épülő GeForce GTX 295 is készül, így elég mozgalmas időszak elé nézünk.

Új hozzászólás írásához előbb jelentkezz be!

Eddigi hozzászólások

16. thspo
2009.03.31. 11:35
Lehet vele majd játszani??? Igen! Gyorsabb lesz mint az AMD konkurens megoldása??? Nagy valószínűséggel igen, de ha nem is akkor kb. ugyanott lesz teljesítményben. Árban lesz differencia a két gyártó között??? Nagy valószínűséggel nem! Az amd nem ugyanazt az arhitektúrát használja már a 3. generációs megoldásánál??? DE! És nagy valószínűséggel a következő HD 5xxx - vagy minek fogják hívni - sorozatban is ezt fogja. Azt h az nvidia kifejlesztett 3 éve egy olyan architektúrát ami a mai játékokhoz is elegendő, miért baj? Hülyék lesznek fejleszteni. Az egy dolog h a kártyáik előállítási költsége magasabb mint a konkurensnek, de ez miért zavarja az embereket? Az legyen az ő gondjuk. Félre értés ne essen nem állok egyik oldalra sem de uncsi ez az állandó fikázgatás jobbra-balra...
 
Válasz írásához előbb jelentkezz be!
15. Riddick77
2009.03.31. 11:48
Hacsak,nem lesz jóval gyorsabb mint az új AMD,amire kicsi az esély,akkor sokan AMD-t fognak venni,köztük én is.
 
Válasz írásához előbb jelentkezz be!
14. boogie84
2009.03.31. 11:48
abban azért nem lennék biztos h gyorsabb lesz mint a 4890... de remélem lenyomja a 260 216SP-s verzió árát...
nekem nagyon úgy tűnik, mintha ez egy módosított 285ös példány lenne...
 
Válasz írásához előbb jelentkezz be!
13. nattila77
2009.03.31. 11:50
thspo: "az nvidia kifejlesztett 3 éve egy olyan architektúrát ami a mai játékokhoz is elegendő, miért baj?"

rövidlátó gondolkodás
 
Válasz írásához előbb jelentkezz be!
12. amakoiyep
2009.03.31. 11:54
A "fikázás" és magyarázkodás az nvidia fegyvere, az ati viszonylag csendben elvan, ők a teljesítményükkel és jó áraikkal kérkednek ezen a jelenleg nvidia központú szoftver piacon. Egyébként ahhoz képest h két fronton harcol, a processzoraik is kezdenek egyre jobb vételnek minősülni. Általában az emberek ha gépvásárlásra adják a fejüket, akk a középkategóriából válogatnak, márpedig ott jelenleg nagyon olcsón jó teljesítményű ati/amd konfigot lehet összedobni.
 
Válasz írásához előbb jelentkezz be!
11. boogie84
2009.03.31. 11:55
nattila77 részben igaz amit írsz, de ha aktuálisan működik a dolog, tehát játék alatt van teljesítmény és megfizethető a technológia - gondolok itt a kareszok áraira és az előállítási költségeire - akkor ok! ha már az nv-nek sem éri meg gyártani hidd el muszáj lesz fejlesztenie :lol:
 
Válasz írásához előbb jelentkezz be!
10. sirpalee
2009.03.31. 12:10
thspo:
"Az amd nem ugyanazt az arhitektúrát használja már a 3. generációs megoldásánál??? DE!"

Nem.

2xxx sorozat : az x360-nál kifejlesztett megoldások bevezetése, nagyon erős tesszaláló egység, elfogadható geometry shader teljesítmény (amire az nvidia még mindig nem képes)

3xxx sorozat : DX10.1 támogatás (NVidia még mindig sehol sem), egy pcb-n 2 magos videókártyák bevezetése(NVidia esetleg most), a monolitikus felépítés teljes elvetése

4xxx sorozat : A belső ringbus eldobása, és lecserélése HT 3.0 linkre (ez elég durva belső átalakítás), GDDR5 support

Azt meg se említsük, hogy például már a x1xxx sorozatban is volt GDDR4. És az első kifejezetten stream computing libet is az ATI csinálta (x1xxx sorozatú kártyákhoz), csak az nvidia lovagolta meg erősebben ezt a vonalat (bár streamet is nagyon sok helyen használnak).

ATI folyamatosan fejleszti a kártyáit, meglátjuk hogy az 5xxx sorozat mcm megoldású lesz-e vagy csak a 6xxx.
 
Válasz írásához előbb jelentkezz be!
9. mtrx220
2009.03.31. 12:42
az nv is lehúzhatná már magát a retyón a tégláival együtt..
 
Válasz írásához előbb jelentkezz be!
8. thspo
2009.03.31. 12:56
nattila77: ez a Te álláspontod, én elismerem. DE! A játékipart nem ez az architektúra fogja vissza, hanem a jelenlegi nextgen konzolok. Addig míg ezek a piacon vannak nem lesz érdemi előrelépés a játékpiacon. Amit megírnak konzolra azt portolják át pc-re, így olyan játékokkészülnek amit egy konzol bír elfogadható sebességgel futtatni, csakis ezt fogják átportolni pc-re. Én abban biztos vagyok h a jelenlegi pc hardverek ennél jóval többet is bírnának.

sirpalee: a GPU architektúrára céloztem nem a memória vezérlésre és a komplett pcb-re, de igazad van abból a szempontból, hogy ezen a téren sem fejlődött sokat az nv. És létezett egy ún geforce 7950GX2, lehet nem írom pontosan a nevét, de már korábban is volt 2 gpu-s kártyájuk.

És megint kapom az osztást (ez nem baj mert legalább én is tanulok). Az h a két új vga milyen teljesítményű lesz.... Hát. Sztem ki fognak osztozni egy erős egyenlőben! DE! AMD fejlettség ide vagy oda, azt mindenkinek el kell ismernie hogy az nv gyártja a legerősebb asztali vga-kat a világon Hozzátenném!!! MÉG.
 
Válasz írásához előbb jelentkezz be!
7. Norba
2009.03.31. 14:29
DX10.1-et maximum 2játék támogatja!
Hülyeség kifejleszteni. Az nV-nek idén meglesz a DX11 jövőre meg az új tervezés.
Jövőre olyan kártyákat fognak kidobni amik olyan 100-300mhz közötti órajelen fognak menni elvileg passzív hűtéssel és erősebbek lesznek jóval egy GTX295-nél.
Továbbá sokkal olcsóbbak is lesznek.
Az ATI-sok meg a DX10.1-re!!!
 
Válasz írásához előbb jelentkezz be!
6. sirpalee
2009.03.31. 14:36
thspo

Én azt írtam, hogy egy pcb-n két videókártya mag. A 7950GX2 szintén két pcb-s.

Tavaly meg fél évig ATI kártya volt a legerősebb. Na bumm, mindig egymást váltogatják. Az nvidia nem tudta utolérni a 4870x2-t egyetlen egy pcb-s rendszerével sem. És most sem tudta, csak egy 2 pcb-sel...

A másik dolog, ahol van DX10.1 támogatás, már nem az nvidia a legerősebb. Ott a 4870x2 simán lenyomja a gtx295-t. (pl hawx-ban is volt 10.1 opci
 
Válasz írásához előbb jelentkezz be!
5. Tyrel
2009.03.31. 15:03
Kis érdekesség az architektúrák közötti különbségről: http://logout.hu/blog/abu85/index.html, főleg a két újabb cikke érdekes.

Még annyit fűznék hozzá, hogy némelyek fordítva gondolkodnak. A játékfejlesztők nem azért nem használják a DX10.1-et mert tök felesleges vacak, hanem azért mert ha erősen építenének rá, azzal a piac felét úgy ahogy van elvesztenék, mivel a GeForce kártyákon nincs DX10.1. Bár maga a kártya többé-kevésbé le tudná futtatni a DX10.1 kódot, de mivel az architektúra már régi, ezért nem gyorsulás hanem pont az ellenkezője következne belőle, így aztán nV nem támogatja. Az nV nem azért nem támogatja a DX10.1-et mert a fejlesztők nem használnák, hanem azért mert az összes jelenlegi kártyája rosszul jönne ki belőle. Tény hogy sok fejlesztő el van maradva technológiai téren, de az nV oldali támogatottság hiánya nem ez, csupán ezzel takaróznak.
Azért hogy legyen példa is, pl. HAWX vagy Stormrise (főleg utóbbi használja teljes mértékben) támogatják DX10.1-et. Utóbbiról néztem nem rég egy tesztet, a GTX260 ellenfelének szánt HD4870 a DX10.1 engedélyezése után elég csúnyán elkente a GTX280 száját...

Ezenkívül még van sok más szenvedése is nV-nek ezzel, pl. hogy még egy példát kiragadjak, alapból a DX10-ben nincs élsimítás. A DX10.1 hozza vissza bele, ezért nV itt is trükközni kényszerül és DX10-es környezetben a CUDA-n keresztül valósítja meg az élsimítást, kissé rosszabb minőséggel.
Persze erre sokan mondják, hogy nincs semmi baj az élsimítással nV-n, sok DX10-es játék alatt. Ez igaz, annál az egyszerű oknál fogva, hogy a mai DX10-et "használó" játékok döntő többsége valójában nem teljes mértékben a DX10-re épül, hanem még mindig a már ezer éves DX9-et használják, és csupán csak
"kölcsönvesznek" néhány részletetet a 10-ből, főleg látvány javítása érdekében. Ennek a DX9 köré való "betokozódásnak" köszönheti nVidia az "életét", a G80 architektúra amit azóta is csak lapátolnak össze egyre nagyobb chipekké meg nevezgetnek át, az erre a DX9-re lett kitalálva.

Ezenkívül sok konzolos játéknak (főleg XBOX) azért nem készül PC portja, mert az a konzol tesszelátort használ, úgy átírni a játék motorját, hogy tesszelátor nélkül is szép maradjon de még mellette gyors is legyen, már túl erőforrásigényes lenne (nem érné meg). Ha viszont csak a windows platformra írnák át de meghagynák a tesszelátor támogatást, azzal megintcsak elvesztenék a PC piac felét, amiből már egyenesen következik hogy így sem éri meg nekik a portolás. Nem véletlen, hogy az utóbbi időben a Microsoft és az Ati (ill. már AMD) nagyon jó barátságot kötöttek, főleg a DX11 kifejlesztésének céljából. Ennek az az egyszerű oka, hogy Microsoftnak érdeke lenne, hogy az egyébként szintén Microsoftos XBOX-ról a lehető legtöbb program napvilágot láthasson a szintúgy Microsoftos PC piacon is (ill. viszonylag nagy lehessen az átjárhatóság a két platform között), erre pedig jelenleg az egyetlen megoldást a Radeonok kínálnák...
 
Válasz írásához előbb jelentkezz be!
4. thspo
2009.03.31. 15:25
sirpalee: ezt nem értem. Nekem 8800 ultram van és nem lehetett bekapcsolni a dx 10.1 opciót csak a dx10 működött geforce-n (HAWX-ban) szal biztosan gyorsabb benne az AMD. Egyébként meg DX10 és DX 9 között sem láttam különbséget maximum sebességbeli eltérést tapasztaltam szal örüljün mindenki a DX10.1-nek ha az olyan forradalmi....

oliba: igen nem gyártanak GTX295-t, ebben igazad van de maga a kártya létezik. És ha jól olvastam dolgoznak az egy pcb-s megoldáson. Hmmm érdekes lesz az tény...

gab78: tény hogy kevesebb a tranzisztor, de a számoló egység meg 3x annyi és az új AMD-n még órajelben sem lesz elmaradva lényegesen az nv-től.
 
Válasz írásához előbb jelentkezz be!
3. Phantomstr...
2009.03.31. 15:40
EZ nem megjelenés! Ha a paraméterek publikálását vesszük annak, az AMD kártyája már 2 hete megjelent
 
Válasz írásához előbb jelentkezz be!
2. sirpalee
2009.03.31. 16:13
thspo:

A minőségben nem fogsz lényeges különbséget látni, mert az effektek nagy részét dx9-en és dx10-en is meg lehet csinálni, csak dx10-en sokkalta hatékonyabban. Csak hát mivel dupla architektúrájú a legtöbb játék, nem fognak 2 render engine-t írni, hanem a dx9-es megoldásokat használják dx10 alatt is, ami meg gyakran lassabb is.

Tyrel:

Egy apró javítás, nem azért nincs élsimítás mert dx10, hanem azért mert deferred renderert írnak manapság már sokan, és ott alapból bukta a hagyományos forward rendererknél használható élsimítás, és vagy post processben kell, vagy pedig a programozható aa-t kell használni, ami csak dx10.1 alatt elérhető. A 10.1 használatávan nem vesztenék el a piac felét, csak kb minden játék száguldana radeonokon, és mindenki azt venné. Viszont a piac játékainak a nagy részét az nvidia pénzeli, szóval ezért nem használják.
 
Válasz írásához előbb jelentkezz be!
1. Multitask
2009.03.31. 16:32
Vicces, hogy azt hiszik egyesek, hogy majd az nvidia jövőre olyan kártyákat fog kidobni.
 
Válasz írásához előbb jelentkezz be!