iPon Hírek

Pletykák a Radeon HD 7000-esekről

Dátum | 2011. 11. 22.
Szerző | J.o.k.e.r
Csoport | MEGJELENÍTÉS

Várható megjelenések és árak

Egyes források szerint az első Radeon HD 7000-es videokártyák januárban jelennek meg és Tahiti XT GPU köré épülnek majd. Ezek a modellek a Radeon HD 7000-es sorozat leggyorsabb tagjai lesznek. Itt valószínűleg a Radeon HD 7950-es és Radeon HD 7970-es modellekről van szó, amelyekről a korábbi pletykák is azt állították, hogy januárban érkeznek. Egy hónappal később, február folyamán a Tahiti Pro GPU-ra alapozó példányok is befuthatnak, március folyamán pedig két, eddig ismeretlen GPU, illetve a köréjük épülő videokártyák is megjelennek: az akkoriban érkező termékek a Pitcairn XT és Pitcairn Pro grafikus processzorok köré épülnek. Utóbbiak valószínűleg a Radeon HD 7800-as családot alkothatják majd (amiket eddig a források Thames néven illetek, remélhetőleg hamarosan hivatalos információk is rendelkezésre állnak majd).

A felsőkategóriás, Tahiti XT GPU-val ellátott videokártyák 500 dollárba kerülnek majd, míg Tahiti Pro GPU-ra alapozó társaikért 100 dollárral kevesebbet, azaz 400 dollárt kell letenni az asztalra. Az említett újdonságok a TSMC 28 nm-es gyártástechnológiájával készülnek majd és a Next Generation Core (NGC) architektúra köré épülnek. A termékeket a korábbi hírek szerint újfajta, a jelenleginél hatékonyabb hűtéssel is ellátják.

Tahiti GPU-k XDR2-es és GDDR5-ös memóriatámogatással


A Tahiti GPU esetében egy igazi érdekességről is pletykálnak, méghozzá egyre több forrás. A hírek szerint az AMD ezeknél a GPU-knál XDR2-es memóriachipeket használ majd, amelyek alacsonyabb fogyasztás és nagyobb sávszélesség mellett üzemelnek, mint GDDR5-ös társaik. Nem először hallunk erről a témáról, így jó eséllyel lehet benne valami.

Új hozzászólás írásához előbb jelentkezz be!

Eddigi hozzászólások

48. Meteorhead
2011.11.22. 10:11
A "Next Generation Core (NGC)" az igazából "Graphics Core Next (GCN)", bármennyire is furcsán hangzik a rövidítés. AMD fórumon (és az összes eddigi előadáson) legalábbis ezzel illették.
 
Válasz írásához előbb jelentkezz be!
47. ByrDer
2011.11.22. 10:57
Érdekes hogy az AMD még mindig élvonalbeli csúcstechnikát képes hajszolni a gpu fronton, már évek óta egy lépéssel az nvidia előtt járnak technológia szempontjából (jóval hatékonyabb teljesítmény/watt, teljesítmény/chip méret, stb). Mégis nem képesek fejlődni a cpu vonalon, és több éves lemaradással tengődnek az intel mögött... vajon mi lehet ennek az oka?
 
Válasz írásához előbb jelentkezz be!
46. atti2010
2011.11.22. 11:08
ByrDer Az AMD (Ati) a VGA-k terén már régi motoros, a CPU fronton meg Intel korlátlan erőforrásokkal rendelkezik és nem kell figyeljen a GPU vonalra is, APU fronton viszont változhat a dolog, no meg Intel megkente a fél világot hogy az ő termékeit vegyék.
 
Válasz írásához előbb jelentkezz be!
45. madcaptain
2011.11.22. 11:11
hát nem tudom a gtx 580 simán veri a 6970-et, a 480 is verte a 5870-et
 
Válasz írásához előbb jelentkezz be!
44. atti2010
2011.11.22. 11:17
madcaptain A 6990 a legnagyobb VGA, és a 6970-et sem veri épp annyira simán, fogyasztás és csip méretről nem is beszélve.
 
Válasz írásához előbb jelentkezz be!
43. Terror
2011.11.22. 11:17
Csak közben másfélszer akkora a chip és kétszer annyit eszik, az áráról meg ne is beszéljünk.
 
Válasz írásához előbb jelentkezz be!
42. CyberPunk6... madca...
2011.11.22. 11:27
Az előttem hozzászól két kolléga nem is említette, hogy fél évvel később jöttek ki, ami a számítástechnikában nagyon soknak számít, szóval inkább ciki, hogy csak ennyit sikerült kihozni. Nehogy már egy több hónappal később megjelentet hasonlítsunk hozzá
 
Válasz írásához előbb jelentkezz be!
41. stranger
2011.11.22. 11:37
500 dollár az jól hangzik, bár az inkább a kisebbik lesz, természetesen ha lehet hinni a pletykáknak.
 
Válasz írásához előbb jelentkezz be!
40. gery84 madca...
2011.11.22. 13:58
Az nvidia egy kicsit ész nélkül csinálta a gtx480 meg 580-at! Ez olyan mint az autóba beletesznek egy V8-ast aztán etesd!
Az nvidia is jó nagy chipet rátett egy lapra meg GDDR5-ös ramokat amiket nem lincencel a Rambustol ezáltal pereskednek!
De ha megnézzük ez kell a vevőnek, többen veszik mint a HD6970-t!
 
Válasz írásához előbb jelentkezz be!
39. Dekko
2011.11.22. 16:26
Tévedés.
Én szimplán próbáltam radeont is a gépemben (i7 2600k) FullHD felbontás mellett.
kevés volt. Most egy GTx580-assal tarolok mindent.
Ég és föld a kettő...

 
Válasz írásához előbb jelentkezz be!
38. Dekko
2011.11.22. 16:27
Számomra természetesen csak is a Kepler jöhet szóba.
De kíváncsian várom mit tud az új Gpu.
Remélem nem Bulldozer, illetve HD2900XT korszakot fogjuk megismételni.
 
Válasz írásához előbb jelentkezz be!
37. tibaimp
2011.11.22. 17:06
Azért azt tegyük hozzá, hogy az amd már évek óta nem végzett teljes gpu áttervezérs, csak a jó öreg HD2000 gpu-t csiszolgatja, kisebb csíkszélesség, több tranzisztor, ilyesmi, de a nvidia a fermi-vel egy teljesen új arhitechtűrát hozott be, több kevesebb sikerrel.
Nem tudom ez a 7000 sorozatú gpu már átdolgozott cucc lesz-e?
 
Válasz írásához előbb jelentkezz be!
36. gab78
2011.11.22. 17:13
Dekko: "Én szimplán próbáltam radeont is a gépemben (i7 2600k) FullHD felbontás mellett."

Milyen Radeont? 5770et? én 6870-et használok, és bőven elegendő, minden mehet fullon, max AA-t kell kikapcsolni. A 6970-nek meg már egészen biztosan nem okoz gondot semmilyen alkalmazás sem AA mellett sem.
 
Válasz írásához előbb jelentkezz be!
35. jozsefm
2011.11.22. 17:17
Tahiti XT GPU-val ellátott videokártyák 500 dollárba kerülnek majd,

csak így maradjon.
 
Válasz írásához előbb jelentkezz be!
34. sanyix
2011.11.22. 17:26
@Dekko: én geforce2-t próbáltam a gépemben. Aztán egy radeon 9600-at használtam. Ég és föld a kettő a 9600 tarolt mindenben
 
Válasz írásához előbb jelentkezz be!
33. sanyix
2011.11.22. 17:38
@tibaimp: akkora áttervezést mint a kermiben csináltak a radeonoknál is csinálnak, kb 2 generációnként... csak nem erre verik magukat, nem parasztvakításra mennek. A kermi áttervezése meg elég érdekesen sikerült... a nagy fogyasztású, nagy lapkaméretű, cuccaikat alig növekedő teljesítményért sokkal nagyobb fogyasztásúra és lapkaméretűre csinálták(és ebből következően rohadt drágák is). Szvsz visszalépés a kermi a g80 alapúakhoz képest. Manapság semmi esetben sem vennék nvidia kártyát és nem is ajánlok senkinek ilyet (max notiba intelvicc helyett D (mert ott ugye a zsintel a zsintel procik mellé letiltott az amd gpukat))
 
Válasz írásához előbb jelentkezz be!
32. birmar2 sanyi...
2011.11.22. 17:51
Én Gforce4et használtam, aztán váltottam 9600ra, ami mai napig üzemel.
 
Válasz írásához előbb jelentkezz be!
31. tibaimp
2011.11.22. 18:30
sanyix: Ha jól tudom a 3870-ben volt 64+256 stream processzor, ehhez képest a 4870-ben kb. 800 db, az 5870-ben 1600 db, majd a 6870 visszalépés volt mert abban csak 1156 van, ha jól tudom a számokat.
Szóval csak szépen duplázták ezeket a stream processzorokat és kész, közben a csíkszél ment lefelé, 3870 65nm, 4870 55nm, 5870 40nm, 6870 40nm ennyit csináltak.
Megjegyzem ez is bevált, mert elégnek bizonyult.
Azt akarom ezzel mondani, hogyha ők is váltanak full rendszert, új gpu-t terveznek, nehogy úgy süljön el mint a fermi.

Nálad a kermi a fermi? a zsindel meg az Intel? nem teljesen értettem.
Ilyet én is tudok --> Bullfosder ez hogy tetszik?
Érdekes...
 
Válasz írásához előbb jelentkezz be!
30. Balucsek
2011.11.22. 19:05
Hát az a 500$ nekem 150E forintnak tűnik (mivel a 350$-os VGAk kerülnek itthon 100K-ba) ami hát jó jó de nem fogok rögtön érte rohanni...
 
Válasz írásához előbb jelentkezz be!
29. jozsefm Baluc...
2011.11.22. 19:11
Még mindig jobb mint amiről először szóltak a hírek, miszerint a 7970-es 700$-os áron nyitott volna. Ezt úgy látszik meghagyják a 7990-nek, és nem akarnak szériában gyártott csúcs VGA-ra 1000$-os árcédulát.
 
Válasz írásához előbb jelentkezz be!
28. kisza25 Dekko
2011.11.22. 19:11
az érdekes, mert nekem csak HD5850 volt egy i3-mal és minden futott fullHD-ben 40-50+ FPS-el, na nehogy azt mond egy HD6950 2GB erre nem képes
 
Válasz írásához előbb jelentkezz be!
27. and1ao
2011.11.22. 19:15
Hát azért a 700$-os első hírek után nekem is kikerekedett a szemem de az 500 az nem gy rossz ár legalábbis eddigi évek alapján.

ui.: Birom az ilyen dekko féle NV huligánokat jót nevettem megint
 
Válasz írásához előbb jelentkezz be!
26. ThompsoN kisza...
2011.11.22. 19:18
A 6950 egy 2-5%-al az 5870 felett van (megjegyzem, hogy 192-vel kevesebb shader egységgel).
 
Válasz írásához előbb jelentkezz be!
25. kisza25 Thomp...
2011.11.22. 19:26
tudom, de a 2GB memóriával és a legújabb driverekkel fullHD és az feletti felbontásokban(ahol elfogy az 1GB VRAM) már nagyobb a különbség, ismerek pár emberkét aki HD5870 1GB-al a VRAM miatt küzd amúgy teljesen elégedettek a kártya teljesítményével
 
Válasz írásához előbb jelentkezz be!
24. jozsefm and1a...
2011.11.22. 19:37
ui.: Birom az ilyen dekko féle NV huligánokat jót nevettem megint

Igen összekeverik kissé a vágyálmaikat a realitással.
 
Válasz írásához előbb jelentkezz be!
23. sanyix
2011.11.22. 19:43
@tibaimp: ha utánanéznél talán azt is látnád hogy a 6870 mekkora visszalépés volt kevesebb stream proci van benne, még sem lassabb... na vajon miért(nem csak a nagyobb órajel miatt)?
Ez a különbség. Az amd okosan a hatékonyságot növeli. Nvidia meg a szokásos brute force technikát alkalmazza, hiszen a fanjait a teljesítményen kívül más nem érdekli, nem gond ha egy vagyont kell fizetni érte és megolvadnak az áramvezetékek tőle

Változik a memóriavezérlő, szálkezelő, változott a tesszalátor, most a 7000-nél a shadermagok is változnak, és megint a memóriavezérlő is.

De tovább megyek, akkor nem tudom miért hiszed hogy a kermi fejlődött, ennyi erővel abban is ugyanúgy csak a shader egységek számát növelték.
 
Válasz írásához előbb jelentkezz be!
22. Dekko
2011.11.22. 20:58
sanyix

gab78

Nem foglalkozom közép illetve alsó kategóriás videokártyákkal.
 
Válasz írásához előbb jelentkezz be!
21. Dekko
2011.11.22. 21:01
józsef m.
Azt gondolsz amit akarsz, én kipróbáltam a Mercit és a BMW-t is. Bmw jött be, kb ennyi a véleményem, és nem tartom magam nvidia huligánnak. Jobb is kész ezen nincs mit ragozni szerintem.
 
Válasz írásához előbb jelentkezz be!
20. jozsefm Dekko
2011.11.22. 21:32
A 10-es ás a 11-es hsz-ed után, egy Radeon hírnél ilyet nem is tételezek fel,ha pedig csúcskártya és tarolás akkor 6990, ennyi.
 
Válasz írásához előbb jelentkezz be!
19. Terror Dekko
2011.11.22. 21:44
...vagy, egy troll vagy, aki hülyeségeket terjeszt.
 
Válasz írásához előbb jelentkezz be!
18. Amacs
2011.11.22. 21:51
Komolyan a hír már annyira nem is számít, de ami alatta megy, minden pénzt megér
 
Válasz írásához előbb jelentkezz be!
17. gab78
2011.11.22. 21:56
Dekko, Alsó kategória, na ezen jót nevettem, ha ilyen maximalista vagy, akkor nem GTX580 kellene, hogy a gépbe kínlódjon, hanem 6990-nek kellene dübörögnie! Tudnod kellene, hogy pillanatnyilag a leggyorsabb vezérlő a piacon.

A BMW hasonlításban egyetértünk, de az nvidiát még csak véletlenül se hasonlítsd a BMW-hez, mert ez sértés a BMW tulajdonosok számára.
 
Válasz írásához előbb jelentkezz be!
16. tibaimp
2011.11.22. 22:18
sanyix: amit írsz az nagyjából rendben van, mondjuk az 5870-es kb 5-15% al gyorsabb, játéktól függően a 6870-estől, de az ok, hogy ugyan ezt sokkal kevesebb stream procival tudja.
Én arra akartam célozni, hogy ideje lesz lassan az amd-nek is olyan mértékben áttervezni a full gpu-t, mint azt az nv megtette a 8800-as után.
Ez eddig úgy tűnik, hogy a 7000-el be is fog következni akkor.
 
Válasz írásához előbb jelentkezz be!
15. gab78
2011.11.22. 22:25
tibaimp: 8800 után fejlesztett az nvidia? Mit a 9800-at? ugyan az volt, vagy a GTX250-et? még az is ugyan az volt, csak átnevezték, párszor. Nem volt az olyan régen, hogy elfelejtkezhetnénk róla! Vagy a GTX280-ra gondolsz? Micsoda fejlesztés, szélesebb memória, több feldolgozóegység és slussz. Még arra sem volt képes az nv, hogy a DX10.1 támogatást megvalósítsa benne. De óriási fejlesztéseket hajtott végre az nv a 8800 után, persze.
 
Válasz írásához előbb jelentkezz be!
14. Dekko
2011.11.23. 03:46
gab78
Én az 1Gpu-s megoldások híve vagyok. HD6990 elvből nem építenék a gépembe hogy szívjak vele.
Előbb GTX580SLi mert jobban konfigurálható az alkalmazásokhoz.

gab78 Talán GTS250 illetve G92 Gpu. Radeon is csinál ilyet. Én annyira nem sztárolnám mert ha tényleg annyira fejlesztene, talán nem kullogna az 1Gpu-s versenyben az nvidia mögött. Ide vagy ida a fejlesztés az nvidia az gyorsabb. Ki nem szarja le hogy hány millió ellenállást meg kakaót épített bele a gyártó a Gpu-ba, ha működik.
 
Válasz írásához előbb jelentkezz be!
13. gery84 tibai...
2011.11.23. 05:10
Nem 8800 után fejlesztett hanem 3évre rá gtx250(8800)után, addig csak átszámozta őket míg a mérnökök nyaraltak, nem csoda hogy az ATI beérte őket!

Dekko: Remélem Hogy a HD7000-be akkora magot fognak tenni mint most a gtx580-ba van, Asszem tarolna elég rendesen, de szerintem nem fog akkora chipet tenni a kártyájára mint az nvidia! Ha megnézünk egy HD6870X2, 255mm+255mm= 510mm A gtx580 meg =520mm chip van rajta
De a HD6870x2 főlényesen elveri pedig kisebb nála!
 
Válasz írásához előbb jelentkezz be!
12. Fzoltan
2011.11.23. 08:32
Jajj, most mit izéltek, Dekko az a fajta ember, aki elhiszi magáról, hogy ért hozzá, aztán a fórumokon próbálja oltani az embereket, hogy azértis az övé a legjobb kártya és igenis nagyon jól választott, hiszen ő ért hozzá, ráadásul még a BMW-ket is szereti.
 
Válasz írásához előbb jelentkezz be!
11. gab78
2011.11.23. 11:13
Dekko, Ellentmondasz saját magadnak, "Én az 1Gpu-s megoldások híve vagyok.", "Előbb GTX580SLi" csak úgy mondom, hogy az már 2 GPU.

Most a válságban átnevezik, meg korábban volt, hogy egy belépő szintűt átneveztek 1*. De nem egymás után éveken keresztül, egy elvileg "felső" kategóriás vezérlőt!

A két vállalatnak más a hozzáállása, az AMD, a hatékonyságra, a hatékonyság fokozására fekteti a hangsúlyt, az nvidia ezzel szemben, mindent bele elven, nagy legyen, nem baj, ha néha füstöl is, a legnagyobb legyen, a leggyorsabb?! ezen azért lehetne vitatkozni, és mi vagyunk a királyok, csak nehogy XVI. Lajos sorsára jussanak azok a királyok.
 
Válasz írásához előbb jelentkezz be!
10. stranger
2011.11.23. 13:43
Nem foglalkozom közép illetve alsó kategóriás videokártyákkal.

Ezen de jót nevettem. Nem minden az ár, nem minden a reklám, maradjunk annyiban. Látod a Bulldozert is "agyonhypeolták", aztán mi lett belőle. 2500K meg 2600K lett belőle, az. AMD kártyák jobban bírják a felbontást, NVIDIA a tesszellációt, mert akkora a chip, mint a telefonom lassan. Ezért is zabál és kerül többe azonos teljesítménynél, no meg a CUDA miatt. BF3-ban, nagy felbontáson a 6970 elveri a gtx 580-at. FullHD-ban az 580 elveri a 6970-et. Sosem értettem minek ilyenekkel trollkodni... Fejlődés pedig mindig van, nem ülnek a valagukon, másképp éhenhalnak a kínai munkások. 6000 széria nem tartalmaz nagy áttöréseket, reméljük majd a 7000 fog, aztán irány a bót'. Ha meg nem, veszünk NVIDIA-t.
 
Válasz írásához előbb jelentkezz be!
9. StevyXIX Dekko
2011.11.23. 15:30
A csúcs csak olyanoknak számít mint te is, a nagy átlagnak olcsón kell nagyobb teljesítmény magyarán ár/érték arány és ebben most is sokkal jobb az AMD, lehet GTX580 a csúcs de alatta legtöbbször AMD ajánlható (hacsak nem kell valakinek Cuda vgy Physx pont). Ez kell a népnek olcsó kártyák nagy teljesítménnyel, HD4000 óta sikeres így az AMD.
 
Válasz írásához előbb jelentkezz be!
8. Dekko
2011.11.23. 16:04
Én nem sztároltam semmit, csak nem tudtam átmenni egy fórum hozzászólás mellett, hogy az nvidia ész nélkül csinálta a fermit, mi közben köztudott hogy elsősorban melóra termett, és még játékok alatt is győzedelmeskedni tudott.
Persze valamit valamiért, fogyasztás hőtermelése nem éppen volt jó a GTX480-nak.

stranger Sehol nem erősebb egy HD6970 es egy GTX580 videó kártynál, talán talán néhol fej-fej mellett melóznak, de többségében a fermi kerül fölénybe 10-15%-al.Teszt!
Mellesleg ha drága az nvidia nem kell olyan kártyát vásárolni. (nem mint ha a radeon marha olcsó lenne ahhoz képest hogy picike a chip ugye)

gab78 Ezt természetesen tudom, hogy ha választanom kellene én 580Sli-re voksolnék mint HD6990-re. Persze ezt nem ár / érték mutatóval mondom.
Hiszen egyik csúcs videokártyának sincs JÓ ár/érték aránya.

Fzoltan Te meg hangyányit fogalomzavarban szenvedsz. Itt nem a kártyáról volt szó, hanem hogy fikáznak egy olyan technológiát (fermit) ami jelenleg a piacon erős mezőnyben áll.

Na, béke!
 
Válasz írásához előbb jelentkezz be!
7. StevyXIX Dekko
2011.11.23. 16:08
Hát igen ez a Fermi baja, iszonyat nagy a chip és drága az előállítása és hiba aránya is sokkal nagyobb ez miatt.
Alsó és középkategóriába nem képes versenyezni az AMD-vel csak próbálkozik agyon OC-et újra kiadott kártyákkal.
 
Válasz írásához előbb jelentkezz be!
6. Dekko
2011.11.23. 16:09
Mellesleg HD5850 OC-ról váltottam GTX580-ra.
Nem egy kategória, igazatok van, eltúloztam.
Majd kipróbálok egy HD6970-est is.
 
Válasz írásához előbb jelentkezz be!
5. Dekko
2011.11.23. 16:10
StevyXIX
Ezt nem is vitattam, hiszen láttam milyen áron kerültek nem is olyan rég forgalomba az 5850-esek...
 
Válasz írásához előbb jelentkezz be!
4. Dekko
2011.11.23. 16:10
StevyXIX
Ezt nem is vitattam, hiszen láttam milyen áron kerültek nem is olyan rég forgalomba az 5850-esek...
 
Válasz írásához előbb jelentkezz be!
3. Lux82
2011.11.23. 19:01
Nekem 6970-em van minden eggyes játékot ful grafikán játszok egyedül a metró 2033-ban volt olyen hely ahol leesett 30fps alá de csak kis időre. A bf3-at neten játszom ott aztán vannak robbanások megse kottyan neki.
 
Válasz írásához előbb jelentkezz be!
2. stranger Dekko
2011.11.23. 21:17
Én nem akarom lerombolni az álomvilágodat, de abban a tesztben is van olyan játék, ahol jobban teljesít a 6970. Ha nem találod, akkor pedig javaslom ezt.
 
Válasz írásához előbb jelentkezz be!
1. jozsefm Stevy...
2011.11.23. 21:38
Meg az abszolút csúcsban sem, egyedül az 580-at hagyta -nem tudom miért, válasz nélkül az AMD- akkor itt se lenne kérdés ki az úr a portán, persze ha tudták volna hogy eddig lesznek kénytelenek a 40nm.-t nyögni lehet mégis kihozták volna eredetileg tervezett formájában a 6970-et.
 
Válasz írásához előbb jelentkezz be!