iPon Hírek

Az AMD új csúcskártyája a Radeon R9 Fury X nevet kaphatja

Dátum | 2015. 06. 12.
Szerző | J.o.k.e.r
Csoport | FŐ EGYSÉG

Úgy tűnik, az elmúlt napokban felkapott pletyka, amely azt állította, hogy az AMD következő generációs, Fiji XT GPU köré épülő csúcskártyája a Fury nevet viseli, nem volt teljesen alaptalan. A koreai HardwareBattle munkatársai kiszivárogtattak egy hivatalosnak tűnő termékbemutató fotósorozatot, amelyen a forradalminak kikiáltott következő generációs AMD csúcskártya, a Radeon R9 Fury X látható.
Az új videokártyáról régóta pletykálják, hogy nem Radeon R9 390X névvel, hanem valami sokkal különlegesebb elnevezéssel érkezik, és ez az elmúlt napok szivárgásai alapján egyre megalapozottabb információnak tűnt – hiszen érkezett néhány kép az XFX Radeon R9 390X-ről, ami nagyrészt átnevezett R9 290X videokártyának tűnik. Hogy mit lehet tudni a Fiji XT alapú Radeon R9 Fury X-ről? Egyelőre annyit, hogy a GPU fedélzetén 64 CU-ra osztva összesen 4096 stream egység dolgozik, amelyekhez 256 textúrázó és 128 renderelő társul. A GPU 4096-bites adatsínen keresztül kapcsolódik a HBM alapú fedélzeti memóriához, ami a várakozások szerint 4 GB-nyi kapacitással bír.
A 28 nm-es csíkszélességgel készülő Fiji XT GPU hűtéséről egy kompakt folyadékhűtő szett gondoskodik majd, hála az Asetek szakembereinek – a szett hőleadó radiátorán egy Cooler Master gyártmányú, 120 x 120 x 25 milliméteres méretű ventilátor teljesít szolgálatot. Csak úgy, ahogy annak idején a Radeon R9 290X szakított a D-Sub videó kimenettel, úgy a Radeon R9 Fury X is nyugdíjaz egy csatlakozótípust, ez pedig a DVI lesz. Emiatt az új videokártyán három darab DisplayPort 1.2a, illetve egy HDMI 2.0-s videó kimenet lesz jelen. Az újdonság tápellátását az eddig kiszivárgott információk alapján a PCI Express 3.0 x16-os slot mellett két darab nyolctűs tápkábel biztosíthatja.
Az AMD várhatóan a következő hét folyamán rántja le a leplet új videokártyáiról, amelyek között hírünk főszereplője, a Radeon R9 Fury X is jelen lesz. Akkor majd kiderül, valóban hitelesek-e a koreaiak által kiszivárogtatott részletek.
Új hozzászólás írásához előbb jelentkezz be!

Eddigi hozzászólások

120. jedi
2015.06.12. 20:22
Még 4-5 nap ! Ez vagy nagyot fog ütni, vagy nagyot fog bukik ! Köztes dolgot már nem tudok elképzelni !!!!!!!!!
 
Válasz írásához előbb jelentkezz be!
119. Armi1P
2015.06.12. 20:55
Most lehet, hogy velem van a baj, de, ha teljesen vízhűtéses, és csak egy sor csatlakozó van rajta, akkor miért dual-slot?
 
Válasz írásához előbb jelentkezz be!
118. korgabor96
2015.06.12. 21:03
Furi iksz De hülyén hangzik.. Remélem a teljesítménnyel nem lesz baj

Meg ez lehet butaság, de amennyire én tudom PCIe 3.0-s amd socket alaplap nem sok van.
 
Válasz írásához előbb jelentkezz be!
117. janika77
2015.06.12. 21:17
Milyen meglepő hír.......
 
Válasz írásához előbb jelentkezz be!
116. tamaspolga... Armi1...
2015.06.12. 21:21
két okból. a fullcover maszknak kell valamekkora magasság is, ha másért nem, a slag (flexicső) miatt.
másrészről pedig a piac (te+én) már hozzászokott a kétslotos videokártyákhoz.
 
Válasz írásához előbb jelentkezz be!
115. Zoli191
2015.06.12. 21:26
Nincs rajta dvi.....
 
Válasz írásához előbb jelentkezz be!
114. siriq Zoli1...
2015.06.12. 21:45
A 390X-n sincs https://www.youtube.com/watch?v=6QdnMAfYHIQ
 
Válasz írásához előbb jelentkezz be!
113. Kajafun
2015.06.12. 21:56
Megint egy találgatós hír a fórumozók összeugrasztására.
Köszönjük!
 
Válasz írásához előbb jelentkezz be!
112. Rojik
2015.06.12. 22:00
Titan X alapján, Fury X lett a neve? Eléggé érdekes választás, ha ez tényleg igaz. A név így nem tetszik, kb. számomra vicc kategória, bár biztos sok fórumon feltűnik majd szerintem és marketing lehet inkább a mögött az X mögött. Habár lehet, hogy néhány "intelligensebb" (khm... "divat" )vevőt pont az az X fogja vásárlásra késztetni. Továbbra is várom a kártya hivatalos bejelentését és az első teszteket.
 
Válasz írásához előbb jelentkezz be!
111. arn
2015.06.12. 22:07
Nem lenne szabad ezeket a kartyakat 28 nanon kiadni.
 
Válasz írásához előbb jelentkezz be!
110. ThompsoN Zoli1...
2015.06.12. 22:12
A monitor gyártóknak is ideje lenne az olyan idejétmúlt csatlakozókat hanyagolni, mint D-sub és DVI.
 
Válasz írásához előbb jelentkezz be!
109. ThompsoN
2015.06.12. 22:51
Én pedig a DisplayPortot szeretem, mert a DVI-nél sokkal könnyebb kezelni, és a véletlen kirántástól sem félek, mert komoly erőt kell kifejtenem, hogy a monitorból ki tudjam húzni.
 
Válasz írásához előbb jelentkezz be!
108. LGx
2015.06.12. 23:01
vastag és rugalmatlan??

 
Válasz írásához előbb jelentkezz be!
107. 5hR3kY
2015.06.12. 23:03
Már megint csak a hülyeséget írod! A VGA gyártója nem köteles adaptereket adni a vásárlóknak, akinek régi monitora van, az vegyen átalakítót magának. Egy asztali gépből meg nem lehet véletlen kirángatni a kábeleket! A rögzítő csavar meg csak a véletlen kihúzódás ellen véd, így ha becsavarozod de utána kiráncigálod a kábelt akkor nagyobb eséllyel sérül meg a csatlakozó illetve a forrasztás mint a kábel súlya alatt. Több kárt okozhat a csavarozás mint hasznot.
 
Válasz írásához előbb jelentkezz be!
106. corzi 5hR3k...
2015.06.12. 23:05
nem libastuff-ot akarom vedeni de az eddig vasarolt videokartyaimhoz en is mindig kaptam ketfele adaptert legalabb. legutobb is egy DVi - VGA -t es egy DVI - HDMI atalakitot. nem mintha az az 500 ft akkora koltseg lenne, de nekem volt hozza^^
 
Válasz írásához előbb jelentkezz be!
105. Snowman
2015.06.12. 23:16
Nincs rajta dvi..... és csak 4gb RAM van rajta totál bukta már ha gtx 980 és fölé szánják, vártam rá most is ati van a gépben xfx 7970 de így látom már 980 ti lesz
 
Válasz írásához előbb jelentkezz be!
104. pdx06
2015.06.12. 23:26
3 éven belül úgyse jön ki olyan kártya ami alkalmas a normális 4K játékra.
A 980Ti is 19 FPS-t produkált a Witcher 3-al.
 
Válasz írásához előbb jelentkezz be!
103. SzAdamAndy
2015.06.12. 23:27
Igazad van! Ha már rapül a kábel repüljön vele a monitor is a csavaros biztosítás miatt ha beleakadsz (vagy projektor).
 
Válasz írásához előbb jelentkezz be!
102. TheRealTsL pdx06
2015.06.12. 23:37
Ha nem haragszol, én egy ilyen tesztnek előbb hiszek [LINK]
Az alapórajeles 37 és az OC kártya 45 fps-e kicsit messze van attól a 19-től, akárhol is "tesztelték" azt.
 
Válasz írásához előbb jelentkezz be!
101. Tibike1993 pdx06
2015.06.13. 00:06
Bocs, Snowman-nak ment
Picit tényleg furán hangzik ez a 4 giga... a 980 ellen még oké lenne, de a Ti meg a Titan X ellen, amik nagyobb felbontáshoz valók, nem biztos h elég.
 
Válasz írásához előbb jelentkezz be!
100. pdx06 TheRe...
2015.06.13. 00:32
Tökmindegy, a textúrák úgysem 4k-ra lettek még kiélezve. Lehet hogy élesebbek ezek a játékok, de több részletet azért nem fognak adni. Ugyanúgy mint a játékok hőskorszakában értelemszerűen egy 200x200-as négyzetrácson négyszer részletesebb alakokat lehetett rajzolni mint például egy 50x50-esen.
 
Válasz írásához előbb jelentkezz be!
99. siriq pdx06
2015.06.13. 01:56
Egyebkent tenyleg nem 19 fps hanem 45. A textura pedig egy dolog ha benne vagy , akkor ezt te is tudod. Ez inkabb a memoria reszere van nagyobb hatassal (hogyan dolgozza fel ertekel tolja at stb.)
 
Válasz írásához előbb jelentkezz be!
98. siriq siriq
2015.06.13. 02:26
Ahogy neztem a tesztet oc-ban nem csinaltak w3-t de lazan 50+ lenne az fps , igy g-sync mellett ez teljesen folyamatos.
 
Válasz írásához előbb jelentkezz be!
97. AusWolf Thomp...
2015.06.13. 02:50
Idejétmúlt... és mi van az olyanokkal, mint pl. az öcsém, aki egy olyan full HD monitort használ, amin csak D-sub bemenet van? Nyilván nem tegnap vette, de egész használható monitor, és érthetően nem akar tizenezreket költeni egy másikra csak azért, mert nincs rajta digitális bemenet. Egy dolog a modernség, és egy másik a kompatíbilitás a régebbi, de nem feltétlenül idejétmúlt eszközökkel. Egy nemes gesztus lenne a gyártók részéről, ha nem csak és kizárólag a legmodernebb technológiákat támogatnák. Ráadásul ez a Fury cucc kétslotos, így bőven lenne rajta hely egy-két DVI-nak.
 
Válasz írásához előbb jelentkezz be!
96. Merwenus AusWo...
2015.06.13. 05:37
Gondolom adnak hozzá HDMI->DVI és DVI->Analog átalakítót ennyi pénzért, de ha nem, akkor is pár 100Ft-ért lehet venni ilyeneket.
 
Válasz írásához előbb jelentkezz be!
95. Gpety
2015.06.13. 06:36
Ez jó, vagyis rossz. Jó, mert biztos gyors lesz, rossz, mert a drága HBM miatt felrakott 4Gb VRAM elképzelhető, hogy magas felbontásokon kevés lesz. A legrosszabb, hogy ez a VGA biztos drága lesz és hogy az átnevezett 290x-nek (és a többinek) hála az AMD még vagy háromnegyed évig nem ad ki új generációt egyik kategóriában sem, kivéve az extrának számító Fury-t. Ez nem új generáció, inkább csak a legfelsőbb szegmensbe való belépés, amiben eddig csak az Nvidia volt jelen. Nagyon úgy néz ki, hogy 2016-ig az AMD behúzta a féket CPU és GPU fronton is. Egyébként meg miért nem használják a régi XT és Pro jelöléseket?
 
Válasz írásához előbb jelentkezz be!
94. Meteoreso
2015.06.13. 07:56
3 féle kártya érkezik ,Vizes Fury X, levegős (3 fan) FuryX, és levegős Fury Pro
Nem feltétlen mind a 3 lesz 15.én
Jól összehasonlítható a 290X-el Render Output Unit 64-ről 128-ra!!!


 
Válasz írásához előbb jelentkezz be!
93. Phantomstr... Merwe...
2015.06.13. 09:15
Egyszer mindenképp ki fogják vonni a régebbi típusú csatlakozókat és támogatás nélkül hagynak hibátlanul működő monitorokat. Ráadásul most sem lenne túl korán, már vagy egy évtizede fut párhuzamosan a HDMI a DVI-vel és D-SUB-bal, de a DisplayPort is itt van 7 éve.

szerk. AusWolfra reagáltam
 
Válasz írásához előbb jelentkezz be!
92. thestock Thomp...
2015.06.13. 09:19
Kedves Thompson! Az "idejétmúlt" DVI csak annyiban különbözik a HDMI-től hogy nem visz át hangot,videójel-átvitel szempontból teljesen megegyezik a kettő.A monitorok többsége nem rendelkezik hangszóróval,így max csak annyi értelme van a HDMI-nek hogy pl rá tud kötni konzolt. Sajnos nekem is csak egy elavult NEC jutott,így nincs rajta HDMI...oké,ott az átalakító,de miért döntöttek úgy hogy egy VIDEÓkártyáról lehagyják a gyakori portokat,és telerakják egy olyan porttal amit elsősorban szórakoztatóelektronikai eszközökre terveztek?
 
Válasz írásához előbb jelentkezz be!
91. bpeter91
2015.06.13. 09:52
Úristen! az a legnagyobb bajotok, hogy nincs rajta DVI stb? ÁTALAKÍTÓ!!!!! Halló!!!!! Miért rakjanak rá DVI-t meg D-SUB-ot egy olyan kártyára ami vagy egy monitoron 10000fps vagy 3-4 monitort kezel még. Ja meg gondolom nem fog olyan ember ilyen kártyát venni, aki nem vesz vagy nem tud olyan monitort venni aminek nincs megfelelő csatlakozója. Persze végülis tegyenek rá D-Sub-ot is hogy ha már Full HD akkor legyen már mosódott... A digitális jel tiszta, éles. Veszel egy TV-t már azon sem biztos hogy találsz DVI-t meg D-Sub-ot... viszont 3 HDMI-t már igen. Valszeg ezért is raktak rá csak DP-t meg HDMI-t... Amúgy meg egész jónak tűnik a kártya, kíváncsi vagyok mit alkotnak a kártyák, mert most erősen gondolkodok egy GTX 960-on, meg a mostani AMD kártyák között...
 
Válasz írásához előbb jelentkezz be!
90. Zoli191
2015.06.13. 10:49
Nekem az a bajom, ugyanis van egy benq xl2410t monitorom, ami csak dvi-d-n viszi át a 120hz-et. Próbáltam átalakítóval, azzal is csak 60hz volt a max.
 
Válasz írásához előbb jelentkezz be!
89. pdx06
2015.06.13. 10:53
Bőven elég rá egy HDMi meg Display port. A többi régi analóg szar csatlakozót el kell felejteni. Tévéken is elfelejthetnék már a scart-ot és a komponenst de még az AV-t is. Mert az ember lassan a fele árat azért a 80-as évekbeli csatlakozókért fizeti ki amiket az életbe nem használ már. Átalakítót meg cseszheti az ember, semmi átalakító nem fog rendesen egy analóg jelet digitálissá alakítani.

Mint az egyszeri ismerősöm aki bekötette a HD műholdas szolgáltatót és Scarton nézi, csodálkozik hogy szar a kép.
 
Válasz írásához előbb jelentkezz be!
88. Rojik Merwe...
2015.06.13. 11:10
Egy linket kérnék azért, hogy hol lehet ezeket pár száz forintért beszerezni. Komolyan kérdem, mert már kellett régebben és nem pár száz forintból lehetett megoldani. Egyébként ez a több lépcsős alakítgatás nem a legjobb választás. Jobb, ha egy lépcsőben oldja meg az ember.

#30 Auswolf:

Pár száz forintból szerintem nem, de azért pár ezer forintból megoldható a dolog és nem kell 30-50 ezer közötti összeget monitorra költeni. De, ha még mindig analóg bemenetet használ az öcséd, én úgy gondolom, hogy nem áll szándékában egy 300 ezres videokártyát venni. Ezeket az új csúcs kártyákat már nem 1 monitoros FHD-hoz tervezik. Vagy több monitoros FHD-ra vagy 4k-ra (Bár 1 kártya használata esetén, a fix 60 fps még messzebb van).

http://ipon.hu/webshop/product/gembird_hdmi_vga_d_sub_atalakito_fekete_4cm_a_hdmi_vga_001/606474

http://ipon.hu/webshop/product/delock_hdmi_vga_d_sub_atalakito_szurke_5cm_65472/523337
 
Válasz írásához előbb jelentkezz be!
87. pdx06 thest...
2015.06.13. 11:13
A DVI-nek van hangos változata, csak azon van plusz 4 tüske oldalt. Magyarul az oldalsó részén nem egy - alakot látsz, hanem egy + alakot aminek a 4 oldalán tüske van.
 
Válasz írásához előbb jelentkezz be!
86. Rojik pdx06
2015.06.13. 11:18
A Scart kábel mióta tud egyáltalán 720p-t átvinni? Én úgy tudom azt sem bírja, nem hogy 1080i-t, amit HD adásnak szoktak hívni a szolgáltatók.

#35 thestock:

A Display Port mióta található szórakoztatóelektronikai eszközökön? Mindenhol általában HDMI-t látok. A kártyán pedig 1 HDMI és 3 Display port található. Vagy ennyire lemaradtam és mostanában Display portot is raknak a termékekre?
 
Válasz írásához előbb jelentkezz be!
85. pdx06 Rojik
2015.06.13. 11:22
Átalakítók csak arra jók hogy valamilyen szinten használhatóvá tegyék az eszközt jókora minőség és szolgáltatásromlás keretében. Komoly ember nem bohóckodik átalakítókkal, hanem egymással kompatibilis eszközöket választ, miután persze kitalálta hogy mire van szüksége.
 
Válasz írásához előbb jelentkezz be!
84. pdx06 Rojik
2015.06.13. 11:24
Nem vágod hogy mit mondok? Van egy HD beltéri amit Scart kábellel használ, mivel a hátulján ugye van scart csatlakozó is. És csodálkozik hogy nem szép a kép. Scart kábelen is átmegy a HD kép, csak sima SD minőségben látható vagy szarabban.
 
Válasz írásához előbb jelentkezz be!
83. Rojik pdx06
2015.06.13. 11:34
Ez így igaz, viszont ha ügyesen csináljuk, akkor lehet minimalizálni a minőség romlást.

#44 pdx06: Nem, nem megy át a HD kép, hanem egy lekonvertált kép megy át rajta. A HD képet nem tudja átvinni. Ha átvinné mi értelme lenne, hogy a tévé lekonvertálja SD-re a HD képet, mikor a HD-t is megtudná jeleníteni.

A lényegét a kommentednek, egyébként értettem. Az alapból értelmetlen, hogy 2 HD képes készüléket Scart kábellel kötünk össze, azután meg mérgelődünk, hogy miért úgy néz ki a kép, ahogy.
 
Válasz írásához előbb jelentkezz be!
82. pdx06 Rojik
2015.06.13. 11:57
Oké, technikai részébe nem merültem bele, hogy mi mire konvertálódik, de a lényeg ugyanaz mint az összes többinél.
 
Válasz írásához előbb jelentkezz be!
81. Meteorhead
2015.06.13. 12:18
Én arra lennék kíváncsi, hogy a következő generációban amikor gyártástechnológia váltás is lesz, akkor ennyi shadert le lehet-e tolni a notebook/HPC MXM modulokra 100 Wattos fogyasztással.

Ugyan kicsit koros, de a Tonga is már egy ideje koptatja a notebook frontot. Általában egyszerre jönnek a duplázások desktop és notebook fronton is. Ez a Fiji XT nagy dobbantás a korábbiakhoz képest.

Egy erős Zen mellett szívesen látnék egy 4096 shaderes MXM modult.
 
Válasz írásához előbb jelentkezz be!
80. thestock Rojik
2015.06.13. 13:40
Jogos,több display port van.Display sem található minden monitoron.

Ha már linkek (legyen magyar hogy ne legyen fordítási gond): http://oaziscomputer.hu/hirek-tesztek/a-displayport-titok
 
Válasz írásához előbb jelentkezz be!
79. jakusmike
2015.06.13. 14:45
Elég nagy fail ez a kártya már most pedig még megsem jelent... 4k kártyának reklámozzák illetve a HBM-nek 1440p/4k felbontáson van előnye a sávszélesség miatt, viszont a 2014-15ös játékok 95%a 1440p vagy afelett már 5-6 GB vramot használ. értem én, hogy a hbm v1 implementációja miatt csak ennyit tudtak rárakni, de ez így akkoris egy öngól.
 
Válasz írásához előbb jelentkezz be!
78. Rojik
2015.06.13. 14:49

Offra váltok, mert már egy ideje nagyon eltávolodtunk a cikktől.

Nálam ilyen DVI - HDMI kábel használatban van a jelen pillanatban is. Egyébként átalakítókról volt szó és a téma indítója a HDMI - VGA átalakítás volt, ami ugye teljesen más, mint a DVI és HDMI.

#48 thestock: Köszönöm, érdekes cikk volt. Még majd párszor átfutom, meg még utána olvasok 1-2 dolognak. Tudok egyébként angolul, szóval angol cikk sem gond, ha a jövőben nekem linkelni szeretnél valamit.
 
Válasz írásához előbb jelentkezz be!
77. Meteoreso
2015.06.13. 15:27
Szokás szerint Nvidiások szétoffolták a topicot. Gratula.
 
Válasz írásához előbb jelentkezz be!
76. Rojik Meteo...
2015.06.13. 16:00
Ha megnézed amúgy a legtöbb általad offnak titulált hozzászólás onnan indult, hogy itt a cikkben/hírben lévő képen látszik, hogy az új R9 Fury X kártyán 1 HDMI és 3 Display port van és a régebbi monitorokra való jelkonvertálásról esett még szó. Innentől egy kicsit a csatlakozók irányába ment a téma.

A te kommented viszont több szempont alapján számomra rosszabb, mint amit itt beszéltünk. Nem tetted offba (Igaz néhány offot korábban én sem), a többi felhasználót bélyegzed meg egy jelzővel, valamint semmi tartalmi dolgot nem tettél hozzá a cikkhez/hírhez és a cikk/hír tartalmához még csak érintőlegesen sem kapcsolódik. Az meg a moderátorok feladata eldönteni, hogy ezt az "offolást" meddig engedik elmenni, illetve hogy utólag a hozzászólásokat törlik-e vagy sem.

Ezt azért írom le, mert személy szerint nem szeretnék egy értelmetlen AMD vs. Nvidia fanboy vitát látni szebbnél szebb sértegetésekkel és személyeskedésekkel.
 
Válasz írásához előbb jelentkezz be!
75. atti2010
2015.06.13. 16:30


Valamit mégis barkácsoltak az AMD -nél ha így lecsökkent a fogyasztás.
 
Válasz írásához előbb jelentkezz be!
2015.06.13. 16:58
És hol a 3/6GB-os Tonga XT?
 
Válasz írásához előbb jelentkezz be!
73. atti2010 jedi
2015.06.13. 17:09
Valószínűleg később jönnek pedig én is azt szemeltem ki, vagy azokról nincs adat.
 
Válasz írásához előbb jelentkezz be!
72. alfoldi
2015.06.13. 17:51
Igeen ilyet veszek biztos Kb 5-6 év múlva, addig jó lesz a R9 270 is, pláne a Full HD-s monitoromhoz, mert egyenlőre a 4Ksem érdekel, mert annyira nem jó a szemem hogy több százezret költsek a vakításra.
 
Válasz írásához előbb jelentkezz be!
71. atti2010 jedi
2015.06.13. 18:33
Elméletileg az Apple igényeit kell kielégítsék a Tonga XT -vel aztán kaphatunk mi is belőle.
 
Válasz írásához előbb jelentkezz be!
70. Meteoreso atti2...
2015.06.13. 18:59
Néztem én is az MSI kártyában a fogyasztást
390 meg 390X nek Power Consumption: 208 W -t mond

Ez ugyan nem TDP de szerintem ez kacsa, ennyire keveset nem ehet. Kezeld fenntartással.
A Fury pronak 270-et a a Fury X-nek 300w TDP-t mondanak az reális az adott teljesítményhez a HBM miatt...
Jedi:380x ről nagy a csend lehet kezdéskor nem indítják mint ahogy a két léghűtéses Furyról se, ott is lehet csak a vizessel kezd AMD.
 
Válasz írásához előbb jelentkezz be!
69. Kajafun jakus...
2015.06.13. 19:28
Részedről is öngól!
Ezek ramtörlést is tudni fogják!
 
Válasz írásához előbb jelentkezz be!
68. jakusmike Kajaf...
2015.06.13. 20:25
Ramtörlés? Te mégis miről beszélsz? Tudod egyáltalán hogy működik Pckben a memóriakezelés? Ha már mindenképp kötözködni szeretnél legalább valami értelmeset írj. Nembaj ha nem értesz egyet velem, nyitott vagyok építp jellegű vitákra, de annyira azért értékeld magad, hogy normálisan érvelsz. Üdvözöllek
 
Válasz írásához előbb jelentkezz be!
67. gibdj
2015.06.13. 20:35
Az jó jel lehet, hogy a 285-ös Radeon-ok jól elvannak 1080p-n 2GB VRAM-mal az új eljárásnak köszönhetően. Én már nagyon várom a Fury teszteket, jöhetnének lassan.
 
Válasz írásához előbb jelentkezz be!
66. atti2010 jakus...
2015.06.13. 20:37
Valamin dolgozik az AMD ami csökkenti a vRAM használatot a 2GB Tonga volt a kísérleti bárány ezért nem engedélyezték a 4GB példányokat, majd kiderül mi az igazság belőle.
 
Válasz írásához előbb jelentkezz be!
65. korgabor96
2015.06.13. 20:37
Tegnap valaki linkelt egy videót a 390x unboxingjéről, és ugyanaz a felhasználó ma feltöltött egy benchmarkot, ami szerint csak 300 ponttal ver rá a 970re ....
Nem merem állítani, hogy a videó valós, mert a 290x kb. a 970 szintjén van, úgyhogy valszeg a 390x nek erősebbnek kéne lennie, de sebaj, itt van, akit érdekel:
https://www.youtube.com/watch?v=6kEcbLRnbVI
 
Válasz írásához előbb jelentkezz be!
64. jakusmike atti2...
2015.06.13. 20:50
Amiről te beszélsz az color compression és egyáltalán nem csökkenti a vram használatot, csak a sávszélesség használatát. a kettő nem ugyanaz. itt egy cikk róla: http://www.anandtech.com/show/8460/amd-radeon-r9-285-review/3
 
Válasz írásához előbb jelentkezz be!
2015.06.13. 20:58
Most nem találom, de a ph-n valami olyasmi hír volt, hogy az új AMD csodadriver önkényesen törli a szemetet a memóriából, nem vár a program parancsára.
 
Válasz írásához előbb jelentkezz be!
62. atti2010 ny
2015.06.13. 21:12
Pontosan arra gondoltam csak én sem találom.
 
Válasz írásához előbb jelentkezz be!
61. TheRealTsL
2015.06.13. 21:20
Az a mindenféle forrást és szakmaiságot nélkülöző cikk? Ami tele van feltételezésekkel és találgatásokkal? Aminek már a címe is egy kérdés? Na az biztosan 100%-ig úgy van akkor. Én nem állnék féllábon, míg meglesz az eredménye, de hát ki hogyan szereti.
 
Válasz írásához előbb jelentkezz be!
60. jakusmike ny
2015.06.13. 21:24
Nagyon nagyon kétlem, hogy az amd "mágikusan" felülírná a játékprogramok amúgyis létező dinamikus memoriakezelését. már most is törlődik a nem használt adat, enélkül nem is lenne lehetséges kb. semmilyen program futtatása. max. azt tudom elképzelni, hogy nem használ preloadot( ez a problémát nem szüntetné meg 1440p-n v 4k-n egyebkent) , viszont teljesítményvesztéssel járhat, nem nagymértékűvel ugyan. Egyébként ha lenne ilyen"mágikus driver" a külföldi oldalak már telelennének vele( anandtech,guru3d,techpowerup, tomshardware stb.) viszont sehol nincs jelen. Mellesleg technikai szempontból is érdekes lenne az aktuálisan használt adatok kitörlése.. 4gb vram az 4gb vram. se több(több főleg nem) se kevesebb( kivéve persze a gtx 970nél )
 
Válasz írásához előbb jelentkezz be!
59. ChoSimba ny
2015.06.13. 22:05
És a driver mégis honnan tudná, hogy mi a szemét ?
 
Válasz írásához előbb jelentkezz be!
58. Terror ChoSi...
2015.06.13. 22:12
Az utolsó hozzáférés óta eltelt időt számolná. Aztán ha a szoftver a törlés után mégis olvasná az adatot, akkor csak pislog majd, hogy hé haver, hol a kocsim.
 
Válasz írásához előbb jelentkezz be!
57. gibdj
2015.06.13. 22:26
Milyen fekete szkeptikusság lepi ezt az oldalt néha. Na és ha nem igaz az a cikk? Akkor mi van? A barátaitokkal sem szoktatok semmiről beszélgetni addig, amíg nem mutatja meg a forrást neten? Én se nevezem meg mindig a forrásaimat, mivel ártok a másiknak. Persze nem lesz így hiteles, viszont van mögötte valóságtartalom. Nem akarok megbántani senkit, de nem lehetne pl. erről a memóriakímélő eljárásról elbeszélgetni mint érdekesség, semmiféle öntelt elutasítás nélkül? Vagy bármi másról, ami felmerül egy adott téma kapcsán.
 
Válasz írásához előbb jelentkezz be!
56. rini
2015.06.13. 22:55
Szerintem egy kissé némelyek által túl van lihegve a memória mennyiség kérdése. A jelenlegi állások szerint a DX11-es programoknak még mindig elég a 2 giga 1080p-ben. Persze, kivételek azért vannak de az az elenyésző kisebbség. Ahol meg ennél sokkal több kell full HD felbontáson, ott jól el kellene verni a játékfejlesztők kezét mert pocsékul optimalizáltak. Most azért kerültek ezek a memória problémák megint előtérbe mert mint kiderül, hogy a DX12-nek nem csak szép hanem árnyoldalai is vannak. Az egyik ilyen probléma a sokkal magasabb memória használat. Erre a Mantle által mért tesztek mutattak rá és mint tudható a DX12 sok mindenben hasonlít a Mantle API-ra. Szóval az AMD most próbál valamit kitalálni, hogy ez ne legyen ekkora probléma. Sok sikert nekik mert ez nem ilyen egyszerű. Viszont éppen ezt a problémát elkerülendő, már most próbálnak lépni az ügy érdekében, ez pedig nem más mint tolni ki folyamatosan az egyre több memóriával ellátott terméket. Aki pedig játszani is akar magasabb grafikával az meg is fogja venni ezeket, ezzel gerjeszti a keresletet a kártyái iránt.
 
Válasz írásához előbb jelentkezz be!
55. jakusmike rini
2015.06.13. 23:09
Nagyon nem vagy képben a mostani játékok memóriaigényével.elenyésző többség? 10ből 9 modern( 2014-2015 ) AAA cím 3,5-4gb körül használ ultra-n 1080p-n. példák: GTA5,ac unity,watchdogs,codaw,dyinglight,mordor,stb stb. 1440p - 4k resen pedig 5-6 gb, de akár 10gb is 8x msaaval. nem véletlen a 12gigas vram a titan-xn. a gond ott van hogy 1080pn nemsok értelme a 4096bites sínnek annak 1440p-n 4k-n vannak előnyei, ahová viszont baromi kevés a 4gb vram. az meg aki medium res. texturakkal jatszik 4kn annak jár a kézfogás.
 
Válasz írásához előbb jelentkezz be!
54. atti2010 jakus...
2015.06.13. 23:17
4k mi értelme a 8x élsimításnak, már full HD sem sok, aki bekapcsolja az megérdemli hogy fizessen.
 
Válasz írásához előbb jelentkezz be!
53. jakusmike atti2...
2015.06.13. 23:24
Semmi értelme nincs. csak egy extrém példa a memoriahasználatra, a többi adat amit írtam, viszont AA-off beállítás mellett van. egyebkent a vram hasznalat nagyrésze a texturák és az árnyékok felbontásából ered. minél több a dinamikus árnyék és a magasabb felbontasu textura illetve minél szélesebb a draw distance annál több vram kell.
 
Válasz írásához előbb jelentkezz be!
52. Rojik atti2...
2015.06.14. 00:11
Gondolom erre gondoltatok. Ha nem, akkor elnézést.
 
Válasz írásához előbb jelentkezz be!
51. bpeter91
2015.06.14. 00:40
Annyira nem vágom a memóriakezelését a videókártyáknak, de ha gyorsabb a Ram maga, nagyon nagy sávszélességgel az nem azt jelenti hogy jobban, több adat folyik át rajta és cserélődik? Lehet hülye példa de nekem egy víztartály jutott eszembe amit pillanatok alatt fel lehet tölteni és ugyan úgy leereszteni. Mert ha beleírja a ramba az infót gyorsan kiürítheti és nem kell nagyobb méret hogy a következő is meglegyen mire kiürül az előző. Lehet baromság de én erre tudok gondolni. Így viszont érthető a kisebb méret... Javítsatok ki ha tévedek, szívesen tanulok újat
 
Válasz írásához előbb jelentkezz be!
50. jakusmike Rojik
2015.06.14. 00:44
Elolvastam a cikket és szerintem kacsa. kezdve ott, hogy feltételezések,feltételezések, és mégtöbb feltételezés... Nem tudom eldönteni, hogy rossz fordításból ered amiket ír, vagy csak úgy a levegőbe beszél, de jó sok baromság van benne. Azzal érvel az író, hogy azért nem került a 285 4gb verzio piacra merthogy ezzel akarták tesztelni miközben egy a gtx 760nál gyengébb kártyáról beszélünk ami vramtól függetlenül sem bírná a kérdéses beállítási szinteket. Ehhez hozzájön az, hogy egyetlen egy videó nincs youtubeon ahol nagyvram igényű játékkal játszanának a 285-n bizonyíthatóan ultra texturakkal. És még ennek a tetejére jön az is, hogy egyetlen külföldi oldal ( akiktől amugy a ph forditja a cikkeit) se tud erről a mágikus vram allokációról

Szerintem az író a color compressionből adódó sávszélesség hatékonyságot keverhette ami annyiról szól, hogy tömörített adatot tud olvasni a gpu de ettől még nem használ kevesebb vramot, amiről viszont az összes 285 reviewban szó van, mint pl abban amit az előbb linkeltem. nekem úgytűnik, hogy a ph-n kívül senki más az egész világon nem tud erről az amd féle mágiáról, de esküszöm ha bebizonyosodik, hogy van ilyen visszavonom.
Bpeter nem, mivel az csak a gpu és a vram közötti sebességet jelenti. a gond a ram és vram közti sebesség cseréjével van amiket ugyebár a cpu inicializál és a gondot az jelenti, hogy ha megtelik a vram swapolni kell ami frametime tüskét okoz fontos adat hiánya esetén( pl textura).
 
Válasz írásához előbb jelentkezz be!
49. jakusmike
2015.06.14. 01:04
nem tudtam szerkeszteni ugyh sry a dupla postert de ha valakit érdekel a dolog itt egy kimerítő 14 oldalas szakmai review műszertesztekkel, időfügvényekkel, mindennel ami kellhet az r9 285ről: http://www.tomshardware.com/reviews/amd-radeon-r9-285-tonga,3925.html

kiemelném hogy battlefield 4 - mantle alatt meghalt a kártya a 3gb-os riválisokhoz képest a vramhiány miatt.
 
Válasz írásához előbb jelentkezz be!
48. siriq pdx06
2015.06.14. 01:06
Ugy latom a technikai resze a dolgoknak nem megy.
 
Válasz írásához előbb jelentkezz be!
47. siriq atti2...
2015.06.14. 01:10
Erre csak ezt tudom linkelni: https://twitter.com/Siriq111/status/609518007535144960
https://twitter.com/Siriq111/status/609520375324614656
 
Válasz írásához előbb jelentkezz be!
46. siriq jakus...
2015.06.14. 01:14
Ez mantle hibaja. Sajnos a mai napig nincs javitva. Talan lesz majd bizonyos tipusoknal de meg a 290-nel is elofordul, hogy kifut a memoriabol es kevesebb az fps mint nalam a gtx 570-nel(sajnos a haver reklamalt akinek meg teamviewerrel is at neztem a gepet de nem tudok sajna segiteni) ugy, hogy ugyan azt a beallitasokat hasznaljuk es felbontast. Irtam is az amd rep nek megint de szokasos bala bla bla. Mar regen javitottak.
 
Válasz írásához előbb jelentkezz be!
45. siriq jakus...
2015.06.14. 01:14
dupla hsz.
 
Válasz írásához előbb jelentkezz be!
44. jakusmike siriq
2015.06.14. 01:34
igen de a hangsulyt arra probaltam helyezni amit a prohardveres cikkben irtak " a 285 olyan mágikus memoria allokaciot hasznal ,hogy elbirja ugyanazt az adatmennyiseget 2gb framebufferel amit más kártya 3-4 gbal bír el teljesítményromlás nélkül " hát nem. a 285 color compression-t használ ami annyit tesz hogy a memory controller kisebb adatsinen is kepes hatekonyan tobb adatot olvasni tomoritett formaban. mellesleg ez nem egy "nagy cucc" hiszen számtalan kártya használ ilyet pl gtx 900 sorozat nem véletlen ott is a 256bites /128bites sin.
 
Válasz írásához előbb jelentkezz be!
43. siriq jakus...
2015.06.14. 01:59
Sajnos ha mantle alapu hasonlitast tesz az ember nem is lesz objective az egesz. A Ccompression pedig egy masik tema ami hasznos de messze nem kielegito megkozelites gyartotol es gyartotol. Eltero pedig ugyan azt a technikat hasznaljak.

Mar megint keso ejszaka van , igy hanyagolom az egesz belemenos temat.
 
Válasz írásához előbb jelentkezz be!
42. jakusmike siriq
2015.06.14. 02:11
mindkét kártya mantle api-t használt a tesztben. a 285 frametimeja várhatóan megugrott a 2gbos határ átlépésénél, míg a 3gbos 280é nem. a 2gbos kártya teljesítményromlást szenvedett míg a 3gb os nemmivel a tesztelt játék 3gb körüli adatmennyiséget használt.
teljesen obektív, a kérdés nem api vs apiról szólt, hanem vram mennyiségről és az abból adódó következményekről. ennek nemsok köze van a color compressionhoz amit viszont használ a 285. valoszinüleg ezt fordították rosszul a ph-s cikkben és íGY alakult ki a " mágikus driverel kevesebb vram kell " legenda.

egyébként olvasd el a ph-s cikket. kíváncsi vagyok mit gondolsz a mágikus memoria allokaciorol amiről csak a ph tud az egész világon, tomshardware, anandtech, techpowerup, guru3d előtt ( lol)
 
Válasz írásához előbb jelentkezz be!
41. Meteoreso
2015.06.14. 07:24
Na ez legalább szakmai vita amit most csináltok... ennek örülök.
Erről csak annyit kell tudni hogy ahogy hívjátok Mágikus ramtörlés nem a 1.2 GCN része eszerint kell kezelni. Mondom ezt mert a mostani rebrand úgy tűnik 1.1 el jönnek.
NA én csak azt akartam írni hogy kiraktak egy tesztet ami szerint a GPU-t nem érintette a változás , azaz ez a rebrand annyit jelent tőbb és Gyorsabb rajta a memória és a jobb hűtőkből eredően némi oc de ennyi.

 
Válasz írásához előbb jelentkezz be!
40. gibdj jakus...
2015.06.14. 10:44
Látom jobban otthon vagy a témában. Amit a cikkíró írt, az teljesen lehetetlen egyébként? Vagy maga az eszmefuttatás valós alapokon is helyezkedhet, attól függetlenül, hogy feltételezések sora (ahogy megjegyeztétek). Ha az AMD mérnökök valóban ilyenen dolgoznának, azért nem lenne rossz. No meg kérdés, hogy ha tényleg ilyenen dolgoznak, akkor az azért van-e, mert a Fury most "csak" 4GB HBM-el jön. Később jönnek a nagyobb változatok, ahol már nem jelentene gondot a kevesebb memória.
 
Válasz írásához előbb jelentkezz be!
39. Juliska jakus...
2015.06.14. 11:48
Én ezt olvastam a Techreporton:

When I asked Macri about this issue, he expressed confidence in AMD's ability to work around this capacity constraint. In fact, he said that current GPUs aren't terribly efficient with their memory capacity simply because GDDR5's architecture required ever-larger memory capacities in order to extract more bandwidth. As a result, AMD "never bothered to put a single engineer on using frame buffer memory better," because memory capacities kept growing. Essentially, that capacity was free, while engineers were not. Macri classified the utilization of memory capacity in current Radeon operation as "exceedingly poor" and said the "amount of data that gets touched sitting in there is embarrassing."

Strong words, indeed.

With HBM, he said, "we threw a couple of engineers at that problem," which will be addressed solely via the operating system and Radeon driver software. "We're not asking anybody to change their games."

http://techreport.com/review/28294/amd-high-bandwidth-memory-explained/2
 
Válasz írásához előbb jelentkezz be!
38. Resike bpete...
2015.06.14. 12:31
Ebben van ráció, viszont mi fog történni ha a kártyának 40 modell kell megjelenítenie egyszerre 40 árnyékkal, mindezt magas felbontású textúrákkal egy jó példa a GTA V vagy a Shadow of Mordor.

Amúgy meg egy ramot nem írni lassú hanem úgymond lenullázni, kevesebb Vrammal meg sokkal több törlési folyamat kell amit esetlegesen a teljesítmény fogy megszenvedni.
 
Válasz írásához előbb jelentkezz be!
37. jakusmike Julis...
2015.06.14. 12:37
Hát pár napon belül kiderül. Nekem még mindig misztikusnak tűnik. Nekem már ott furcsa az egész ötlet is, hogy ugyebár a játékok már ma is textura preloadot hasznalnak a jobb teljesitmeny elerese erdekeben mivel a ramnak lenyeg pont a veletlen hozzaferes. a gond valójában akkor van ha olyan adat hiányzik amire épp szükség lenne(RAMból kell streamelni a texturakat pl), nem tudom honnan tudhatná egy nemlineáris játékban a driver, hogy épp hová fog fordulni a kamerát,merre megy a játékos stb. pl több játéknál az "ultra" textura beallitas ugyanaz a 2ktextura megfűszerezve egy 16os anizotrop filterezessel illetve egy 1gbnyi preloadal,így a nagyobb vram kapacitasu kartyakon gyorsabb a hozzáférés az adathoz,nemkell 0zni a ramotami egyebkent eleg lassu, ezaltalan teljesitmeny előnye van. ezzell nekem teljesen szembemenőnek hat az ötlet. még egy lineáris játékban esetleg el tudnám képzelni, de ottsem tudom, hogyan. egyébként anadtechen is aggódnak:
"At the same time this also calls into question memory capacity – 4 1GB stacks is only 4GB of VRAM – though AMD seems to be saving that matter for the final product introduction later this quarter. Launching a new, high-end GPU with 4GB could be a big problem for AMD, but we'll see just what they have up their sleeves in due time."
http://www.anandtech.com/show/9266/amd-hbm-deep-dive/4
tomshardweren is elég szkeptikus ezzel kapcsolatban:
"If AMD's claims are to be taken seriously, GPU performance could see a significant leap in the coming year."
végülis mégicsak egy multi cégről van szó akinek elkell adnia a termékét.
A végső szó egyébként ugysem az enyém vagy bárki másé lesz, hanem akkor fog kiderülni amikor valaki elindítja az ac unityt v a gta5-t v a dying lightot maxon 4k resen a kártyán, amik a mostani állás szerint kb 5,5-6gb vramot zabalnak.
 
Válasz írásához előbb jelentkezz be!
36. zsolt200
2015.06.14. 14:08
Inkább adnának ki új processzort. Anno havernak mondtam hogy ha amd-t akar vegyen fm2+-t, mert az a legújabb és biztos abba fognak jönni majd erősebb procik. Azóta se semmi.
 
Válasz írásához előbb jelentkezz be!
35. atti2010 zsolt...
2015.06.14. 14:29
Nem is jön csak jövőre FM3 foglalatba a Zen.
 
Válasz írásához előbb jelentkezz be!
34. zsolt200 atti2...
2015.06.14. 14:38
Hát akkor gratulálok nekik.Sok értelme volt kiadni ezt a foglalatot.Nem is értem akkor. Mi volt a terv? Kiadunk gyorsan pár procit rá, aztán elfelejtjük és csinálunk újat? Örülök hogy nekem volt pár +10-esem és tudtam venni Intelt. Ott legalább folyton adják ki az újabb cpu-kat s1150-be.
 
Válasz írásához előbb jelentkezz be!
33. Phantomstr... zsolt...
2015.06.14. 15:43
Már a kezdetektől esélytelen volt, hogy lényegesen erősebb procit adjanak ki bele.
 
Válasz írásához előbb jelentkezz be!
32. Terror zsolt...
2015.06.14. 15:59
Őszintén, nem mindegy? Láttad, mennyit tud az architektúra, tudtad, mit veszel meg. Vagy hogy tervezted, hogy majd X év múlva kiadnak egy kétszer olyan gyors processzort, ami ebbe az alaplapba még passzol is? Ez soha nem működött így.
 
Válasz írásához előbb jelentkezz be!
31. Resike Terro...
2015.06.14. 16:16
Érdekes Intelnél így működik. (1150)
 
Válasz írásához előbb jelentkezz be!
30. zsolt200 Terro...
2015.06.14. 16:18
Nem én vettem. Havernak kevés pénze volt és amd-t akart. Mondtam hogy ne vegyen am3+-t mert abba már fene se jön. Ott az fm2+ az az új, így értelemszerűen azt ajánlottam. Így meg most szar, mert upgradelné a pc-jét, de nem tudja és én érzem magam hibásnak. Mert igaz hogy am3+ba nem jön semmi, de legalább abba alapból vannak jelenleg is erősebb procik...
 
Válasz írásához előbb jelentkezz be!
29. zsolt200 Resik...
2015.06.14. 16:19
Egyébként igen. Én azért vettem 1150-et mert ott tudom hogy így működik. Nem tudtam hogy amd-nél másképp gondolkodnak.
 
Válasz írásához előbb jelentkezz be!
28. Phantomstr... Resik...
2015.06.14. 16:57
Ott sem így működik. Nem sok gyorsulást hozott a Haswell frissítés, de még a Broadwell sem. Az előny inkább az, hogy a foglalat nem a belépőszint tetejéig tart, hanem akár alaplapcsere nélkül lehet 10 ezres Celeronról 100 ezres i7-re is fejleszteni. Vagyis épp annak éri meg, akinek nincs sok pénze, de sürgős a gépcsere és később akarna belőle jobbat faragni.
 
Válasz írásához előbb jelentkezz be!
27. zsolt200 Phant...
2015.06.14. 17:14
Tudtommal az 5xxx szériát is kiadják 1150-re. Ott meg már 8 magos, 16 szálas proci is van ha jól rémlik
 
Válasz írásához előbb jelentkezz be!
26. Praston zsolt...
2015.06.14. 17:23
Az az 5960X ami 2011v3 foglaltban van. 1150-re nem jön semmilyen 8 magos, illetve a következő foglalathoz sem lesz igazi 8 magos (6700K).
 
Válasz írásához előbb jelentkezz be!
25. sks7891 Prast...
2015.06.14. 17:29
Azért egy i7-4790K-el is el lehet lenni.
 
Válasz írásához előbb jelentkezz be!
24. Phantomstr... zsolt...
2015.06.14. 18:44
Igen, az 5000-es sorozat a Broadwell. Az is leginkább csak fogyasztás/teljesítmény arányt javít, illetve IGP teljesítményt. 8mag/16szál pedig 1150-es foglalatba nem lesz.
 
Válasz írásához előbb jelentkezz be!
23. Kajafun sks78...
2015.06.14. 19:45
Sőt én még a sima 4790-et se tudom megizzasztani!
 
Válasz írásához előbb jelentkezz be!
22. jakusmike
2015.06.14. 20:13
Amugy sztem akinek van egy haswell i5 v i7 e evekig nem kell cserelni jatek szempontjabol. viszont a skylake már 1151-re jön, ugyh broadwell az utso 1150es. de ami még érdekesebb ilyen szempontból az hogy nvidia 2016ban a pascalt már nem pcie gen3ra hanem nvlink-re adja ki, ugyhogy gondolom OEM rendszerbe arra is külön alaplapokat fognak gyartani ami azért elég érdekes mivel lényegében ez azt jelenti h gpu ujitasnal lapot is kell ujitani. 5 - 12 szeres adatsebesseg gyorsulast eredmenyez cpu-gpu ill gpu-gpu között pcie 3.0 x16hoz kepest http://www.nvidia.com/object/nvlink.html
 
Válasz írásához előbb jelentkezz be!
2015.06.14. 20:49
Gondolok én valamit erről az NV-ről, de inkább nem mondom ki ! G-sync, meg NVlink, meg Gameworks , meg Hairworks, meg a többi f...ág ! És akkor lesznek olyan lapalapok Intel, meg AMD(?) vonalon is, amiken lesz NVlink, de gondolom jó szokás szerint, min. 100 dolláros extra licencdíjjal, és olyan kikötéssel, hogy nem tartalmazhatnak ezek az alaplapok PCI-E csatlakozót ??? Vagy ez a Pascal csak szerver szintre jön ?
 
Válasz írásához előbb jelentkezz be!
20. atti2010 jedi
2015.06.14. 21:07
Kár ezen még rágódni.
 
Válasz írásához előbb jelentkezz be!
19. bp123 jedi
2015.06.14. 21:38
A CPU-GPU közötti nvlink az szuperszámítógépes cucc, a pc-be való pascalok pcie lesznek, lévén se intelnek, se amdnek nincs nvlinkes procija, és nem is terveznek ilyet.
 
Válasz írásához előbb jelentkezz be!
18. jakusmike
2015.06.14. 22:07
Igazad van először tuti ,h csak tudomanyos cuccokra adjak ki. Meg persze ahhoz intelnek licenszelnie kellene ,h pckbe is legyen, de sztem egy pár éven belül akár lehetséges lenne. pcie-t még ezer másra is használják gpukon kívül. ssdk, hangkartyak, halokartyak stb.
# Jedi nemtudom mi bajod van nvidiaval ezek amiket felsoroltál sztem egyáltalán nem faszságok, sőt! talán ha amd is hasonlókkal rukkolna elő nem nvidiaé lenne a gpu piac 75%a
 
Válasz írásához előbb jelentkezz be!
17. Phantomstr... jakus...
2015.06.14. 23:16
Én kizártnak tartom. Amikor majd lecserélik a PCI-e csatlakozót, nem gyártóspecifikus szabványra fogják, hanem valami általánosra.
 
Válasz írásához előbb jelentkezz be!
16. bpeter91 Resik...
2015.06.14. 23:50
Úgy tudom azért a 4gb memóriát sem minden gyilkolja le, és ha még esetleg valami speciális tömörítést használnak akkor a nagy sávszélesség, a nagy írás/olvasás + a tömörítés együtt szerintem okozhat akkora memóriaigény csökkenést, hogy esetleg ami 4,5-5-5,5gb lenne az belefér egy 4 gigás keretbe. Úgy tudom, hogy ez a kártya önmagában nem 4k ra lett tervezve. Viszont így a 4gb elég lehet. + nem tudjuk hogyan viselkedne egy HBM memóriás AMD kártya crossfireben. Az sincs kizárva hogy osztják egymás memóriáját. Viszont ha így van akkor lehet vele alkotni. Nem tudom. De várom , hogy összességében mit alkotnak teljesítmény és fogyasztés terén mert most a 960 mininek keresem az ellenfelét (most GTX650em van) és már szemezek az AMDvel
 
Válasz írásához előbb jelentkezz be!
15. Praston sks78...
2015.06.15. 03:11
Én nem mondtam egy szóval sem, hogy nem lehet, csak válaszoltam. Én egy i5-4690K-t hajtok 4.4-en.
 
Válasz írásához előbb jelentkezz be!
14. Galdech Phant...
2015.06.15. 07:50
Erre muszáj reagálnom, bocsáss meg Ami szabvány, az nem gyártóspecifikus. Ami gyártóspecifikus, az nem lehet szabvány, kettő ellentéte egymásnak. Peace
 
Válasz írásához előbb jelentkezz be!
13. Phantomstr... Galde...
2015.06.15. 09:10
Este már nem mindig megy a fogalmazás
 
Válasz írásához előbb jelentkezz be!
12. kiskoller jakus...
2015.06.15. 17:28
Pár éve még PCI-E 2.0 volt. A PCI-E 3.0 kétszer olyan gyors.

A PCI-E 2.0 bőven elég volt még a 3.0 után is minden GPU-nak.

Szerinted két év alatt sikerült dupláznunk? Nyilván nem, ergo van még bőven szufla a PCI-E 3.0-ban
 
Válasz írásához előbb jelentkezz be!
11. Meteoreso
2015.06.16. 18:08
Elkezdődött az AMD élő közvetítése !!!
http://www.twitch.tv/amd
Akit valóban érdekel...
 
Válasz írásához előbb jelentkezz be!
10. Meteoreso
2015.06.16. 19:18
Lisa Sue bejelentette:
Fury X $649 Vízhűtéses
Fury NANO LÉGHŰTÉSES $549 !!!!

Titán X éknek annyi
 
Válasz írásához előbb jelentkezz be!
9. Meteoreso
2015.06.16. 19:35
 
Válasz írásához előbb jelentkezz be!
8. jakusmike
2015.06.16. 19:43
"worlds fastest gpu " ehm.. " dual fiji " szóval csak nem tudtak a gm200nál erősebb gpu-t tervezni .
 
Válasz írásához előbb jelentkezz be!
7. atti2010 Meteo...
2015.06.16. 19:45
Egy ilyet jó lenne szerválni és csak 150W körül fogyaszthat.

jakusmike Az majd elválik a teszteken.
 
Válasz írásához előbb jelentkezz be!
6. Meteoreso
2015.06.16. 19:53
AMD oldalán az van írva hogy a világ leggyorsabb 4K kártyája !
Már a nagyobb X -re.
De egyébként igen a teszteket várjuk meg az a korrekt.
Mindenesetre a 980 meg a 980 TI kapott egy nagyon erős ellenfelet a többit az idő eldönti.
A fogyasztásról is volt szó.
Azt írta a 290X teljesítményében 150 Wattot enne. (2x Perf/Watt)
 
Válasz írásához előbb jelentkezz be!
5. atti2010 Meteo...
2015.06.16. 20:01
Azt írta a 290X teljesítményében 150 Wattot enne. (2x Perf/Watt)


Az nekem tökéletes csak az ára esne még vagy 100$ mert nem vagyok nagyon eleresztve viszont a kisebbik Fury nagyon felkavarta a lelki világomat még így tesztek nélkül is.
 
Válasz írásához előbb jelentkezz be!
4. Meteoreso atti2...
2015.06.16. 20:08
Nézd ezt mutatta a Sue asszony:


A kis fury a 200-210 körül jön ami egy 980 Oc kártya ára és várhatóan teljesítménye a 4 Giga HBM-vel odavág, de várjuk ki a teszteket.
Én is a Nanón gondolkozok, egyenlőre emésztgetem az árát
Mindenesetre Best Buy ár/ teljesítmény arányban.
 
Válasz írásához előbb jelentkezz be!
3. atti2010 Meteo...
2015.06.16. 20:15
Eddig ahány fórumot olvastam mindenki a Nanon gondolkodott, szerintem jókora hiány lesz belőle, vagy ráállítanak minden gyártósort majd meglátjuk.
 
Válasz írásához előbb jelentkezz be!
2. gery84 atti2...
2015.06.16. 20:33
A nano tudtommal a Fiji LE. butított verziója lesz.
De még ott a másik butított Fiji Pro

És a teljes chip meg Fiji XT (Fury X)

Nem lesznek gyengék:
 
Válasz írásához előbb jelentkezz be!
1. atti2010 gery8...
2015.06.16. 20:37
Én is így tudom, egyelőre nagy a zavar az erőtérben.Meglássuk játékokban mit tudnak.
 
Válasz írásához előbb jelentkezz be!