iPon Hírek

CES 2017: Így néz ki a VEGA és RYZEN alapú PC belseje

Dátum | 2017. 01. 10.
Szerző | J.o.k.e.r
Csoport | FŐ EGYSÉG

Az AMD a CES 2017 alkalmával sok-sok apró részletet osztott meg a VEGA és a RYZEN termékcsaláddal kapcsolatban, ám arra azért odafigyeltek, hogy ne derüljön ki minden, így az elkövetkező hetek folyamán is „izgalomban lehet tartani” a rajongókat.
Az egyik érdekes demó egy VEGA és RYZEN alapú tesztrendszeren futott: a duó 4K-s felbontás és Ultra képminőség mellett próbált megbirkózni a DOOM 2016 nyújtotta kihívásokkal, és szerencsére elég jól állták a sarat. A RYZEN és VEGA alapú tesztkonfiguráció 60-70 FPS körüli teljesítmény elérésére volt képes, ami nagyjából egy szinten van azzal az Intel Core i7-4790K alapú rendszerével, amiről a korábbi videó készült. Utóbbira az a magyarázat, hogy a standon több konfiguráció is jelen volt, de nem mindegyikben dolgozott RYZEN processzor, ami ugye még csak mérnöki tesztpéldányként funkcionál. És a VEGA driver sincs tökéletesen optimalizálva. Ehhez képest a GTX 1080 szintű teljesítmény mindenképpen biztató lehet, főleg, hogy nem feltétlenül a legerősebb VEGA került a gépekbe. A RYZEN és VEGA alapokon nyugvó tesztrendszert kívülről szinte bárki megcsodálhatta, aki kilátogatott a showra, a ház belsejét azonban már gondosan óvták a kíváncsi szemek elől. Linus viszont, aki a Linus Tech Tips életre hívója, akkora kegyben részesült, hogy levehette a tesztrendszer házának oldallapját, így az alábbi kép tárult elé:
A fotókon tisztán látszik, hogy a VEGA 10 alapú videokártya még igencsak mérnöki tesztpéldány fázisban tart, hiszen speciális, diagnosztikai részleget is tartalmazó nyomtatott áramköri lapra épül. Az USB 3.0-s porton keresztül hatékonyan és precízen, minimális GPU overhead mellett tudják monitorozni a videokártya működésének különböző paramétereit, így a fogyasztásról, illetve az energiahatékonyságról is kiváló képet kaphatnak. Ezzel az AMD azt szeretné elérni, hogy ne ismétlődjön meg a Radeon RX 480 esetében tapasztalható fiaskó, amikor a videokártya picivel több áramot vett fel a slotból, mint kellett volna.
Az AMD egyébként bizakodó a VEGA teljesítményével kapcsolatban, ugyanis Raja Koduri a PC World munkatárásnak kérdésére elmondta, a VEGA alapú VGA akár úgy is képes lesz versenyre kelni a GeForce GTX 1080-nal, ha mindkét videokártyának OpenGL alatt kel helytállnia. Hogy az AMD újdonsága mire megy riválisával szemben OpenGL és DirectX 12 alatt, az majd az első független tesztekből derülhet ki.
Új hozzászólás írásához előbb jelentkezz be!

Eddigi hozzászólások

37. B_Real
2017.01.10. 13:28
De legalább most nem ejtette el a kártyát.
 
Válasz írásához előbb jelentkezz be!
36. Busterftw
2017.01.10. 13:38
Nem értem miért a 1080 lesz az ellenfele, amikor az már tavaly májusban jött ki. Még ha lenne pár hónapos eltérés a megjelenés között de így nem vágom.
 
Válasz írásához előbb jelentkezz be!
35. RealDreamQ Buste...
2017.01.10. 13:41
Mutass egy ujabb és erősebb boltban elérhető/megvehető NV karit akkor .

Szerintem örülnél mint majom a far..nak , ha lenne egy GTX1080 -ad .
 
Válasz írásához előbb jelentkezz be!
34. B_Real Buste...
2017.01.10. 13:46
Mert nyilván a Titan szintjét nem éri el, és ahogy RealDreamQ írta, mi máshoz hasonlítsa?
 
Válasz írásához előbb jelentkezz be!
33. Asagrim B_Rea...
2017.01.10. 13:50
Biztos nem éri el? GTX 1080 + Doom 4K Ultra Vulkannal még 40 FPS-re is beesik, ezt meg végig 60 felett láttuk.

Mivel egy olyan csóka vágta a filmet, akiben annyi tisztelet sincs az AMD felé, hogy ne szopassa azt az embert, aki képviseli a céget, mérget vehetsz rá, hogy ha bármikor 60 alá esett volna a framerate amíg játszott vele, az került volna a videóba.
 
Válasz írásához előbb jelentkezz be!
32. B_Real Asagr...
2017.01.10. 13:59
40 alá beesett? Ez nekem új. 1080 teszteknél ugyan nem láttam minimum fps-t mutató tesztet, viszont videókban talán 55 fölötti értékekre esett vissza. Persze lehet van olyan pályarész, ahol jobban leeshet. Mindenesetre itt a Titan X Pascalnál 77 átlag, 68 minimum fps-t mutat.
 
Válasz írásához előbb jelentkezz be!
31. Asagrim
2017.01.10. 14:09
"a tag nem bír mozdulni annyian vannak a képernyőn, és valóban 48-54 fps"

Aha, persze...

https://www.youtube.com/watch?v=ZkJ1lmMQTLs

Ki sem szabadul a karakter a csuklóját tartó szíjból már beesik 40-re, és ez volt az első videó, amit találtam, mikor erre a cikkre fel nekiálltam keresni, hogy mit tud a GTX1080 ugyanazokkal a beállításokkal.
 
Válasz írásához előbb jelentkezz be!
30. takysoft
2017.01.10. 14:16
Egyrészt a cikkhez: OpenGl-ben már nem fejlesztenek. A Vulkan a jövő ilyne szempontból.

Másrészt a kommentekre:
Az AMD-nek nem az a célja, hogy high-end lenyomja az nVidiát. Nincs meg hozzá a technológiája, és őszintén szólva felesleges is.
2 racionális célja van, amit ha elér, nagyon fog örülni:
-ár/érték arányban jobb kártyát kidobni, mint az nVidia. Ez utoljára az R9 300 szériánál sikerült nekik. Az RX400-ak ár/érték-ben sem nyomják le az nVidia 10-es Pascal szériáját
-kiadni egy high-end kártyát, amivel a mai játékok futnak 4K-ban ~60 fps-sel.

Ehhez az utóbbi célhoz olyan kártya kell, ami lenyomja a GTX 1080-ast. Az ugyanis sok játéknál Ultrában alig hoz 40-50 fps-t...

A Titan X (pascal-os) ilyen kártya. Nem hiszem, hogy az AMD fogja ezt hozni. Szerintem ha csinálnak egy olyan ellenlábast, mint a 1080, de olcsóbb, akkor már nyertek. Elég sokáig elég lesz.

És ne feledjük, hogy nagy előnye az AMD-nek, hogy a FreeSync monitor jóval olcsóbb, mint a G-Sync-es....

Ha pedig valaki úgy véli, hogy új királyt avatunk, akkor próbáljanem elfelejteni, hogy márciusban jön az nVidia 1080 Ti
ami még a Titan X-nek is csicskapofont fog adni...
 
Válasz írásához előbb jelentkezz be!
29. Asagrim
2017.01.10. 14:19
A videó megy tovább is, ahol még bőven van alkalma a GTX1080-nak negyvenvalahány FPS-t nyújtania.

Fáj az igazság? Vérfanboyokkal nem vitatkozok...
 
Válasz írásához előbb jelentkezz be!
28. B_Real
2017.01.10. 14:27
Most komolyan berakod a full zárt teres videót, ahol viszonylag kevesebb effekt van a képernyőn? Legelején ott a füst, stb, az gyilkolja a kártyát. Valamint vannak a külsős területek is. Még mielőtt azt hinnéd, hogy átlag 90-100 fps-sel megy 1080-on.
takysoft: Ezzel nem értek egyet. Egyrészt amikor kijött a 390, ugyan gyorsabb volt a 970-nél, de emlékeim szerint drágább is volt, mert addigra a 970-nek esett az ára. Plusz ugye jóval nagyobb étvágyú is. A 960-380-ra igaz volt, amit írsz.
400-as szériánál pedig maximum az itthoni áraknál nem igaz az ár/érték arány az AMD javára. Külföldön mindig olcsóbb volt a 480 8GB, mint a 1060 6GB. Az, hogy itthon az első pár hónapban 82-83000-ért lehetett 1060 6GB-ot venni (leginkább Gigabyteot), nem tudom hogy sikerült kivitelezni. Viszont ha visszanézed, a Gigabyteon kívül az MSI és az ASUS ugyanolyan hűtésű 480 és 1060-ai között folyamatosan megvolt a 10-13000 Ft különbség - a 480 javára. Most is így van. Ráadásul most már itthon is olcsóbban (kb. 5000 Ft-tal) lehet a legolcsóbb változatot megkapni 480-ból. A Gigabyte meg egy külön állatfaj itthon. Külföldön 240£ a 480 8GB G1 Gaming, 260£ pedig a gyengébb WF2 1060 6GB. Ez kb. 7500 Ft különbség a magasabb ÁFÁ-t is beleszámolva. Na most itthon úgy néz ki, hogy itthon 91000 Ft a Giga G1 480 és 89000 a WF2 1060. Tehát -7500 Ft helyett +2000 Ft.
 
Válasz írásához előbb jelentkezz be!
27. noPublicFG
2017.01.10. 14:48
Akár igaz, akár kamu, elég meggyőző.
 
Válasz írásához előbb jelentkezz be!
26. output43
2017.01.10. 15:21
Egyik gyártót sem vetem meg. Az Intel-nek is meg az Amd-nek is megvannak az előnyei is meg a hátrányai is. Építettem már magamnak egyikből is másikból is. Kíváncsiam várom, hogy mit fog produkálni a Ryzen és a Vega, de... Már addig húzzák-vonják a megjelenését, hogy ennyi idő alatt már 5 Intelest összeraktam volna... Már túl sokáig ülnek a babérjaikon.
 
Válasz írásához előbb jelentkezz be!
25. Ch00ler
2017.01.10. 15:34
Ugy velem, hogy ha a Vega mar most tudna nyujtani a 1080-as szintet, akkor futtattak volna egy rendes benchmark-ot is...
A megjelenesig csak remenykedhetunk, hogy tenyleg sikerul felzarkozni az nvidia-ra. En tovabbra is a legjobb teljesitmeny/ar kareszt vasarolom, legyen az nvidia, vagy AMD
 
Válasz írásához előbb jelentkezz be!
24. Busterftw RealD...
2017.01.10. 16:30
Oké mutass egy boltot ahol Vega kapható? Amúgy 1070-em van.
 
Válasz írásához előbb jelentkezz be!
23. lightpower Buste...
2017.01.10. 17:10
Látom szövegértési problémába estél, szóval, hogy megértsd, nem az a kérdés, hogy a Vega architektúrájú kártya kapható-e vagy sem - nyilván nem - hanem, hogy melyik az az nVidia amelyik már publikus, kapható és össze lehet lehet hasonlítani a kártyát - vagy te azt hitted, hogy az AMD odabattyog az nVidiához, hogy "Figyelj adjál már egy még nem publikus kártyát, amivel össze tudom mérni az új kártyámat." - vagy mire gondoltál? Szerintem nem nehéz megérteni, összehasonlítási alapnak felhasználta a konkurens felső / felső-közép kategóriás kártyáját - ennyi... Nem az a lényeg, hogy mit fog publikálni majd az nVidia - az még a jövő zenéje.
 
Válasz írásához előbb jelentkezz be!
22. Busterftw light...
2017.01.10. 17:34
Egy még meg nem jelent kártyát hasonlítanak össze egy több mint fél éves kártyával. Ez eddig oké. De miért lesz az lesz az ellenfele? Mintha azt mondanák ez az utolsó nvidia vga. Egy meg nem jelent kártyának egy még nem jelent kártya lesz az ellenfele. Mint ahogy az LG G6 is majd az Samsung S8 akkor megy neki. Nem az S7-nek.
 
Válasz írásához előbb jelentkezz be!
21. Terror
2017.01.10. 17:40
Én a vaktesztet várom, amikoris a megagémerek egyöntetűen megmondják majd, hogy semmi különbség a Zen+Vega meg az i7+GTX között.
 
Válasz írásához előbb jelentkezz be!
20. B_Real Buste...
2017.01.10. 17:43
Akkor a következő NV kártyát sem a Vegahoz vagy Polarishoz fogod hasonlítani remélem.
Terror: Pontosan ugyanolyan nyilván nem lesz, szóval vagy rosszabb lesz, vagy jobb. De ha fps-re ugyanannyit mennek, akkor megemelem a kalapom előtted.
 
Válasz írásához előbb jelentkezz be!
19. Terror B_Rea...
2017.01.10. 18:26
Ja neeeem, fps-t nem mérnek, hanem leülnek játszani, mint a Bulldózer megjelenésekor, aztán megszavazzák 73-40 arányban, hogy az FX 8150 jobb az i7 2700K-nál.
 
Válasz írásához előbb jelentkezz be!
18. B_Real Terro...
2017.01.10. 18:42
Oké. Mondd már ki, hogy te is várod, hogy bebukjanak. Mindenkinek egyszerűbb lenne.
 
Válasz írásához előbb jelentkezz be!
17. Terror B_Rea...
2017.01.10. 18:51
Ugyan, abban nem lenne humor. Láttam már sok blőd marketingdumát eddig is, de érzésem szerint a java még hátra van.
 
Válasz írásához előbb jelentkezz be!
16. lightpower Buste...
2017.01.10. 19:04
Egyrészt kezdjük ott, hogy egy összemérés nem fogja azt jelenti, hogy valami ellenfele lesz a másiknak. A másik, hogy jelenleg ez volt a legésszerűbb összehasonlítás - mihez hasonlíthatta volna? Ha házon belül hasonlít, az olcsó poén, a konkurens gyártónak (nVidia) meg ez az egyik jelenleg legfrissebb felső-közép kategóriás kártyája - és mivel PC piacon nincs több dedikált VGA-ban aktívan utazó cég, így nem értem, hogy mi a probléma, vagy netán az Intel Iris széria ellen kellett volna küldeni, vagy mi? - Mindjárt kilyukadunk oda, hogy azért is az AMD a hibás, mert az nVidia tavaly május óta nem villantott egy új kártyát amivel az AMD össze tudta volna hasonlítani a Vega architektúrás kártyáit úgy, hogy neked az megfeleljen... - nonszensz...
 
Válasz írásához előbb jelentkezz be!
15. Busterftw B_Rea...
2017.01.10. 19:20
Ezt beszelem, hogy egy sima oszzehasonlitasnal nincs gond.
Csak nem az jott le, hanem hogy ezt figyi, hogy elverjuk az 1080at.

Az aktualis csucsnak az aktualis csucs az ellenfele.
A kovetkezo nvidia kartyabol is van mernoki peldany. Egy 2017ben kijovo vga verje el az abban az evben kijovo kartyat.
 
Válasz írásához előbb jelentkezz be!
14. gibdj Buste...
2017.01.10. 19:23
"Nem értem miért a 1080 lesz az ellenfele, amikor az már tavaly májusban jött ki."

Mert oda pozicionálja az AMD? Nem tudom volt-e nyilatkozat egyébként, hogy oda szánja, de a megjelent cikkekből erre következtetek. Teljesítményben azt a szintet célozták meg valószínűleg, ezért mondja a szaksajtó, hogy az lesz az ellenfele.
 
Válasz írásához előbb jelentkezz be!
13. Meteoreso
2017.01.10. 19:33
Van valami eszméletlen báj az AMD bemutatóiban ebben a TAPE-val leragasztottban is
Gyerekek BE voltak ragasztva a venti nyílások mindenhol.
Próbáld ki otthon 4k DOOMot , rövid idő alatt el fogod érni a thermal limitet és ejti is az FPS-t, hogy itt hogy érték el hogy nem azt nem tudom.
Arra lennék kíváncsi hogy miért gondolták meg magukat hogy mégis elénk tárják ,mert ez a leragasztás egy hirtelen ötlet volt hogy eltakarjanak egy 8 pines csatit, és talán mást is.
A csatlakozó amúgy USB 3.0 type B
 
Válasz írásához előbb jelentkezz be!
12. thestock Buste...
2017.01.10. 20:33
Az AMD (elvileg) belátható időn belül piacra dobja az újdonságait,és JELENLEG a GTX 10XX van piacon, ebből értetődő hogy ezzel fog versenyezni. Majd ha az Nvidia is kiadja az új kártyáját akkor a Vega-val fog versenyezni,és nem az utódjával. Ez eddig is így ment,nem értem az értetlenség tárgyát...
 
Válasz írásához előbb jelentkezz be!
11. Chavalier
2017.01.10. 20:49
Nem csodálom hogy a Doom-ot választották, jobban fut AMD kártyákon. Ez persze nem leszólás, én is bízok abban hogy végre előállnak valami naggyal.
 
Válasz írásához előbb jelentkezz be!
10. B_Real Chava...
2017.01.10. 20:56
Olyan eszméletlen sokkal nem fut ám jobban. Csak még az első teszteknél, ahol OpenGL-ben nagyon le volt maradva a 480, százalékosan óriásit ugrott a Vulkan teljesítménye (emlékeim szerint olyan 30+ %-ot). Ebben a tesztben 13 fps a különbség a 480 és a 1060 között (114-127) úgy, hogy kb. dupla fps számokról van szó, mint a 4k-s értékek. Szóval ha azt a 13-at elosztod 2-vel, kijön kb. 6-7 fps különbség. Ez az eddigi videókból és képekből ki is jön a Vega javára a 1080-nal szemben.
 
Válasz írásához előbb jelentkezz be!
9. Tuttu
2017.01.10. 21:00
A legtöbbször jókat kacagok itt a komment olvasásakor, de ugyanakkor szomorít, hogy ezzel mennyire leviszitek a színvonalát az egésznek. Kajak azon veszekedtek, hogy miért 1080 hoz hasonlítanak? HEHE :D Azért mert ezt ismerik az emberek és ehhez tudnak hasonlítani. Azért nem titánhoz mert az igen csak kevés embernek van és valóstínüleg alul marad a titán ellen. Az meg nem a legjobb reklám, hogy "ahhoz képest csak ennyivel gyengébb..." Ha ők odateszik magukat most az mindenkinek jó! Aki nVidiát akar majd venni az is talán olcsóbban teheti meg azt mert talán kezdetnek ezzel válaszol majd a zöld csapat. Nekem személy szerint tök mind1 melyik csak tudjam, hogy megérte az árát! Amúg meg drukkolok nekik. Megérdemelnék, hogy kicsit felzárkózzanak. + kell már a 4K gaming-nek a fejlődés. Sok a kijelző, de még draga a vga ami boldogul ia vele az meg csak nVidia. Most talán ott is lesz versenges nem csak fullhd-be.
 
Válasz írásához előbb jelentkezz be!
8. Humbuk Tuttu
2017.01.10. 21:26
Általában azért veszekednek az emberek ilyeneken itt, hogy önigazoljanak. Azért kell védeni egyiket vagy másikat, hogy a userek megnyugodjanak, hogy jó kártyát vettek.

Hiába! Amikor megveszed a kártyát az aktuálisan a legjobb vétel számodra. Van akinek nehéz elviselni, hogy pici idő elteltével már nem az a kategória legjobbja... PL én hosszűtávú 1080p játékra 1060-ast vettem, és téma lezárva. (nem igazán érdekel sem a titán jix és a vegíta sem. Mert lesz jobb, azért nem fogok megint 86000-et kidobni)

Ha meg kiszolgált a 1060 és nem leszek elégedett vele, akkor megveszem az aktuálist.

Aki nemsokára vesz kártyát, az az amdvel jár jobban(vega), aki meg év végén, az meg NV-vel...

Igazából tényleg azt kell venni, ami akkor a jobb vétel.

Az, hogy összképet nézve 20éve vagy 20 év múlva ki a jobb "gyártó" khm tervező, igazából marhára értelmetlen vita alap.
 
Válasz írásához előbb jelentkezz be!
2017.01.10. 21:52
"Mivel egy olyan csóka vágta a filmet, akiben annyi tisztelet sincs az AMD felé, hogy ne szopassa azt az embert, aki képviseli a céget, mérget vehetsz rá, hogy ha bármikor 60 alá esett volna a framerate amíg játszott vele, az került volna a videóba.
"
Ezt mégis miből gondolod?
 
Válasz írásához előbb jelentkezz be!
2017.01.10. 21:53
Egyetértek veled.
Én GTX950-et vettem., és teljesen elégedett vagyok vele most is.
Majd pár év múlva cserélem.
 
Válasz írásához előbb jelentkezz be!
5. Chavalier Humbu...
2017.01.10. 22:03
6-7 éve a csúcs kártyák maxon kb 40-70 fps-el vitték az akkori legújabb játékokat. Mostmár ott tartunk hogy "últrahájgon" megvan a majd 200fps, de mindenki veri a nyálát 10-15 fps különbségeken és teljesen fölösleges vitákba kezd másokkal a saját ostoba igazáért.
Az időtállóság sem releváns, mert a vérpitike aki kiad 250 ezer forintot a legújabb ájenvidia gtx 9990x4K-ra az azon nyomban meg is veszi a következő generáció csúcskártyáját amint kijön mert nyer vele +5 fps-t a CoD 26. részén.
Ezért tehetik meg azt a gyártók hogy elég rossz ár érték arányban adják ki a kártyákat, holott pl a 1060 3GB és a 1070 között nem olyan egetverő a különbség, talán 30%, (de mindjárt ugrik 5 fanboy hogy jól megmondja tizedesjegyre pontosan). Viszont árban meg duplája. A 1080 meg már csak bónusz, azért nem elérhető a 1060 SLI mert rommá verné azt, fele áron.
Az AMD-nek meg csak továbbra is szurkolok, bár jelenleg zöld párti vagyok a cuda magjaik és fogyasztásuk miatt, lehet hajlandó lennék váltani ha a Vega ütni fog.
 
Válasz írásához előbb jelentkezz be!
4. B_Real Chava...
2017.01.10. 22:54
6-7 éve a maximum felbontás 1080p volt, most a 4-szerese. Ugyanúgy viszik a kártyák a játékokat az aktuális legnagyobb felbontásokon (otthon, általánosságban elérhető felbontásokról van szó nyilván, amik a tesztekben is szerepelnek). A 1060 3GB és a 1070 között jó lesz ~ 50% különbség is. Az tény, hogy picit több, mint kétszer annyiba kerül, de egyrészt nem is 1080p-re való, hanem 1440p-re (max ha Sync nélküli 120-144Hz-es monitorod van, és nagyon szükségét érzi valaki, arra jó), másrészt Tomb Raiderben nem lesz fps dropja Very High beállításon a kevés VRAM miatt, a Gears of War 4 nem szabályozza le automatikusan a grafikát, mert nincs 4 vagy 6 GB VRAM-ja, vagy épp minden játék engedi beállítani manuálisan a maximum grafikát, és nem írja ki, hogy sorry, kifutottál a 3 GB-ból.
 
Válasz írásához előbb jelentkezz be!
3. Chavalier B_Rea...
2017.01.10. 23:44
Az az 50% jó lesz 35-40-nek is Természetesen 1080p-ről beszélek, mivel akinek van pénze egy 4k-s vagy 1440p-s 120Hz-s monitorra, ahogy azt levezetted, nyilván nem a videókártyán fog spórolni De mivel a valóságban sajnos nem mindenki szarja a pénzt, az összehasonlításod elég gyatra volt. 1080p-re nem kell több egy 1060-nál ha szűkösebb a kereted és még utána pár évig is simán el leszel vele. De mindegy is, nyilván neked van igazad bármiről is szóljon az amibe most belekötöttél, hátha könnyebb lesz a kis szíved ha igazat adok.
 
Válasz írásához előbb jelentkezz be!
2. B_Real Chava...
2017.01.11. 00:08
A 1060 6GB és a 1070 között van 40%, és a 1060 3GB és 6GB között további kb. 10%, amit ha összegzel kb kijön az 50% környéke.


A tesztben szereplő 1060 3GB az MSI Gaming X, míg a 46%-os előnyű 1070 egy referencia, amihez egy AIB változat még pár százalékot hozzáad.

Nem teljesen értem, mert én is azt írtam, hogy FHD-re elég a 1060.
 
Válasz írásához előbb jelentkezz be!
1. tiburka B_Rea...
2017.01.12. 19:52
FHD-ra elég, de nem kell elszállni a beállításokkal. Sokan erős kártyának gondolják, én ráfáztam. 1070 lett volna elég nekem, a 1060-at nagyon sok, nem éppen mai játék teljesen lezabál.
 
Válasz írásához előbb jelentkezz be!