iPon Hírek

Érdekes pletykák a következő generációs GeForce-okról

Dátum | 2016. 03. 18.
Szerző | J.o.k.e.r
Csoport | FŐ EGYSÉG

Az Nvidia következő generációs, Pascal architektúra köré épülő GPU-iról már szállingóznak az információk – legutóbb a GP104-es modellről fújt be a szél néhány információmorzsát. Most ismét friss pletykák érkeztek, amelyek még több részletet tartalmaznak, igaz, mivel ezek nem hivatalos forrásból származnak – ezért csak pletykák –, így érdemes őket kellő gyanakvással fogadni. Az új GPU-k pontos paraméterei mellett azt is találgatják a források, hogy a jövőben megjelenő GeForce videokártyák pontosan milyen nevezéktan szerint kaphatják típusjelzéseiket. A GTX 1000 név az információk szerint elvetésre került, helyette egy új lap nyílik a GeForce család történetében, ugyanis a friss modellek a GeForce Xx0 nevet viselhetik. A GP104 és GP100 alapú modellek a GeForce X80-as sorozatban foglalhatnak helyet, ahol a teljesítmény szegmenset a GeForce X80, a felsőkategóriát a GeForce X80 Ti, az abszolút csúcskategóriát pedig a GeForce X80 TITAN képviselheti.
A Pascal architektúra köré épülő GP104-es GPU a várakozások szerint 4096 CUDA maggal, 256 textúrázóval és 128 renderelő egységgel érkezhet, memóriatámogatás terén pedig 384-bites adatsínre és GDDR5X támogatásra lehet számítani. A GPU köré épülő videokártyákon 6 GB-nyi fedélzeti memória lehet, a GPU textúra- és pixel-kitöltési teljesítménye pedig akár 33%-kal magasabb is lehet, mint a GM200 alapú GeForce GTX Titan X modellé. A GP104-es grafikus processzor 16 nm-es FinFET gyártástechnológia segítségével készülhet, a vele felszerelt GeForce X80 modell TDP-je pedig 175 wattos lehet. A másik új GPU, azaz a GP100-as modell már teljesen más ligában játszik. Az ugyancsak 16 nm-es FinFET gyártástechnológiával készülő modell speciális memóriavezérlőt kaphat, ami a GDDR5X mellett a HBM2 memória-technológiát egyaránt támogatja. A GP100-as lapka éppen ezért kétféle tokozással érkezhet attól függően, mely memóriatípus használata a cél. A GDDR5X támogatással ellátott példány tokozása egyszerűbben nézhet ki, alján pedig több érintkező található annak érdekében, hogy a külső memóriachipekkel való kapcsolat biztosítható lehessen. A HBM2 támogatással ellátott példány ezzel szemben nagyobb lesz, hisz fedélzetén HBM2 memóriachipek is lesznek – valahogy úgy, ahogy azt az AMD Fiji sorozatú GPU-inál már megszokhattuk, igaz, azok még HBM1 memóriachipekkel dolgoztak.
Maga a GP100-as lapka alapjában véve 6144 CUDA maggal, 384 textúrázóval és 192 renderelő egységgel gazdálkodhat. Ebből az erőforrás-mennyiségből a GeForce X80 Ti 5120 CUDA magot, 320 textúrázót és 160 renderelő egységet foghat munkára, az 512-bit széles memória-adatsínt pedig GDDR5X típusú memóriachipek foglalják le. Ez a modell 8 GB-nyi VRAM-ot kaphat, memória-sávszélessége pedig 512 GB/s lehet. A csúcsmodell, vagyis a GeForce X80 Titan ezzel szemben már teljes értékű GP100-as lapkával rendelkezhet, így az összes erőforrást igénybe veheti. Ez a modell 4096 bites HBM2 memória-adatsínt kaphat, amelyre 16 GB-nyi fedélzeti memória kapcsolódhat, így a memória-sávszélesség értéke a félelmetes 1 TB/s-os szintet ostromolhatja. Mind a GeForce X80 Ti, mind pedig a GeForce GTX X80 Titan esetében kétszer nagyobb pixel- és textúra-kitöltési sebességre számíthatunk az elődmodellekhez, vagyis a GeForce GTX 980 Ti-hez és a GeForce GTX Titan X-hez képest.
Új hozzászólás írásához előbb jelentkezz be!

Eddigi hozzászólások

57. -Alvin-
2016.03.18. 15:33
Hát eleve a csík váltás miatt jobb telj/watt mutató, de ha a számolóegység növekedés stimmel akkor min 50-90%-os gyorsulás simán meg lesz
Végre lesz vmi telj növekedés és nem csak megnyirbált/átnevezések...
 
Válasz írásához előbb jelentkezz be!
56. ejcy
2016.03.18. 15:43
Ha a tesztekből majd kiderül hogy az X80 Titan kb 2xes teljesítmény hoz a Titan x-hez akkor gyakorlatilag semmiféle technológiai fejlődés nem történt., csak megdupláztak mindent.
 
Válasz írásához előbb jelentkezz be!
55. tibaimp
2016.03.18. 15:47
Ez durva lesz, piszkosul kíváncsi leszek, hogy mit hoznak ki idén a gyártók...beszarás lesz...
 
Válasz írásához előbb jelentkezz be!
54. martinair -Alvi...
2016.03.18. 15:47
...Az nvidia sem hülye.
Ha eladhatja 20-30%-os +teljesítménnyel, minek adná 50-90% plusszal??? Az az érdeke, hogy maximalizálja a profitot. Ha most "eljátssza" a hardver nyújtotta összes lehetőséget, utána egyből ülhetnek vissza fejleszteni, ami nem kis pénz.
Az ebben rejlő lehetőségeket még jó pár éven keresztül fogják "kicsalni" a vásárlóktól...
 
Válasz írásához előbb jelentkezz be!
53. Derivel ejcy
2016.03.18. 16:22
Ha mindezt úgy hozzák létre, hogy az ára nem változik az elődhöz képest, akkor történt technológiai fejlődés.
 
Válasz írásához előbb jelentkezz be!
52. Kajafun
2016.03.18. 16:39
Tök 8 az egészen rágódni.
 
Válasz írásához előbb jelentkezz be!
51. actival
2016.03.18. 16:39
Ez az év nagyon izgalmas lesz VGA fronton. A Vega csak 2017 elején jön így addig el leszünk látva hírekkel és találgatásokkal.
 
Válasz írásához előbb jelentkezz be!
50. efi99
2016.03.18. 18:01
A Ti mit jelent? Mert ezek szerint nem azt, hogy Titan.
 
Válasz írásához előbb jelentkezz be!
49. bestyen
2016.03.18. 18:14
Ti=Titanium
 
Válasz írásához előbb jelentkezz be!
48. Rimagras marti...
2016.03.18. 18:47
Azzal is maximalizálja a profitot, ha ezekkel a GPU-kkal tökönrúgja a gazdaságilag éppen csak vánszorgó AMD-t, a földre viszi és torkon szarja.

Mert láthatóan ez a céljuk, és ehhez minden feltétel adott.
 
Válasz írásához előbb jelentkezz be!
47. Rimagras
2016.03.18. 19:10
Örülök, hogy egyetértesz vele.
 
Válasz írásához előbb jelentkezz be!
46. -Alvin- marti...
2016.03.18. 19:18
A fejlesztés témakört nem látom át, de kb csak a csíkszél váltás miatt tudnak majdnem dupla szám egys belepakolni nem hiszem ez akkora architektúra fejlesztés lenne... Az x meg hbm2 ramot meg nem ők fejlesztették. Ergó én csak az izomból megoldást látom nem a sok sok fejlesztést
De persze ez csak az én véleményem!
 
Válasz írásához előbb jelentkezz be!
45. matyusv Rimag...
2016.03.18. 19:21
Igen, az AMD pedig biztos veri kozben a repat.
Ha a nv bepakol mindent a chippekbe, hogy kompatibilis legyen az uj elvarasokkal, akkor a fogyasztas ugyis megukrik.
Feesztes pedig nem sok tortent, kis masolas, kis faragas, es kesz az uj gF.
 
Válasz írásához előbb jelentkezz be!
44. matyusv activ...
2016.03.18. 19:26
Iden jon a Polaris.
 
Válasz írásához előbb jelentkezz be!
43. Meteoreso
2016.03.18. 19:39
Látom Iponon továbbra is csak a csürhe jár, szakmai beszélgetéseknek nyoma sincs...
 
Válasz írásához előbb jelentkezz be!
42. Gunther matyu...
2016.03.18. 19:41
Persze ez mindig is így volt, az AMD fejlesztett az NV meg másolt.. már csak azt nem értem hogy mégis tudta így a piac 80%-át megszerezni?

Remélem nem várnak annyit a Pascal Titan-nal mint a Maxwell-el vagy legalább valami előre bejelentett dátumot adhatnának nem csak annyit hogy majd lesz, 2x akkora erőforrás mellett 25W-al kisebb TDP elég jól hangzik.
 
Válasz írásához előbb jelentkezz be!
41. sutyko_hop...
2016.03.18. 19:44
Semmilyen lepes technikailag, de hatalmas bevetel az nvidianak....
 
Válasz írásához előbb jelentkezz be!
40. tomchee
2016.03.18. 22:00
Hát azért a táblázatot, elnézve elég fakenek tűnik
 
Válasz írásához előbb jelentkezz be!
39. BeZol
2016.03.18. 22:08
2012 tavaszán jött ki a gtx 680-as, azóta 28nm-en fityegünk. Ugyan volt ott pár negatív komment a gtx 580-as teljesítményéhez képest, de ugye teljes váltás történt.
A gtx 680ast átnevezték gtx 770re és emelték az órajelét 10%-kal. Most egy húzott gtx 960as szinjét tudja ez a kártya. A 960as viszont 2/3 árammal teszi ezt, mégis ugyanúgy 28nm.
Anno nem voltak nagy ugrások, mert kb. 2 évente történtek a váltások, és idejük sem volt rendesen kiismerni a dolgokat, most viszont 4 évük volt, és eleve a 28nm is csúszott anno, így itt most bőven volt idejük megtervezni mindent, ill. korábban 2/3-ad körülre csökkentek csak (nvidia: 65nm -> 40nm -> 28nm -> 16nm ; amd: 55nm -> 40nm -> 28nm -> 14nm, tehát lesz kb. 13% előnye az amd-nek), most viszont fele akkorák lesznek.

Szerintem kár temetni az amd-t, egy árversenynek pedig örülni kell, egyáltalán nem jó, ha az egyik simán lemossa a másikat.

Tény és való, hogy elég durva adatokat látni. 2xer annyi cucc ugyanakkora helyre, teljesen logikus, és mindez -10% energiával, hát nem rossz, legalább egyértelműen lehet már most tudni, hogy mekkora gyorsulás várható, így az nvidia már uncsi is, míg az amd-nél ilyet nem lehet mondani.

Az nvidia-nál földrengés volt, csúszik elvileg a gyártás, úgyhogy szerintem az amd előbb fogja teríteni a termékeit, és ott is hasonló duplázódásra számítok, csak nem olyan rossz teljesítmény/watt mutatóval, mint ahogy most futnak az nvidia-hoz képest.
 
Válasz írásához előbb jelentkezz be!
38. thomeef BeZol
2016.03.19. 09:48
Árverseny ide vagy oda, a vga-k nevetségesek drágák.
 
Válasz írásához előbb jelentkezz be!
37. thomeef
2016.03.19. 09:49
Mondja az egyik legnagyobb troll
 
Válasz írásához előbb jelentkezz be!
36. firebird18...
2016.03.19. 10:42
A következő kártyám GTX X80 Titan 16gb de ha év végére adják csak ki akkor lehet hogy sli lesz belőle
 
Válasz írásához előbb jelentkezz be!
35. Rimagras matyu...
2016.03.19. 13:04
Sajnos igen, az AMD utóbbi 4-5 éves működéséből az következik, hogy répaverés volt normális (értsd: üzletileg) CPU és VGA-k létrehozása helyett.

Azért a GTX 9xx széria már megmutatta, hogy nem csak másolás és faragás történik, hiszen az AMD csak a Fury-kkal tudott nagy nehezen valamivel kijönni ellenük, de még ezek sem voltak képesek leverni az Nv-t.
 
Válasz írásához előbb jelentkezz be!
34. Rimagras BeZol
2016.03.19. 13:07
Árverseny...? Amikor a néhol gyengébb Fury nem kicsivel drágábban jött ki, mint az adott sávban lévő GTX? Hol van itt árverseny?
 
Válasz írásához előbb jelentkezz be!
33. Rimagras Meteo...
2016.03.19. 13:09
Szép dolog az önkritika, köszönjük.
 
Válasz írásához előbb jelentkezz be!
32. Rimagras
2016.03.19. 13:14
Amúgy a képet nézve az jutott eszembe, hogy lehet, hogy az Nv kevert memóriás kártyákat fog kihozni, vagyis lesz mondjuk 4Gb HBM2 és 4+6+8+stb GDDR5X. Gyors kártya költséghatékonyan. Lehet, hogy a GTX970 felemás memóriájával ezt tesztelték a gyakorlatban, csak értelemszerűen nem akarták elárulni az igazi okot.

Hangsúlyozom: magánvélemény.
 
Válasz írásához előbb jelentkezz be!
31. Parano1d Rimag...
2016.03.19. 18:52
Amikor megjelent a GTX970, az Nvidia szerintem még nem is tudta, hogy mi fán terem a HBM memória. A kevert memóriás kártya minden volna, csak nem költséghatékony. Nem véletlenül nem ontják magukból a gyártók a nagy memória-sávszélességű kártyákat. Eléggé megdobja a költségeket. A címzés is problémás volna.
A táblázathoz kapcsolódva, nekem nagyon magasnak tűnnek a TDP értékek, vagy az órajelek alacsonynak.
 
Válasz írásához előbb jelentkezz be!
30. leviske
2016.03.19. 21:51
Nem lenne rossz, ha igaz lenne, de kicsit elrugaszkodottnak tűnik annak fényében, hogy mennyivel drágábbak a kisebb csíkszélességű wafferek, mint a 28nm-es társaik. A sima X80 arányaiban sokkal drágábbra jönne ki, mint az eléggé költséghatékony előd. Persze mondjuk az árba lehet, hogy beleférne a dolog.
 
Válasz írásához előbb jelentkezz be!
2016.03.20. 01:23
Ebben a generációban könnyedén megtehette volna, ha akarja.

Mit ért volna el vele? A SONY/MS felvásárolja, aztán vakarhatja a fejét hogy miafasz legyen a korlátlan tőkével szemben.

Szerintem kényelmes neki egy olyan vetélytárs, aki negyedannyiból (has) végzi a K+F-t.
Aztán, nem t'om, nem én vagyok Huang.
 
Válasz írásához előbb jelentkezz be!
28. Rimagras Paran...
2016.03.20. 09:43
Végülis kevert memóriát alkalmazott az X360 és az Xb One is, csak ők a chipen belül sram-mal tették, szóval annyira nem unikum a megoldás.

Viszont felröppent egy 4K-t tudó PS4 verzióról közben egy pletyka, szóval ha az AMD képes 4K-t bíró APU egység legyártásár, akkor még borulhatnak az erőviszonyok.
 
Válasz írásához előbb jelentkezz be!
27. Rimagras ny
2016.03.20. 09:44
Igen, igaz lehet, hogy jobb így elnyomva kontroll alatt tartani a konkurenciát.
 
Válasz írásához előbb jelentkezz be!
26. Terror Rimag...
2016.03.20. 10:58
Hogyne. Még az 1080p is sok annak a vasnak. De tegyük fel, megduplázzák a shaderek számát, 4K-hoz még az sem elég. Ha ennél is nagyobb chipet gyártanak, az már akkora bukter, hogy csak úgy füstöl. Esélytelen a dolog.
 
Válasz írásához előbb jelentkezz be!
25. Rimagras Terro...
2016.03.20. 12:25
http://kotaku.com/sources-sony-is-working-on-a-ps4-5-1765723053

(Lehet, hogy a kis doboz amit adnak a VR-hez valójában egy külső VGA, és külön is megvásárolható lesz?)
 
Válasz írásához előbb jelentkezz be!
24. Rimagras
2016.03.20. 12:30
Már 100K alatt a PS4, ettől függetlenül a teljesítménye valóban gyengébb egy középkategóriás VGA + i3 kombónál a crossplatform játékokban, az exkluzív címek természetesen jobban teljesítenek, csak ott meg nincs viszonyítási alap.
 
Válasz írásához előbb jelentkezz be!
23. jedi
2016.03.20. 18:57
Két megjegyzés ehhez a cikkhez:

1. Az X80 Titan ára, vetekedni fog, egy kisebb borsodi családi ház árával ( bocs a borsodiaktól, nem személyeskedés, csak mint példa ). Ha valaki ennyit kiad szórakozás gyanánt egy kéttenyérnyi nyákért, annak gratulálok.

2. Ennyi bődületes fszságot , mit az alábbi majd 40 hozzászólásban volt, már rég nem olvastam itt.

 
Válasz írásához előbb jelentkezz be!
22. Rimagras jedi
2016.03.20. 19:30
Köszönjük, hogy te szakmai és építő módon szóltál hozzá a többiekkel ellentétben...

Oh, wait...
 
Válasz írásához előbb jelentkezz be!
2016.03.20. 20:13
Válaszd ki az alant lévő majd 40 , majd szakmai hozzászólás közül, melyikre reagáljak szakmaian .
 
Válasz írásához előbb jelentkezz be!
20. ChoSimba jedi
2016.03.20. 20:48
1.
Szerintem a Titan sosem volt "valódi" termék. Sokkal inkább techdemo vagy e-pénisz. Ezért hogy mennyibe kerül, az teljesen lényegtelen. Már-már polgárpukkasztás kategória.

2.
Tudhatnád, hogy AMD/nVidia cikknél a 40db idióta hozzászólás kimondottan kevésnek számít
 
Válasz írásához előbb jelentkezz be!
19. thestock Rimag...
2016.03.21. 06:23
Ez mitől lenne költséghatékony?
Gondolom macerás a GPU-nak is hogy miként használja a kétféle memóriát. Erről a DDR3 DDR2 kombó lapok jutnak eszembe...ott is csak vagy ezt vagy azt rakhattál bele. Aztán volt aki bejátszotta hogy berakta a DDR3 mellé dualba a DDR2-t
A másik kérdésem az lenne hogy gyártásnál ez miért jó? Gondolom mozgatni kell a terméket ami időkiesés/pénzkiesés,vagy egy külön gyártósor amivel meg már nem lesz költséghatékony.
 
Válasz írásához előbb jelentkezz be!
18. jedi
2016.03.21. 07:08
Az árakkal kapcsolatban van egy tippem. Ha az új Titan tényleg olyan specifikációkkal jön ki ahogy azt fentebb írták, akkor nagyon zsebbenyúlós lesz. Drága GPU gyártástechnológia + drága memória gyártástechnológia + alapból is drága NVidia. Ha három drága összetevő találkozik egy termék gyártása során, akkor ezek még fel is erősítik egymás hatásait, szóval én a Titan nyitóárát min. 500-600EFt közé saccolom. Ha az NV elkért az előző Titan-ért 400-at nyitónak, akkor ez még talán alá is van becsülve kicsit. Az X80 TI ára már emberibb lehet, de az is ott lesz 300 körül, ne örüljetek. A sima X80-ast talán megkapjátok 200 körül. Szóval aki új NV kártyát akar venni idén, annak még fontosabb, hogy az AMD Polaris időbe kijöjjön, és durván jó is legyen, mert ha késik, vagy nem úgy fog teljesíteni ahogy előre volt jelezve, no akkor a zöldek árai minden képzeletet felülmúlóan el fognak szabadulni az tuti.

UI.: elég szakmai volt ?
 
Válasz írásához előbb jelentkezz be!
17. malibutomi
2016.03.21. 08:43
Senkinek nem esett le hogy az egesz tablazat csak talalgatas, egyesek maris vizionaljak mekkora jo kartyak lesznek.
A GP100-at tuti nem fogja az NVketfele memoriavezerlovel gyartani, innentol tudhato hogy az egesz valamelyik remenykedo rajongo agyabol pattant ki.
 
Válasz írásához előbb jelentkezz be!
16. rini
2016.03.21. 08:52
Ezeknek a magasabb kategóriás kártyáknak az árai mindig is presztízs termék kategóriába tartoztak. Soha nem volt köze a realitáshoz. Mellesleg ez nem csak ezekre a termékekre igaz. Alapvetően ugyan azokon az árakon fognak érkezni mint az elmúlt időszak presztízs kártyái. A három fent említett megnevezésű termék pedig csak a mostani csúcs termékek leváltására, helyére fognak érkezni. Ebből kiindulva valahol az áraik is azok induló áraikhoz fognak igazodni. Például a 980Ti kártya induló ára volt 250 000, akkor az x80Ti induló ára is ekörül fog megjelenni. Természetesen +- 5-10% eltérés lehetséges mint minden más termék esetében is.

Nem mellékesen aki ilyen kártyára teker az ne sírjon ha sokat kell érte fizetni. Ott van mit költeni és ne azon lovagoljon, hogy mennyibe került. Biztos vannak akik bőven megtehetik, hogy ilyen kártyákat vásárolnak illetve használnak. Használják egészséggel. Viszont a vékony pénztálcájú vásárlók, akik nem képesek megfizetni ezeket a termékeket, ne fikázzák. Álmodni lehet róluk, sőt még gyűjtögetni is, hogy idővel neki is lehessen ilyen egyszer a gépében. A gond csak az, hogy mire összespórol egy ilyen árát addigra kifutó széria lesz, esetleg kis szerencsével sikerül szert tennie egy használt példányra.

Továbbra is csak azt tudom javasolni. Gondolkodjatok és mérjétek fel a rendelkezésre álló keret nagyságát és tedd fel a kérdést. Kitudod folyamatosan használni a bennük levő potenciált? Mert ha nem, akkor hülyeség egyáltalán gondolkodni is a megvételéről. Hozzáteszem. Nem lebeszélni akarok senkit egy ilyen megvételéről csak mérjétek fel, hogy mire van szüksége?
 
Válasz írásához előbb jelentkezz be!
15. Derivel jedi
2016.03.21. 11:25
Nem hiszem, hogy az "x80 Titan" ára nagyon túlfogja lépni az 1000 dollárt. Az eddigi Titan-ok is ennyibe kerültek, és mivel ez a sorozat elvileg a 900-as szériát váltja le, ezért az árak kb. meg fognak egyezni szerintem. Persze mire hazánkba ér, egy csomó adót rányomnak, így itthon lesz kb 350-400k forint max.
 
Válasz írásához előbb jelentkezz be!
2016.03.21. 11:43
Attól félek, ez közelebb lesz az 1500 dollárhoz, mint az 1000-hez. Itt nálunk meg az 1500 Euro lesz, ami a jó magyar 27%-os áfával, meg a nem kis árréssel, meg az újdonság varázsával lehet hogy belenyal 500 fölé, de ne legyen igazam.
 
Válasz írásához előbb jelentkezz be!
13. ChoSimba jedi
2016.03.21. 12:45
+1
Én is 1500$-ra tippelnék most. De egyébként meg tök mindegy, 1000$-ért sem fogok rohanni a boltba
 
Válasz írásához előbb jelentkezz be!
12. Rimagras malib...
2016.03.21. 13:00
Jó AMD-sként már előre rettegsz, hogy jó kártyák lesznek?
 
Válasz írásához előbb jelentkezz be!
11. BReal Rimag...
2016.03.21. 13:34
Jó NVidiásként már előre látod, hogy az AMD csak szar lehet?
 
Válasz írásához előbb jelentkezz be!
10. BReal Rimag...
2016.03.21. 13:34
Jó NVidiásként már előre látod, hogy az AMD csak szar lehet?
 
Válasz írásához előbb jelentkezz be!
9. malibutomi Rimag...
2016.03.21. 13:49
Igen szornyen felek mar elore. Megremit a kitalalt tablazat, es a Maxwell chipek lobogtatasa Pascalkent.
 
Válasz írásához előbb jelentkezz be!
8. fules675 malib...
2016.03.21. 14:30
Ezeknek kár válaszolgatni mert egy az egyben olyan mint ha a falnak beszélnél

A pletykák szerint 2 hónap múlva fog megjelenni a Pascal,de az Nvidia még egy árva mukkot nem szólt róla,érdekes... De ők már tudják hogy az AMDnek esélye sem lesz

Szerintem véglel tiltani kellene az komment lehetőséget,mert már 10-ből 8 válaszoló valami elvetemült idióta akinek jobb dolga sincs csak trollkodni és trollkodni
 
Válasz írásához előbb jelentkezz be!
2016.03.21. 22:13
Amúgy ha elolvastad volna az egész cikket akkor tudnád, hogy ez egy nem hivatalos táblázat magyarul nem kötelező elhinni. Ettől lehetnek rosszabbak is de jobbak is a Pascal kártyák.
 
Válasz írásához előbb jelentkezz be!
6. Humbuk
2016.03.23. 21:24
Az egyik kommentben olvastam: "az AMD gyártja..." Nem. Az AMD és az Nvidia is gyártatja a termékeit... Mert saját gyáruk nincsen.

Ez azért nagyon fontos, mert biza a gyártás nem éppen egy occó dolog. És a multik bizony csúnya felárral számolnak (ezért ilyen drágák az autók is) //Tapasztalat...

Most, hogy ezt tisztáztuk, on:
Kiváncsi leszek a felhozatalra, mondjuk én inkább a 60as, 50es száriára, mert ahogy kalkulálok full hdra már nem kell majd jobb. 4GB rammal sztem egy jó 5évig nem kell majd kártyát venni.
Azonban én kíváncsi lennék a gpgpu képességeire is, mert az elég csúnya, hogy bizonyos esetekben spec alkalmazásoknál jobban teljesít a gtx560ti-m, mint a 960as gtx.. Természesen utóbbi sokkal jobb kari, de még is..

Továbbá aki jövőállóbb megoldásokban gondolkodik az nézzen utána az NV-nél a DX12 support szintjének, mert bizony az AMD lehet jobban áll ezen a fronton...
Főleg h jövőre elkezdenek ömleni a dx12es címek.Pl most el is gondolkodtam, hogyha az AMD jó kártyákkal jön ki, akkor azt veszek ha az NV megnyírbálja a gpgpu képességeket megint..
 
Válasz írásához előbb jelentkezz be!
2016.03.24. 00:07
Arról a dx12-ről beszélsz ami konkrétan nem hozott semmilyen gyorsulást hanem némely esetekben pont hogy lassulást eredményez? Ezért aztán megéri várni a nagy dx12-es címeket és venni a dx12-es amd-s kártyákat.
 
Válasz írásához előbb jelentkezz be!
4. ChoSimba gtas
2016.03.24. 08:50
A DX12 igenis hoz gyorsulást, ezt kár tagadni.
Múlt havi AoS teszt: [LINK]

Hogy egy játékban megvalósított implementáció sz@r, az más kérdés. De ez nem a DX12 hibája. Ezen viszont lehet segíteni, ahogy általában meg is történt. Az idejénél korábban kiadott tesztekről meg ne beszéljünk, mert nincs értelme.
A fenti példánál maradva, világosan látszik, hogy elég vacak a megvalósítás, mert az nvidia kártyákon konkrétan fps csökkenés van. Márpedig ha csak a draw callok terén elért fejlődést nézzük, ott is jelentős előrelépésnek kellene lennie. De nincs, valószínűleg az AS az AMD preferált kódon fut, ami megakasztja a zöldeket. Helyesebb lenne kikapcsolni zöld kártyák esetén, de megmondták, hogy nem akarnak szeparált programkódot. Ez nem a DX12 hibája, ez a fejlesztők sara.

A Hitmannál van gyorsulás zöldeknél is.
 
Válasz írásához előbb jelentkezz be!
3. Terror ChoSi...
2016.03.24. 09:23
Igen, de az a baj, hogy a Hitman alatt sem nyertek pár fps-nél többet. Még nem láttunk olyan dolgot eddig, ahol a DX12 érdemben nyerő lett volna. Azt értem, hogy a DX11 sem indult be éppen gyorsan, de a DX12-vel még annyira sem sietnek.
 
Válasz írásához előbb jelentkezz be!
2. ChoSimba Terro...
2016.03.24. 09:59
Oké hogy inkább teszt semmint játék, de AoS alatt AMD kártyán van 30-40% gyorsulás. Az meg hogy a zöld szenved, hát ez van. Beérett a GCN, most van az AMD által hangoztatott 'majd'.
És a DX11-ről DX12-re váltás sokkal nagyobb volt programozástechnikailag, mint eddig bármi.
Fel kell nőniük a programozóknak, de jó lesz ez. És mire jó lesz, addigra a mai zöld kártyák már a használt piacon is a futottak még kategóriába fognak esni. Ennyi. Új tech-hez új hardver kell. A több éves "szopás" után most a pirosak jártak jobban.
 
Válasz írásához előbb jelentkezz be!
1. ChoSimba
2016.03.25. 21:22
Mondok jobbat, de csak halkan, mert még csak pletyka.
A Pascalban sem lesz rendes async shader
Ami mondjuk valahol "érthető" is, hiszen már rég megtervezték a Pascalt, mire kirobbant az asyncgate. Nyilván nem lehetett elölről kezdeni a tervezést, hogy legyen benne.
Másrészről meg nem is biztos hogy szükség van rá.
Az async shader ugye a gpu olyan részén fut, ami egyébként "üresjáratban" megy. Tehát ha akarunk bele async shadert, akkor kell bele tenni üresjáratban futó részt. Ez viszont elég nonszensz.
A zöld kártyák közismerten jobban gazdálkodnak az erőforrásaikkal, ezért alapból nem nagyon van olyan részük, amely "unatkozna".
Hát nemtom, majmegláttyuk.
Most már nagyon tűkön ülök, ez akár gamechanging is lehet

[LINK]
 
Válasz írásához előbb jelentkezz be!