iPon Cikkek

GeForce GTX1080 – Vissza a jövőbe!

Dátum | 2016. 05. 30.
Szerző | Svindler
Csoport | MEGJELENÍTÉS

Az előző két generáció a hatékonyság maximalizálásáról, némileg az egyszerűsítésről, és a teljesítmény/watt arány növeléséről szólt az nVidiánál, a mérnökök pedig elég jó munkát végeztek, a kitűzött célokat figyelembe véve. A Kepler (GTX6xx, GTX7xx nagy része) architektúra kukázta az elődje (Fermi) bonyolult ütemezőjét, és a helyére egy jóval egyszerűbbet pakolt, aminél sok múlik a szoftveren, de ez grafikus feladatoknál nem feltétlenül probléma. Cserébe rengeteg tranzisztort spóroltak, ami jótékonyan hatott a fogyasztásra is. Érdekes módon pont amikor az nVidia tett egy lépést hátra, az AMD ugrott egyet előre, és a GCN-nel lerakott egy időtálló, bonyolult architektúrát az asztalra, amiben például dinamikus ütemező volt. Tehát míg az AMD a jövőre, az nVidia a jelenre gondolt, és visszanézve, mint oly sokszor, ez bizonyult a kifizetődőbb választásnak, mert hiába tudtak a Radeonok többet, ha azt semmi sem használta ki, a GeForce-ok pedig közben jóval alacsonyabb fogyasztás mellett hozták ugyanazt a teljesítményt, sőt! Ráadásul a GameWorks-szel szoftveres fronton is bekeményített az nVidia, egyre több programban bukkantak fel a kódjai, amikre az AMD-nek nehéz optimalizálnia a drivereit. A DirectX 11-es versenyt tehát ha nem is sokkal, de megnyerték a GeForce-ok, még a kisebb botrányok ellenére is (gondolunk itt például a rossz GTX970 kommunikációra). Szép lassan azonban beköszönt a VR és a DirectX 12 kora, papíron a Radeonok végre kivillanthatnák karmaikat, de mire minden otthonban lesz egy ilyen sisak, már az nVidia is készen áll majd. A Pascal ugyanis azokon a frontokon erősíti a Maxwellt, amikben a GCN-hez képest gyenge volt. Kezdjük is rögtön az újítások sorát a már emlegetett ütemezővel. Egyre több olyan játék lesz, ami vegyes terheléssel dolgozik, tehát a grafikus számítások mellett compute shadereket is futtat majd, kell a jobb ütemező a maximális kihasználtság reményében. Visszatérünk tehát ezen a fronton a Fermis időkbe, véget ért az nVidia kitérője.
Bár a Maxwell nem volt túl optimális architektúra, ha a virtuális valósághoz volt szükségünk egy GPU-ra, azért az nVidia teleaggatta a GTX970-től kezdve a kártyáit a VR Ready matricákkal, mert miért ne, most a vízcsapból is ez folyik, hatásos lesz. A Pascal azonban nagyon fontos lépéseket tett afelé, hogy valóban elismerjük, ezt már szívesen kötnénk a VR sisakunkra. A Maxwellnél problémát jelentett, hogy nem volt jó megszakítási modellje. Ha befutott egy sürgős kérés (például fejpozíció számolása), akkor is be kellett fejezze az aktuális draw parancsot, és ez plusz időkiesést jelentett egy olyan felhasználási módnál, aminél mindenki azon dolgozik, hogy a késleltetést a minimális szinten tartsa. Immár csak az aktuális pixel számolgatásával kell végezzen egy SMP, utána képes elmenteni az aktuális állapotot, majd gyorsan végrehajtani a sürgős parancso(ka)t. A geometriát sem kell kétszer számolja, mert fel tudja használni mindkét szemhez a már kiszámolt adatokat, így erőforrásokat spórolva meg. Sok apró változás történt még, ami a fejlettebb API-k jobb kiszolgálását teszi lehetővé, bár érdekes módon a bekötési modell nem jutott el a legmagasabbra szintre (míg a GCN-nél már rég azon van). Persze a mai processzorok mellett ez lehet nem akkora probléma, elég gyenge társat kéne adjunk a GPU-nak, hogy ez észrevehetővé váljon, de attól még különös.
Vannak azonban még érdekességek az architektúra tarsolyában. Egyrészt fejlődött a színeltérésen alapuló tömörítés, aminek hála az nVidia mérései szerint átlagosan 20%-kal kevesebb sávszélességgel is beéri a GPU (a Maxwellhez képest). Ha ehhez hozzávesszük, hogy a GDDR5X memóriák miatt nőtt is a sávszélesség, láthatjuk, hogy a Pascaloknak valószínűleg nem lesznek memória problémái.
Amit egy pillanatra sem lehet elvitatni a GTX900-as szériától, hogy a videós motoruk nagyon fejlett volt, és kimenetek frontján is jól álltak. Bár „csak” négy kijelzőt voltak képesek egyszerre kezelni a csúcskártyák, ezek között lehettek 4K-s TV-k is, hála a HDMI 2.0 kimenetnek, ami bizony máig fájóan hiányzik a Radeonokról. Ideje is lesz behoznia az AMD-nek ezt a lemaradását, mert a Pascal most tovább emeli a szintet. A HDMI 2.0b csatlakozó mellett olyan DisplayPortok vannak, amik az nVidia szerint csak a megfelelő hitelesítő tesztek miatt nem kaphatnak hivatalosan DP 1.4 plecsnit, de már tudnak mindent, ami ahhoz kell, hogy majd megkapják. Ez azt jelenti, hogy a jövőben akár a 8K-s kijelzők meghajtása sem jelent majd akadályt, bár az nem holnap lesz, hogy ezt működés közben kipróbáljuk. Ami viszont sokkal fontosabb, az a HDR videófolyamok fejlett kezelése. Ez mehet már DisplayPort és HDMI csatlakozón keresztül is majd, és az NVENC motor is felnőtt a feladathoz. Képes akár 60fps-sel kódolni 4K-s, 10 bites, HDR-es videófolyamokat HEVC (H.265) kodekkel, míg a lejátszás akár 12bites színcsatornákkal is mehet, valamint a VP9-es kodek is támogatott. Nagyon nehéz lesz tehát olyan videóval megkínálni a Pascalt, amit nem játszik le csuklóból.
Ha valaki nem követte a piaci trendeket, a HDR (High Dynamic Range) lesz a következő szintlépés a kijelzőknél, már van is pár TV, ami támogatja. Segítségével brutális kontrasztarány, a mostanában megszokottnál sokkal jobb színlefedettség és nagyobb fényerővel rendelkező kijelzők készülhetnek. Persze azt megvalósítani, hogy például a háttérvilágítás is pozíciótól függően változzon, nem egyszerű feladat, tehát egy ideig még elég drágák lesznek az ilyen panelek, de valahol el kell kezdeni a fejlődést. Párosan szép az élet A Pascallal az nVidia behozott a többkártyás rendszerekhez is egy újítást, mert a régi SLI híd már kezdett kevés lenni a mai felbontások mellett. Ezeken az összekötő hidakon vándorolnak a megjelenítendő képek ahhoz a kártyához, amire a kijelző van csatlakoztatva. Eddig a két SLI csatlakozó azért kellett a csúcskártyákra, hogy 3-4-et is összeköthessünk szépen sorba. A Pascal azonban már képes egyszerre használni mindkét csatlakozót ugyanahhoz a kapcsolathoz, így az új HB (High Bandwidth) hidak csak két kártyát kötnek össze, de azokat dupla sávszélességgel. Ráadásul az SLI kapcsolat órajele is nőtt, 400 helyett 650MHz-re, amit képesek elérni a régebbi hidak közül is a masszívabb példányok (a merev, ledesek). Építhetünk persze továbbra is 3-4 kártyás rendszert, de a régi SLI kábelek lefoghatják majd a teljesítményt. Az nVidia ajánlása szerint azokat csak 2560*1440@60Hz-ig érdemes használni, a LED-es változatokat akár 4K-ig, míg minden máshoz (pl. surroundhoz) már az új híd dukál.
Most pedig ismerkedjünk meg az első olyan GPU-val és kártyával, ami már a Pascal architektúrára épül!
A GP104-es GPU felépítése magas szintről nézve nagyon hasonlít a Maxwelles GM104-re. A memóriavezérlő a GDDR5X támogatást leszámítva változatlan, renderelőkből is 64 van, ugyanúgy négy háromszöggel tud foglalkozni órajelenként, stb. Ami viszont nem látszik a képen, azok a kisebb-nagyobb újítások, amikről eddig beszéltünk: jobb ütemező, színtömörítés, megszakításkezelés, SLI vezérlő és így tovább.
Az viszont feltűnhet a gyakorlottabb olvasóinknak, hogy több shaderrel van dolgunk, egész konkrétan 20 tömbbe rendezve várja 2560 „CUDA mag”, hogy munkára fogjuk. Ez megmutatkozik a tranzisztorszámban is, ami két milliárddal több lett (5,2 vs. 7,2), de ez igazából nem számít óriás chipnek így sem, köszönhetően a 16nm-es gyártástechnológiának. A számokról még bővebben beszélünk majd a következő oldalon, aki még bujkálna egy kicsit a GPU apró részleteiben, nézze meg a technikai leírását. Két kártya épült (legalábbis egyelőre ennyiről tudunk) e köré a GPU köré. Az egyik a mai teszt sztárja, a GTX1080-as, aminél aktív minden részegység, a másik a némi letiltáson átesett GTX1070-es, ami csak júniusban fog elrajtolni. Érdekesség, hogy ezúttal mindkét kártyánál kapható (lesz) egy úgynevezett Founder’s Edition változat, ami jobb tápellátást ígér, a továbbfejlesztett referencia hűtővel, amire elég kíváncsiak voltunk, mert a régivel elégedettek voltunk. Szerencsénkre pont egy ilyen járt nálunk, úgyhogy nézzük is gyorsan mit kínál. nVidia GeForce GTX 1080 8GB Nos, a dizájn már valószínűleg nem ismeretlen senkinek, csak ezúttal egy kicsit modernebb, szögletesebb lett a borítás. Alatta viszont egy hőkamrás megoldás lapul, ami elvileg elég jó hatásfokkal dolgozik. Nos, nemsokára kiderül, a miénk viszont automata szabályzás esetén furán viselkedett. Terhelés hatására fel-felpörgött egy-egy másodperc erejéig, amit referencia kártya még nem csinált nálunk. Ezt a rendellenességet leszámítva egyébként viszonylag halkan végezte a dolgát a kártya, csak hosszú terhelés hatására jön meg a hangja, vagy tuningnál, de akkor nagyon (főleg ha mi magunk feltekerjük, de egyszerűen muszáj).
A kimenetek között ezúttal három DisplayPort 1.4, egy HDMI 2.0 és egy Dual Link DVI-D lapul. Ez utóbbi azért érdekes, mert ez azt jelenti, hogy az nVidia is szakított a jó öreg analóg D-sub kimenettel, de hát remélhetőleg senki nem akar olyan monitort dugni a GTX1080-asra, ami csak ilyennel rendelkezik. Haladni kell a korral.
Van hátlapi panel is, az egész kártya nagyon masszív, a minőségérzet most is megvan, de ez szerencsére nem is szokott probléma lenni ebben a kategóriában.
Fussunk át azon, kikkel kell ma farkasszemet néznie a GTX1080-nak:
A táblázat nagyítható! (klikk)
Nagyon szerettünk volna még egy GTX770-est is bevenni a mezőnybe, de az az igazság, hogy még a GTX780-ak is szenvedtek a 3GB memóriájukkal, egy alap 770-esnek esélye sem lett volna eredményesen túlélnie a megpróbáltatásokat. Próbálunk szerezni egy 4GB-os példányt, ha sikerül, a GTX1070-es tesztünkben már az is szerepelni fog. Hála az új gyártástechnológiának, a GTX1080-as rendelkezik a legkisebb chippel a mezőnyből, és ha belegondolunk, a tranzisztorszáma sincs elszállva, a GM200 többől építkezett. Persze shader is több volt benne, de ezt bőven kompenzálja az újdonság az órajeleivel, amik brutálisan magasak az előző generációhoz képest. A Maxwellek tuningolva körülbelül 1500MHz-ig tudtak elmenni, a GTX1080 pedig az alap órajelein is elboostolgatja magát 1800 fölé. Így talán már nem is olyan nagy csoda, hogy az nVidia szerint simán 2000Mhz fölé húzható, hiszen az „csak” 10% tuning. Nagyon fontos még kiemelni, hogy 8GB memóriát kapott a GTX1080. Bár nagyon sokáig 2GB mindenre elég volt, manapság azt látjuk, hogy már a 4-ből sem túl nehéz kifutni. Van olyan játék, ami már 1080p-ben is be tud szólni maximális beállítások mellett, hogy gondoljuk meg kétszer azt a ram mennyiséget (a Rise of the Tomb Raider például ilyen). Ha csak a nyers erőt nézzük, a GTX1080 a TITAN X-nél is több számítást képes elvégezni másodpercenként, csak a memória-sávszélessége alacsonyabb valamivel, még az őrült tempót diktáló RAM-ok ellenére is, de ez valószínűleg az új tömörítési eljárásoknak hála nem lesz gond. Tesztkonfiguráció Alaplap: Gigabyte GA-Z77X-UD3H Processzor: Intel Core i5-3570k@4.4GHz Memória: 2x4GB Corsair Vengeance DDR3-1866 Grafikus kártyák: nVidia GeForce GTX780 3GB, nVidia GeForce GTX780 Ti 3GB, Gainward Bliss GeForce GTX970 4GB, nVidia GeForce GTX980 4GB, MSI GeForce GTX980 Ti 6GB, nVidia GeForce TITAN X 12GB, nVidia GeForce GTX1080 8GB Founder’s Edition, Gigabyte R9 390 Gaming 8GB, MSI R9 390X Gaming 8GB, ASUS STRIX R9 Fury 4GB, Gigabyte R9 Fury X 4GB (természetesen azon kártyákat, amik gyárilag nem referencia órajelen üzemeltek, visszaállítottuk azokra) Tápegység: Cooler Master M2 Silent Pro 1000W Operációs rendszer: Windows 10 64bit minden frissítéssel Driverek: GeForce 365.19, GeForce 368.25 (GTX1080), Radeon Software 16.5.2
Az üresjárati fogyasztásban látható különbségek nagy része visszavezethető a kártyák típusára. Volt olyan is, ami három ventilátort tekert, és értelemszerűen ezen a szinten ez is számít.
Terhelés alatt azonban már jóval kevésbé számít a hűtés. Érdekes módon a GTX1080 a GTX980Ti-vel volt egy szinten, holott az nVidia TDP táblázata szerint inkább a 980 és a 980 Ti között kéne legyen. Nos, a magas órajel valószínűleg azért elviszi azt, amit az alacsonyabb magfeszültség hozott, ez az eredmény azért nem kiemelkedő. Azoknak tehát, akik úgy gondolták, hogy fákat mentve fognak 144fps-sel Doomozni, csalódniuk kell.
FurMark alatt persze már nagyon jól viselkedik a GTX1080, de ez főleg annak köszönhető, hogy felismeri a terhelést és… máris nem annyira fickós, ha a boostolgatásról van szó. Egyelőre tehát nem ez a táblázat a mérvadó, csak érdekességképpen tartottuk meg.
Az Ashes of the Singularity új belépő nálunk, aminek elég részletes, de csöppet idegesítő beépített benchmarkja van (és ez egyike azon játékoknak, amik még egy felbontás váltásért is újraindítást kérnek). Érdekes módon az egyéb terhelések miatt a felbontás növekedése jóval kevésbé hatja meg, mint a többi játékot. A Radeonok egyébként nagyon jól teljesítenek alatta, a Fury X simán hozza a TITAN X sebességét, majd szép lassan elhúz tőle. A GTX1080-at nem is kell magyarázni, az csak szimplán mindenki előtt van itt is.
Battlefield 4 alatt 4K-ban egyszerűen elfogy a memória a két GTX780-as alól. Ne tévesszen meg senkit, hogy a sima 780-as jobb eredményt ért el, mint a Ti, valójában mind a kettő olyan beakadásokat produkál, hogy rossz volt nézni.
A Hitman is új a tesztjeink között, és DX12 overhead csökkentés ide vagy oda, bizony olyan procilimites volt 1080p-ben, hogy csuhaj. Magasabb felbontáson már nem a CPU a szűk keresztmetszet, így helyreáll a rend, viszont az elég komoly eredmény, hogy 4K-ban egy R9 390-es hozza a TITAN X szintjét. Ha hamarabb kezdenek el terjedni az új API-t használó címek, talán máshogy állna ma az AMD szénája.
A Rise of the Tomb Raider volt a kakukktojás a DX12-es játékok között, mert egyrészt az nVidia kártyák hozták a Radeonok szintjét alatta, másrészt igazából egyik fél sem örülhetett, mert nem hozott gyorsulást a DX12 kód, sőt! Az utólagosan bepatchelt DX12 környezetben egyébként sem hiszünk annyira, de talán a Total War: Warhammeren (ami valószínűleg hamarosan bekerül a tesztjátékaink közé) majd segíteni fog, mert borzasztóan CPU limites.
A Division is újdonság nálunk, de egyelőre elég furán viselkedik a saját benchmarkja. Ráadásul a tesztünk alatt jött ki egy új patch a játékhoz, amivel teljesen megváltoztak az eredmények, így futtathattuk újra az összes kártyán a tesztet (érdekes egyébként, mert a patch leírás nem tartalmazott változtatást a benchmarkra nézve).
Túlhajtás Teljesítményből sohasem elég, ugye? Bár toronymagasan vezette a diákat az új kártya, azért nem úszhatta meg túlhajtást sem nálunk, ha már az nVidia azzal (is) hirdette, hogy simán elteker 2GHz-en, ha mi is úgy akarjuk. Hát akartuk. A memória effektív órajelén kerek 1GHz-et sikerült húzni, így 11GHz-en dolgozott, míg a GPU-ból alkalmazásfüggően 200-250MHz pluszt sikerült kicsikarni. Végül a stabilitást választva a 200MHz-nél maradtunk, ami átlagosan 2020MHz körüli boost órajelet jelentett. Lássuk mire volt ez elég:
Szerencsére jól skálázódik a chip, így a bő 10%-os tuning bő 10%-os teljesítménynövekedést hozott a konyhára. Azt viszont meg kell jegyezzük, hogy ezt azért nem úgy tette, mint az nVidia showján, ahol valószínűleg egy klímával fújták rá a hideget, hogy 67 fokos volt túlhajtva. Pillanatok alatt eléri ugyanis a 80 fokot és leszabályozza magát, így kénytelenek leszünk feltekerni a ventit. Nekünk majdnem maximumon kellett járatni és úgy már azért elég hangos. Nem visít, mint a régi idők ventijei, de erős szélzaja van. Nem biztos, hogy megéri hallgatni azért a 10%-ért, de ezt mindenki döntse el magának. Verdikt Mivel három felbontáson teszteltünk, három különböző összesítést készítettünk, mert így jobban látszik például, hogy a Radeonok ahogy nő a pixelek száma, úgy kezdik egyre jobban érezni magukat. 1080p-ben viszont procilimitbe futottunk néhány esetben, de nem gyomláltuk ki az eredményeket, mert volt, ahol csak sejtjük, hogy erősebb CPU-val még ment volna feljebb a GTX1080. Mindenesetre aki ilyen felbontáson használná ezt az erőművet, az kösse fel a gatyáját, nagyon erős processzort kíván néhány játék alatt.
A diagramokat érdemes úgy nézni, hogy pár százalékos eltérésre még simán lehet mondani, hogy ugyanazon a szinten van két kártya, hiszen ha pár játékot kicserélnénk a tesztben, ennyit változhatna is a kép. Ár/teljesítmény arányban a GTX970 és az R9 390 nagyon jól állnak ebben a mezőnyben, de ez annyira nem csoda, elvégre ahogy haladunk a csúcs felé, úgy szállnak el egyre jobban az árak. A neve alapján a GTX1080-nak a GTX980-ast kéne cserélnie a palettán, de ezt a mesét a piac és nem a Disney írta, úgyhogy nem túl meglepő módon, csak a presztízskártyának számító TITAN X drágább jelenleg a GTX1080-nál, ami viszont egyértelműen a legerősebb kártya a piacon. A Founder’s Edition ~260 ezer forintért kelleti magát minden gyártónál, az egyedi kártyák pedig valamivel olcsóbbak lesznek, de óriási különbségekre ne számítsunk. A belengetett 100 eurós különbség a maximum, amivel találkozhatunk, már most tudjuk, hogy lesznek olyan gyárilag túlhajtott kártyák egyedi hűtéssel, amik közel Founder’s Edition árban mennek majd.
Érdekes volt látni, hogy a GTX1080 a két generációval ezelőtti csúcskártyáknak több, mint a dupláját hozza sebességben, bár a GTX780-asok magas felbontáson már nagyon szűköltek a memóriában. A GTX980-hoz képest 60-70% gyorsulást ígért az nVidia, ezt ki is pipálhatjuk, tényleg megvan. Sokan kevesellték egyébként ezt a gyorsulást, a TITAN X-hez mérve a kártyát, de ne feledjük, hogy ez még „csak” a GP104-es GPU, az igazi nagyvad még várat magára, és ez nem azért kerül ennyibe, mert hihetetlenül drága a gyártása, hanem mert sajnos nincs indok olcsóbban adni. Egy ideig valószínűleg nem is lesz, mert a jelenlegi információk szerint az AMD a középkategóriát célozza meg első újgenerációs kártyáival, így azok nem veszélyesek a GTX1080-ra. Akik viszont nVidia fronton gondolkoznak és szándékukban áll előbb-utóbb felszállni a VR vonatra, mindenképp egy Pascalos kártya felé kacsintgassanak. Két héten belül itt van a GTX1070, ami már jóval emészthetőbb árú lesz, és a pletykák szerint jön majd egy GTX1060-as is, valószínűleg a mostani slágertermék, a GTX970 cserélésére. Annál viszont kérdéses, hogy megmarad-e a 8GB memória, márpedig nagyon úgy néz ki, hogy a jövőben szükség lesz rá, ha maximalisták vagyunk. Mióta a konzolok nem szűkölködnek a memóriában, a PC-s játékok is több szeretetet kapnak, sőt, néhány játék már túl is lő a célon a textúrák méretével. Vége van már azoknak az időknek, hogy 2GB-nak mindenre elégnek kell lennie.
Új hozzászólás írásához előbb jelentkezz be!

Eddigi hozzászólások

145. gery84
2016.05.30. 08:26
Elég magasra tette a lécet az nvidia!

Jó teszt!
 
Válasz írásához előbb jelentkezz be!
144. ejcy
2016.05.30. 08:42
Na ezt nevezem fejlődésnek, nem az eddigi 10-15% amiket az elmúlt évben a gyártók produkáltak!

A fogyasztás érdekes
 
Válasz írásához előbb jelentkezz be!
143. Phantomstr...
2016.05.30. 08:54
Na, ThePoweR, gyári tuningos 980 Ti közel van ehhez? Ja, hogyne 3DMark-ban, aminek köze nincs a valósághoz, vagy atom CPU limit mellett 1080p-ben, ami megint nem reprezentálja a kártyák erejét.
 
Válasz írásához előbb jelentkezz be!
142. atix2
2016.05.30. 08:56
Szép teljesítmény ugrás, lesz mit ledolgozni az AMD-nek, főleg ha megjön még ebből a Ti változat. De azért az is szép, ahogy megindulnak DX12 alatt a Radeonok. Bár azért látszik az extra fogyasztással kompenzált teljesítményhiány. Na de valamivel versenyképesnek kell maradni.
Én már csak bízakodok, hogy képesek lesznek fenntartani a piaci versenyt, mert így el fognak szállni az árak(és ez már egy ideje érződik). Pláne mikor megláttam tegnap a Broadwell-E processzorok árait az Intelnél.
 
Válasz írásához előbb jelentkezz be!
141. gery84 atix2
2016.05.30. 09:12
A Ti verzió jövőre jön. Megvárja az nvidia hogy sokan bevásároljanak a 1080-ból, és jövőre tudjanak cserélni a 1080ti-re.

Eddigi tapasztalat azt mutatja hogy akinek van pénze 1080-ast venni az jövőre a 1080ti-t is megveszi!
 
Válasz írásához előbb jelentkezz be!
140. Raszputyin gery8...
2016.05.30. 09:35
Inkább azt várja meg, mit lép az AMD. A 980Ti is szerintem a Fury-ra jött ki válaszul, nem is rosszul.
 
Válasz írásához előbb jelentkezz be!
139. CyberPunk6...
2016.05.30. 09:36
Sajnálatos a tesztben a tesztkonfig gyengesége.
A csúcsok csúcsának teszteléséhez azért dukálna egy komolyabb i7 ...
 
Válasz írásához előbb jelentkezz be!
138. Raszputyin atix2
2016.05.30. 09:43
Nem indulnak meg azok sehova. Ha megnézed, valami nagyon visszafogja a teljesítményt a DX12-ben. Egyszerűen beáll az egész grafikon egy limithez. CPU limites dolgoknál szoktt ilyen grafikon lenni, amikor a kártya egyszerűen nem tud 100%-ot menni. Persze itt inkább valami csoda DX12 feature lehet a ludas.
 
Válasz írásához előbb jelentkezz be!
137. ThePoweR Phant...
2016.05.30. 09:59
Mert? Itt egy gyári tuningos 980Ti-t használnak?

https://www.youtube.com/watch?v=eMr7grvBljk

Parancsolj. Néha meglehetősen közel van a 1080hoz. Egyébként is csak a firestrike-ot vettem alapul.
 
Válasz írásához előbb jelentkezz be!
136. BReal
2016.05.30. 10:14
Csodálatos ez a 1080-as teljesítmény, viszont a pozicionálást nem értem. Az egyértelműen látszik, hogy kompromisszummentesen nem tudja futtatni a mai játékokat 4k-ban (illetve az olyan szépséget, mint a Crysis 3; nyilván most 50-60 fps-re gondolok, de szerintem egy negyed milliós kártya tulajdonosa ezt el is vár(hat)ja), 1080p-re egyszerűen pénzkidobás, így marad az 1440p. Kíváncsi lennék, a játékosok között is milyen arányt képviselhet egy ilyen monitor (Steam felmérés alapján 1,51%). Szóval ha valaki ilyenbe fektet be, annak ajánlott egy 1440p monitorra váltás is, vagy egy SLI rendszer egy 4k monitorral.

ui: A CPU gyengesége azért pár játék tesztnél 4k-ban látszik.
 
Válasz írásához előbb jelentkezz be!
135. Asagrim BReal
2016.05.30. 10:22
1440p-re az 1070 való.

https://www.youtube.com/watch?v=rkiZdSBux9E
 
Válasz írásához előbb jelentkezz be!
134. BReal Asagr...
2016.05.30. 10:31
Igen, nem írtam le, de a tegnap a 1080-nál linkelt 1070 eredményekből kiderült, hogy sok minden nem indokolja a 1080 vételét a 1070-nel szemben, ha nincs 4k-s rendszered.
 
Válasz írásához előbb jelentkezz be!
133. Raszputyin BReal
2016.05.30. 10:33
Ez sajnos a játékok hibája elsősorban.

A negyedmillás kártya tulajok pontosan azt kapják, amire vártak. Nincsenek mesterségesen felfokozott, irreális elvásáraik.
 
Válasz írásához előbb jelentkezz be!
132. Buky87 BReal
2016.05.30. 10:35
Nem feltétlenül kell monitort cserélni. Én a fullhd-s monitoron 1440-ben játszok már amit kitud hajtani 270x. De a virtuális felbontáson engedi feljebb tenni és nem is torzul ott még a kép.
 
Válasz írásához előbb jelentkezz be!
131. Meteoreso
2016.05.30. 10:45
A teszthez Gratulálok mert alapos, az hogy nem I7ten van tesztelve mint írjátok csak picit baj inkább úgy mondanám ott is megnéztük volna de egy átlag Magyarnak nincs Combos I7-e ezért jobban tükrözi a valóságot a teszt.
Ha a 980-assal nézzük párhuzamba akkor a teljesítmény nagyon jó sőt kiváló. NV ebben csak azt trükközte hogy feljebb csúsztatta eggyel a kategóriákat. Ez olyan mintha a nextgen 2070-es hozná a 1080 teljesítményét az 1080 árában, és azt mondanánk rá hú de erős...
Tehát a teljesítményekkel nincs gond, az árakkal van.
DX12: Jelenlegi tesztek alapján azt lehet mondani az 1080 nem lassul 12 alatt de nem is gyorsul.. és maradt a Tier 2 bekötés What ??? (CPU teljesítményt von el )
Egyetértek a cikk írójával a kardinális kérdés az hogy a Total War: Warhammer DX12 tesztjében hogy fognak teljesíteni a kártyák Laránál némi furcsaságok láthatóak.
Lehet már benne 12 alatt tesztelni de hivatalosan még csak a 11 része jött ki, gondolom itt mindenki erősen gyúr a Driverekre, a Battlefieldel együtt ezek meghatározó mérőszámok lesznek az elkövetkezendő időkre.
A kártya bepozicionálása sajnos nem a legjobb, de erről nem ő tehet.
4k ra még kevés. Ez 4k TVken nagyon zavaró met ott csak UHD jön natívan az 1440 már elég rosszul skálázódik át, persze aki tud kompromisszumot kötni és kikapcsol egy két effektet annak jó.

A cikk nem hallgatta el hogy az erősebb teljesítményt hogy érte el ezért respect neki !
 
Válasz írásához előbb jelentkezz be!
130. Asagrim Buky8...
2016.05.30. 10:45
Igen, ez is egy célterület 1080-hoz, downsampling+AA gyönyörű eredményeket hoz.

Meteoreso

Én is kifejezetten örülök, hogy nem i7 van alatta, a legtöbben i5-öt vesznek játékra.
 
Válasz írásához előbb jelentkezz be!
129. Xeper Buky8...
2016.05.30. 10:50
Szebb nem lesz, de legalább rosszabbul fut, grat.

Egyébként aki 260-at kiad évente egy VGA-ra, annak simán van már 4K monitora (ha szeretné...), olcsóbbra jön ki simán
 
Válasz írásához előbb jelentkezz be!
128. Asagrim Xeper
2016.05.30. 10:58
"Szebb nem lesz, de legalább rosszabbul fut, grat."

https://youtu.be/hTszNDyuAhg?t=93
 
Válasz írásához előbb jelentkezz be!
127. CyberPunk6... Meteo...
2016.05.30. 10:59
Meteoreso és Asagrim

Egy közepes kártya tesztjében még oké, mert az vesznek sokan, de ez most az aktuális csúcskártya ami a legdrágább is.

Ráadásul ez egy kártya tesztje, nem egy konfigé. De remek, hogy meg tudod nézni, hogy egy i5 + 970 kombináció, amit a legtöbben vesznek milyen, csak éppen ez nem ennek a tesztje.
 
Válasz írásához előbb jelentkezz be!
126. BReal
2016.05.30. 11:05
Ezt mondjuk én se értem. Az egy dolog, hogy a legtöbben i5-öt vesznek, de a legtöbben nem is 1080-at fognak venni egy i5-höz. 4k-hoz pedig igenis kell egy i7, hogy a maximális értékeket kipréseld.
 
Válasz írásához előbb jelentkezz be!
125. Asagrim Cyber...
2016.05.30. 11:06
"Ráadásul ez egy kártya tesztje, nem egy konfigé."

Ezért rühellem a legtöbb tesztet, mert köze nincs a valósághoz. A valóság az, hogy játékra sokkal többen vesznek i5-öt, mint i7-et, attól teljesen függetlenül, hogy milyen kártya megy mellé a gépbe.

Nem érdekel mire képes a kártya, arra vagyok kíváncsi, hogy mire képes a kártya egy otthoni gépben.
 
Válasz írásához előbb jelentkezz be!
124. Terror
2016.05.30. 11:10
Egy i5-val ugyanúgy nincs cpu-limit, mint egy i7-nel, szóval tényleg számít? Nagyon kevés motor van, amelyik szignifikáns különbséget mutat HT mellett.

Itt a tesztben talán a Hitman az egyetlen, amelyik CPU-limitet fogott, de az is csak 1080p-ben, afölött már látszott a különbség.
 
Válasz írásához előbb jelentkezz be!
123. CyberPunk6... Terro...
2016.05.30. 11:16
Nem tudhatod, hogy az 1080-as kártya hol kapott cpu limitet és hol nem.
Legfeljebb azt láthatod, hogy a többi nem érte el.

Asagrim

Azért lehet belőle következtetni, arra meg hogy melyik cpu milyen kártyát hajt ki, pedig vannak külön tesztek.
 
Válasz írásához előbb jelentkezz be!
122. Asagrim Cyber...
2016.05.30. 11:19
Jó, akkor te nézd a millió másik teszt egyikét, ahol i7-et raktak alá, nekünk proliknak meg hagyd meg normális, reprezentatív, real-world tesztként ezt az egyet. Köszi!
 
Válasz írásához előbb jelentkezz be!
121. Sr4c
2016.05.30. 11:22
btw: mobil változatokat mikorra várjuk? Várjak-e a laptop vásárlással még 1-2 hónapot?
 
Válasz írásához előbb jelentkezz be!
120. Terror Cyber...
2016.05.30. 11:28
Ez végül is igaz, viszont a lényegen nem változtat. i5 4.4 GHz-en, ennél egy i7 sem tud többet. 4K-ban holtbiztos a VGA-limit, szóval ha a többi eredménynek nem is hiszel, ez jó kiindulópont.
 
Válasz írásához előbb jelentkezz be!
119. BReal Terro...
2016.05.30. 11:28
Az a baj, hogy sok helyen nincs leírva a részletes beállítás (pl. Linusnál is Crysisban FXAA élsimítás volt, itt SMAA 4x), de pl. Itt a The Division tesztnél látszik, hogy FHD és 1440p-ben ott is és itt is közeliek az eredmények (FHD 95-92, 1440p 69-67), addig 4k-ban már jelentős különbség van (47-37). És ez mi másnak köszönhető, mint a CPU-nak?
 
Válasz írásához előbb jelentkezz be!
118. Raszputyin Asagr...
2016.05.30. 11:32
Viszont olyan szpmontból lehet értelme, hogy segít eldönteni egy i5 -> i7 cserét, vagyis, hogy mennyivel jobban hajtja ki (ha jobban hajtja ki) egy i7.

Illetve, hogy mennyire lesz a kártya üresjáratban egy 15 alatt.

Nem a tesztet fikázom, az teljesen jó, és aki akarja az valóban megnézi majd a direkt CPU variánsos teszteket máshol.
 
Válasz írásához előbb jelentkezz be!
117. Asagrim BReal
2016.05.30. 11:33
Nem. Alacsonyabb felbontáson nagyobb a processzorterhelés.
 
Válasz írásához előbb jelentkezz be!
116. Asagrim Raszp...
2016.05.30. 11:33
Ahhoz, hogy lást mennyivel jobban szolgálja ki egy i7 ezt a kártyát, látnod kell egy i5-ös tesztet is. Ez az.
 
Válasz írásához előbb jelentkezz be!
115. BReal Asagr...
2016.05.30. 11:34
Az lehet, csak ugyanolyan VGA-val miért van a 3, illetve a 2 fps helyett 10 fps különbség a legmagasabb felbontáson?
 
Válasz írásához előbb jelentkezz be!
114. Asagrim BReal
2016.05.30. 11:36
medzsik, mittomén
 
Válasz írásához előbb jelentkezz be!
113. ThePoweR Asagr...
2016.05.30. 11:36
Igaza van. A kártya tesztje nem a konfigé. Mindent meg kell tenni annak érdekében hogy véletlen se legyen bottleneck. A realworld tesztnek meg mi értelme. Mindegyik kártya annyit fog lassulni amennyivel gyengébb a CPU.
 
Válasz írásához előbb jelentkezz be!
112. gery84 Raszp...
2016.05.30. 11:37
Titan X már a fury előtt is kint volt.






Néha a 780ti 4k-ban megbokrosodik, mert a 780-as beelőzi .
 
Válasz írásához előbb jelentkezz be!
111. Asagrim ThePo...
2016.05.30. 11:47
A kontextusból kirángatott tesztet nem tesztnek, hanem benchmarknak hívják. Ez egy teszt lett.
 
Válasz írásához előbb jelentkezz be!
110. Xeper Asagr...
2016.05.30. 12:30
És szebb lesz, mint a natív nagy felbontású kép? Tudtommal nem.
 
Válasz írásához előbb jelentkezz be!
109. Asagrim Xeper
2016.05.30. 12:35
Nézz már rá arra a szerencsétlen állóképre.
 
Válasz írásához előbb jelentkezz be!
108. CyberPunk6... Xeper
2016.05.30. 12:39
Az alap logika azt diktálná, hogy nem lesz szebb, mert ugyanoda skálázza vissza.

A valóság azonban más, mert a sok képmódosító eljárás egészen más eredményt ad a nagy képen, mint a kisebben, ezért visszaskálázva sem ugyanazt kapod.
 
Válasz írásához előbb jelentkezz be!
107. tibaimp
2016.05.30. 13:15
Ennyi, ehhez nincs is mit hozzá fűzni. Az nv jött, gyártott és győzött....

Lehet váltanom kellene nv-re ... , megvárom még a polarist, aztán meglátjuk...
 
Válasz írásához előbb jelentkezz be!
106. xcomman tibai...
2016.05.30. 13:25
Erősebb nem lesz az 1080-nál az már biztos, de ha 20%-ot dobnak rajta a 3-hoz képest és odaadják 130-ért (ennyiért már van sapphire) akkor versenyképes lehet szerintem az adott kategóriában. Meglássuk, lassan indul a computex. (vagy már elindult?)
 
Válasz írásához előbb jelentkezz be!
105. j4ni Cyber...
2016.05.30. 13:27
De bizony, szembeötlően szebb lesz a magasabb felbontáson renderelt és 1080p-re leskálázott, mint az eleve 1080p-n renderelt kép.

Játéka (illetve a játékban elérhető AA opciók) válogatják, hogy mekkora a minőségugrás, de alapvetően elég jól észrevehető a dolog, nem kell hozzá nagyító.

Én a SC2-t futtatom magas felbontásban és skálázom le FHD-re. Nagyon látványos a különbség.

Értelemszerűen nem tömörített YT videón, hanem élőben jön ki a minőségi különbség.
 
Válasz írásához előbb jelentkezz be!
104. ChoSimba tibai...
2016.05.30. 13:37
Ha gtx1080-as kategóriájú kártyában gondolkozol, akkor nincs mire várni.
A Polaris alulról sem fogja szagolni ezt a sebességet, a 480 nagyjából a Fury körül lesz, csak fele fogyasztással.
A Vega lesz ebben a ligában, de az még szó szerint a jövő zenéje.
 
Válasz írásához előbb jelentkezz be!
103. CyberPunk6... j4ni
2016.05.30. 13:44
Ezt most miért nekem írod, amikor én is ezt írtam?
 
Válasz írásához előbb jelentkezz be!
102. Raszputyin Xeper
2016.05.30. 13:58
Pl. a Fallout 4-ben a PA műszereinek mutatójára nem tesz élsimítást a driver, elég ronda recések maradnak. Overscale esetén pedig azok is gyönyürűek.

NV Experience ha jól rémlik a Grid-nél eleve ezt az optimalizációt állítja be.
 
Válasz írásához előbb jelentkezz be!
101. j4ni Cyber...
2016.05.30. 14:14
azért mert rossz helyre kattintottam
 
Válasz írásához előbb jelentkezz be!
100. Xeper Asagr...
2016.05.30. 14:15
De az nem nagy felbontású, értsd már meg! Pont arról szól az egész, hogy a játékban a FHD felbontású monitorra egy nagyobb felbontású képet skáláz le (ezért életlen a sima FHD), és lesz egy nagyon szép, de nem hatékony AA megoldás, de az eredeti nagy felbontású (4K, 1440p... ) textúra szintjét csak közelíti. Talán ha nincs rendes AA implemantáció a játékban, akkor lesz jobb a downsample, mert ez egy forced AA.
 
Válasz írásához előbb jelentkezz be!
99. tibaimp ChoSi...
2016.05.30. 14:32
Ez így van, viszont ahogy xcomman kolléga írta, (nem tudom hogy alakul a munkahelyem) egy közép kategóriás is most jól jönne, és az ár most fontos. 260 most nekem nagyon sok...
 
Válasz írásához előbb jelentkezz be!
98. Raszputyin Xeper
2016.05.30. 15:06
Szerintem gyors és hatékony a downsample. az AA hiányzó pixeleket számolgat, a downsample pedig csak átlagolja a már meglévőket.
 
Válasz írásához előbb jelentkezz be!
97. Asagrim Xeper
2016.05.30. 15:10
"Talán ha nincs rendes AA implemantáció a játékban, akkor lesz jobb a downsample ..."

Nem, nem csak akkor. Olvasd el #44-et.
 
Válasz írásához előbb jelentkezz be!
96. ChoSimba tibai...
2016.05.30. 15:30
Na de ha nincs pénz, akkor miről beszélünk ?
 
Válasz írásához előbb jelentkezz be!
95. kunti
2016.05.30. 15:40
"FurMark alatt persze már nagyon jól viselkedik a GTX1080, de ez főleg annak köszönhető, hogy felismeri a terhelést és… máris nem annyira fickós, ha a boostolgatásról van szó."

Upsz... ennek olyan Volkswagen csalós dízel szaga van... :-D

Amúgy nagyon impresszív kártya lett, szép munka, és jó a teszt.
 
Válasz írásához előbb jelentkezz be!
94. tibaimp ChoSi...
2016.05.30. 16:07
Na hát ez az...
 
Válasz írásához előbb jelentkezz be!
93. gaborw
2016.05.30. 16:10
Azért nem semmi, az R9 390X hozza FullHD-n a Gtx 980 szintet, FullHD felett pedig veri is!
 
Válasz írásához előbb jelentkezz be!
92. Xeper Raszp...
2016.05.30. 16:16
Ez nem vélemény kérdése. Ez egy brute force AA, minden más megoldás ennél erőforráshatékonyabb by definition. A minőségbeli romlás a teljesítmény növekedésével van arányban, de bizonyos szintig ez (általában, nem minden esetben) a kompromisszum nem fájó.

Asagrim: Ebbe belefér: "Talán ha nincs rendes AA implemantáció a játékban, akkor lesz jobb a downsample, mert ez egy forced AA." Lényegében egy alacsony felbontású textúra élsimítása nincs megoldva...
 
Válasz írásához előbb jelentkezz be!
91. ThePoweR gabor...
2016.05.30. 16:35
Mért? Egy árban vannak.
 
Válasz írásához előbb jelentkezz be!
90. BReal ThePo...
2016.05.30. 18:21
Inkább azt kellett volna kiemelnie, hogy a 390 hozza a 980 teljesítményét. Amúgy mellesleg, jelenleg egy 10000-essel olcsóbb a 390x.
 
Válasz írásához előbb jelentkezz be!
89. BeZol
2016.05.30. 18:42
Én örülök, hogy i5-össel teszteltétek. A tendenciák alapján 3-4 év múlva az 1080as teljesítményét fogja hozni egy középkategóriás 100ezer Ft alatti videókártya. (2012 március gtx 680 150ezres kezdőárral = 2015 január gtx 960 70ezer Ft-os kezdőárral)

A directX 12 jobban kihasználja a procit. Itt egy 3dmark teszt erre, ami egyelőre 6 mag fölött nem mutat különbséget.
Ezen a képen pedig látható, hogy mennyit segít a sokmagos de gyenge amd procin a directX 12.

A lényeg, hogy aki most i5-öst vesz, az 3-4 év múlva ha középkategóriánál erősebb vga-ra vált, akkor procilimit lesz, tehát aki mondjuk 6 évre tervez egy gépet, annak i7es kell, és akkor már K verzió, az a tuti. Na én pontosan ezért várom a Zen-t decemberben, nekem nem szúrják ki a szememet a túlárazott 4magos vackukkal, a 6magos még beleférne, de a Zen miatt lesz árkavalkád, úgyhogy várok.
 
Válasz írásához előbb jelentkezz be!
88. Renhoek
2016.05.30. 19:11
+1 az i5-re... nagyon sokaknak van még (nem K verzió)... azért kíváncsi lettem volna, milyen alapórajellel
 
Válasz írásához előbb jelentkezz be!
87. firebird18...
2016.05.30. 19:51
Én csak 1080p ben játszok, hülyeségnek tartom a 4k-t még legalább 4-5 évig. Várom a gtx 1080ti -t amit egy i7 6700k 5Ghz (oc) procival hajtok meg. De azért a 1080p re is kell az erős kártya mert gtx980 -nal is sok olyan van ami csak 50-60 fps-el fut és ezek nem átlag fps-ek amiket sajnos megérezni főlleg mikor leesik 38-40 re egy erősebb efektnél. Igaz totál maxon beállítva. De ahogy jönnek az új játékok azok a full HD-re is erősebb kártyákat követelnek. Ezért tartom baromságnak hogy mindenki azt irogassa hogy gtx970 vagy 1070 bőven elég full hd-re mert ez nem igaz.
 
Válasz írásához előbb jelentkezz be!
86. sirdani566
2016.05.30. 20:31
Igazad van - bár az 1070 azért tényleg elég lesz hosszan full HD-ra, mert elvileg 980+... De a GTX 970 már bőven kevés full HD-ra. Nekem 24 colos monitoron 75 centiről nézve már kell valamilyen vonalsimiás 1080p-ben, illetve a max textúrák és effektek már most sem képesek normálisan működni a GTX 960-asomon. A 970 meg csak 30-35%-al erősebb, ami nem sokat dob... Utóbbi időkben játékok, amik nem mennek enyhén visszafogott (tehát csak fxaa, meg nem ultra, hanem high beállításokkal, alacsonyabb felbontású árnyékokkal) beállításokkal sem fixen 60FPS-el (40 alá beesve) GTX 970-en: Rainbow Six Siege, Hitman, Witcher 3, Just Cause 3, Ashes of Singularity, AC, Total War... És most csak ennyi, mert több nem ugrott be. Úgy pedig, hogy ha mindent kimaxolsz, akkor szerintem egyetlen 2015-ös játék sem megy már 60-al.
 
Válasz írásához előbb jelentkezz be!
85. fofoka Asagr...
2016.05.30. 20:41
Persze kérdés, mennyire real world teszt egy i5+GTX1080? Egy ilyen csúcskártya mellé csak futja egy i7-re, vagy Xeon-ra. Vagy az lenne a real world scenario, hogy valaki az összekuporgatott pénzét vga-ra költi, oszt szevasz? Ez komoly?
 
Válasz írásához előbb jelentkezz be!
84. elde55 fireb...
2016.05.30. 20:44
Szerintem egyáltalán nem hülyeség a 4k. Far Cry 4-ben a bőrkesztyű "erezete" egészen élethű + az élsimítás sem szükségszerű, legalábbis nem annyira számít.

Egyébként tapasztalatból sem egy SLI 970 sem 980ti nem elég már a mostani játékokhoz, ezért is adtam el (no meg még pont időben). Részemről nagyon várom a 1080ti-t, de a mostani árazás teljesen röhejes, köszönjük AMD... egy évet meg csak kihúzok játék nélkül, nem fogom szórni a pénzt egy 50%-al túlárazott kártyára
 
Válasz írásához előbb jelentkezz be!
83. TheRealTsL fofok...
2016.05.30. 20:48
Én erre azt tudom kérdezni, hogy ez komolyan meglepő?
VGA-nál van érezhető különbség, processzornál játékok alatt gyakorlatilag nincs. Tudatos vásárlás. Gyönyörű példája a rengeteg B75/85/150/stb chipsetes "gamer" alaplap is. Viszik mint a cukrot... és nem színtiszta igénytelenségből.
 
Válasz írásához előbb jelentkezz be!
82. R.Soma elde5...
2016.05.30. 21:23
Tapasztalatból mondom, hogy a 970 SLI rohadtul elég a 4k-hoz, ha az ember nem agyatlanul állítja be a grafikát. Határeset, éppen elég, OC-val, de elég. De egykártyás felállásban a 1080 is hurka a 4k-hoz, ha stabil vsync-es 60 fps a cél. És akkor nem 120 meg 144, ugye.
 
Válasz írásához előbb jelentkezz be!
81. BeZol elde5...
2016.05.30. 21:55
Ha igazak a pletykák, akkor ősszel már jöhet a csúcs amd kártya, míg az 1080ti csak januárban. De ez csak pletyka.

Itt az a probléma, hogy a gtx 970es is csak azután lett bestseller, hogy lement az ára 100ezer Ft-ra (így pedig ár/teljesítményben sokkal-sokkal jobb volt, mint az akkor 170-180 körül mozgó 980asok). Most viszont 260as indulóár lesz az 1080asra, tehát az a 100ezer Ft-os gtx 970es ár az 1070es esetén 145ezer Ft lenne, és az a probléma, hogy ez még mindig sok. Veszek egy i7es procit 100ért ami elketyeg 6+ évig, de a 150ezres videókártyát 3 év után kb. kukázhatom, na ez itt a baj, ami miatt inkább kis megkötések árán ugyan, de a jóval nagyobb többség nem fog 100ezer Ft-nál többet költeni vga-ra. Tény, hogy nincs konkurencia, vérpistikéket le lehet fejni, de aki értelmes és nem szórja a pénzt, az vagy most nyáron polaris-t vesz, vagy vár októberig az 1060asra.

Én személy szerint nyáron simán vennék majd 60-100ezer Ft közé érkező polarist, ami 970-980, és a 980-980ti közé érkezne telljesítményben, és bőven boldog lennék vele 2 évig.
[LINK]

Ez a megfizethető kategória, és pl. egy 960as/380as-ról váltásra tökéletes. Aki pedig nvidia fan, az várjon októberig, de ez az 1070/1080 árazás beteges.

Ha a directX 12 hozza a hozzáfűzött reményeket, akkor az sli/crossfire nem lesz laggos/bugos, és akkor a kicsit okosabb vérpistike is vesz majd inkább 2 olcsóbb kártyát, de ez még elég képlékeny, erre még én sem fogadnék.
 
Válasz írásához előbb jelentkezz be!
80. ThePoweR BReal
2016.05.30. 22:38
Hol?
 
Válasz írásához előbb jelentkezz be!
79. BReal ThePo...
2016.05.30. 22:41
Árkeresős oldalon beírtam a 390x-et, és a 980-at. Ár szerint rendeztem őket, és ennyi. (Amúgy a 390x egy ASUS volt, 130-131ért, a 980 talán Gainward, 139-ért)
 
Válasz írásához előbb jelentkezz be!
78. BReal fireb...
2016.05.30. 22:43
FHD-re 1080-at? Inkább vegyél 1070-et, a különbözetet pedig add ide nekem. Ha szerinted a 150-160 fps-ek kellenek FHD-ra, akkor hajrá. Ajánlom az SLI-t, hogy legyen 300!
R.Soma: Múltkor valamelyik nagyon művelt ember írta, hogy 4k-ra ő fel szokta nyomni az élsimítást is. Az ilyenekhez nehéz hozzászólni érdemben. Amúgy ha hozzátetted a 970 SLI-hez, hogy kompromisszumokkal elég a 4k-ra, akkor azért a 1080-hoz is írd le, mert régebbi játékokban jobb a 980 SLI, de szerintem egy 970 SLI rendszert tuti előz. Highon az új játékokat is viszi 60 fps-sel. Persze nyilván egy ilyen kártya tulaja nem akar a részletességből visszavenni.
 
Válasz írásához előbb jelentkezz be!
77. Resike
2016.05.30. 23:01
A problémát én abban látom hogy vagy veszek egy 1070-est és a következő generációban megint vehetek egyet, ha kompromisszummentesen akarok játszani. Vagy veszek egy 1080Ti-t és kihagyom a következő 1-2 generációt. Anyagilag sehogy se jössz ki jól. (1440p)
 
Válasz írásához előbb jelentkezz be!
76. BReal Resik...
2016.05.30. 23:08
A Rise of the Tomb Raiderben 1440p-ben 71 fps-t produkál, a The Divison 59-et. mindkettőnél minden kimaxolva. Ezeknél szerintem egy jó ideig nem lesz gépigényesebb játék (max hasonló). Ha meg később lesz, eladod használtan a 1070-et, a különbözetből meg 1080, 1080 Ti-t, vagy Vegat veszel.
 
Válasz írásához előbb jelentkezz be!
75. Resike BReal
2016.05.30. 23:10
Kivéve ha 144 fps lenne a cél, de legalább 120.
 
Válasz írásához előbb jelentkezz be!
2016.05.30. 23:12
"Ez nem vélemény kérdése. Ez egy brute force AA, minden más megoldás ennél erőforráshatékonyabb by definition."

Milyen definícióból?
 
Válasz írásához előbb jelentkezz be!
73. R.Soma BReal
2016.05.30. 23:40
Persze, játéka és szoftvere válogatja. De azért tegyük hozzá a kompromisszum szóhoz, hogy 4k-ban a kompromisszumos (mittomén, medium-high közötti) beállítás egy kiadós átlójú monitoron csilliószor különb élmény, mint egy agyonpumpált FHD, nincsenek egy bolygón. A részletezettségből nyilván nem szívesen veszünk vissza, én is mindig úgy próbálom beállítani (azokat a játékokat, amiknél hamar el tudom érni a hardver határait), hogy a lehető legnagyobb részletezettség jöjjön ki. Ehhez az első lépés, hogy leveszed az AA-t, mert egyrészt fölösleges, másrészt szétterheli a gpu-t. Aztán jöhetnek a különböző idióta sallangok, amiknek a hiányát csak akkor veszed észre, ha egy 10x-esre bezoomolt screenshotot nézel 20 centiről perceken keresztül (mittomén, w3-ban a hairworks, kicsit szebben lobog a haja, oké, még 4k-ban is teljesen elhanyagolható az egész), satöbbi. A textúrákat, fényeket, árnyékokat, látótávolságot a lehető legmagasabban tartom, és kész is, ilyenkor tartok ott, hogy számottevően nem csökkent a játékélmény, viszont nagyon sok fps-sel többön pörög a számláló, mint a worst case scenario-t előhozó különböző online teszteken. Ezt is ésszel kell csinálni, és akkor ki lehet aknázni jól. Az mindenesetre most is alapszabály, hogy 4k-hoz két kártya kell.
 
Válasz írásához előbb jelentkezz be!
72. R.Soma Resik...
2016.05.30. 23:41
Ha hamar cserélsz hardvert, meglepően jól ki tudsz jönni árban, főleg ha tudsz számlát kérni. Meg hát ez mindig így volt.
 
Válasz írásához előbb jelentkezz be!
71. fofoka TheRe...
2016.05.31. 00:49
Világos, hogy játékok vga..de nem érzed a kontrasztot? Egyszerűen nem életszerű az, amit írsz. Egy nagyon drága kártyáról beszélünk. Van pénzed rá, megveszed, a többire meg nem költesz? Vagy a másik: nincs pénzed rá és megveszed (mondjuk kölcsön kérsz) és akkor nincs pénzed jó procira sem. Hát, valahogy egyik forgatókönyvet sem látom magam előtt. A legszebb az egészben meg az -amire eredetileg reagáltam-, hogy a magyar piacon az ilyen i5-ös olcsójánosok közt mennyire lesz kelendő egy 1080-as. Nem két év múlva, használtan feleannyiért, hanem a következő két hónapban.
 
Válasz írásához előbb jelentkezz be!
70. fofoka Resik...
2016.05.31. 00:51
Én ebben nem látok problémát. Ha kompromisszummentesen akarsz játszani, az pénzbe kerül. Nagyon egyszerű.
 
Válasz írásához előbb jelentkezz be!
69. dbori
2016.05.31. 00:55
Jó a teszt nagyon, de azt nem értem, hogy pár sli rendszer miért nincs benne mondjuk. 980 sli-hez képest pl. Meg lehetett volna egy 1080 sli. Tudom, hogy nagyon kevesen akarnak ilyet venni, de azért van egy-két őrült, mint én...
 
Válasz írásához előbb jelentkezz be!
68. BReal Resik...
2016.05.31. 00:57
Tudtommal erre megoldás a G-Sync (Freesync), de nem értem, hogy a kompetitív fps-eken kívül miért is kéne ekkora fps-t célozni. Azt meg tudjuk, hogy aki kompetitív fps-ekkel játszik, az nem riad meg attól, ha a részletességből kell visszavenni (emlékszel gondolom a Q3 Arena butított grafikáira). Persze egyszer majd a marketing biztos rászáll a 60 fps és 4k után a 120-144 fps-re is. Aki akarja, bekajálja.
dbori: A 980 SLI a csak DX11-es játékok nagy részében gyorsabb, az újabbaknál is (Fallout 4-ben gyorsabb, The Divisionnél egál, Far Cry Primalban viszont a 1080 nyer), DX12-t is támogató játékokban a 1080 gyorsabb természetesen, Doom-ban is (az is spécinek számít).
 
Válasz írásához előbb jelentkezz be!
67. cheatergs
2016.05.31. 07:21
Mivel az NV visszanyúlt a Fermiig, nem inkább "Vissza a múltba" kéne legyen a cím?
 
Válasz írásához előbb jelentkezz be!
66. Meteoreso cheat...
2016.05.31. 08:46
De olyan filmcím nincs
Computexen már kint van az Asus ROG Strix GeForce GTX 1080
1784/1936 MHz-es mag/boost órajele
Ez már majdnem jó csak tudja is majd tartani.Na meg az ára a kérdéses főleg.
 
Válasz írásához előbb jelentkezz be!
65. Xeper ny
2016.05.31. 10:59
Brute force.
 
Válasz írásához előbb jelentkezz be!
64. Fzoltan
2016.05.31. 11:57
Engem meg fogtok kövezni, de csalódtam.
Abban a néhány esetben, amikor a kártya nem CPU limites, akkor is nagyon ritkán hozza a shaderszámból és a megemelt órajelből adódó elvárható FPS többletet a kártya a 980Ti-hez képest, míg mondjuk a 980Ti óriásit ugrott a 780Ti-hez képest. Magyarul IPC szempontjából nem fejlődött semmit a kártya. Persze lehet, hogy ez a technológiaváltás miatt van, nem tudom. Szerintem most itt van a lehetősége annak, hogy az AMD alakítson egy jót, már csak ki kell használni a helyzetet.
 
Válasz írásához előbb jelentkezz be!
63. Fzoltan fofok...
2016.05.31. 12:06
Az az i5 4,4GHz-en a mai napig jó CPU, a több logikai szál sok esetben nem ad semmi előnyt.
 
Válasz írásához előbb jelentkezz be!
62. ChoSimba Fzolt...
2016.05.31. 12:51
Őőőő, 10%-al kevesebb shader, 10%-al kevesebb TMU és 30%-al kevesebb ROP, csak az órajel lett magasabb 60%-al.
A 780-980 váltásnál a shaderszám kb. maradt, de a ROPokat megduplázták, meg a memóriát is, ami talán a 780ti legnagyobb problémája volt.
Szerintem a 1080 teljesítményileg remek kártya, egyedül az áron bukik meg. Készítettek egy 980ti+20-30% kártyát, de ugyanannyiért vagy drágábban adják ??? Ez így inkább csak egy DX12-re upgradelt 980ti+.
 
Válasz írásához előbb jelentkezz be!
61. Fzoltan ChoSi...
2016.05.31. 13:13
Én csak és kizárólag a sharderszámból és a frekvenciából indultam ki, rop/tmu-val minek számolni? Szó, mi szó, IPC alapján nem fejlődött a kártya, míg Maxwellre váltásnál óriási ugrás volt.
 
Válasz írásához előbb jelentkezz be!
60. firebird18... dbori
2016.05.31. 13:15
A 1080 sli re én is nagyon kíváncsi lennék mert én is szeretnék sli-t összerakni. De könyörgöm ne szutyok i5 -tel, teszteljék minimum egy 8 magos 4,5Ghz i7-el.
 
Válasz írásához előbb jelentkezz be!
59. Fzoltan fireb...
2016.05.31. 13:34
Az i7 is 4 magos.
 
Válasz írásához előbb jelentkezz be!
58. CyberPunk6... Fzolt...
2016.05.31. 13:52
Az 1151-es i7 igen, de a 2011-3 foglalatos az nem csak 4 magos.
 
Válasz írásához előbb jelentkezz be!
57. Raszputyin ChoSi...
2016.05.31. 14:02
A dinamyc load balancing miatt teljesen okésak a számok, nem kell csak ezekből kiindulni.
 
Válasz írásához előbb jelentkezz be!
56. piter Fzolt...
2016.05.31. 15:12
780ti-t hasonlitod a 980ti-hoz.Aztan ezeket a 1080gtx -hez.Miert nem varod meg abbol is a ti-t es utana mondd.
 
Válasz írásához előbb jelentkezz be!
55. actival
2016.05.31. 15:39
Csak az a baj, hogy nem lehet kapni. Akartam egyet foglalni az Amazon oldalán. De pár nap alatt a szállítás 1-2 hétről felkúszott 1-2 hónapra.
 
Válasz írásához előbb jelentkezz be!
54. Fzoltan piter
2016.05.31. 15:49
Teljesen mindegy, lehetett volna akár 780 / 980 / 1080 is, ugyanaz a végeredmény.
 
Válasz írásához előbb jelentkezz be!
53. Fzoltan piter
2016.05.31. 15:58
Egy konkrét számítás, ebből a cikkből:
780 -- 980 -- 1080
csak shaderszámot és frekit figyelembe véve a különbség:
16% és 78%.
Játékokban 4K alatt mért különbségek átlaga:
51% és 75%.
Azaz a 980 a 780-hoz képest 16% "helyett" 51%-ot gyorsul, míg a 1080 a 980-hoz képest 78% "helyett" 75%-ot. Ez minden, csak IPC fejlődés nem. Főleg összehasonlítva a 980/780 ugráshoz képest. Ez helyben topogás.
De mondom, lehet, hogy az nV csak ennyit akart, elég volt nekik a csíkszélesség-csökkentés.
 
Válasz írásához előbb jelentkezz be!
52. Fzoltan Cyber...
2016.05.31. 16:01
Konkrétan 1 fajta 8 magos i7 létezik 2011-re. Azt meg a büdös életben nem fogod felhúzni 4,5 GHz-re.
És értelmes felbontás (értsd: nem fullhd) melyek azok a játékok, ahol kijön az i5/i7 különbség? Azt is figyelembe véve, hogy van, ahol az i7 gyengébben teljesít, mint az i5?
 
Válasz írásához előbb jelentkezz be!
51. BReal piter
2016.05.31. 16:12
Esetleg közben az árakat nem kéne nézni?
 
Válasz írásához előbb jelentkezz be!
50. fofoka Fzolt...
2016.05.31. 19:12
Meg a nagyobb cache sem.. Ja, de.
 
Válasz írásához előbb jelentkezz be!
49. CyberPunk6... Fzolt...
2016.05.31. 19:58
Én nem mondtam, hogy a 8 magossal kell tesztelni, azt csak ő mondta, én arra reagáltam, hogy van ilyen i7.

Az i7 teszteléssel meg az a helyzet, hogy több körülményt is figyelembe kell venni.

1, ma már több játék is van, ami intenzíven használja a cpu-t.
2, a több mag nem feltétlenül gyorsabb, van ahol a magonkénti teljesítmény számít és ott a kevesebb magos gyorsabb tud lenni, mert magasabb órajelen jár
3, van olyan játék, ami profitál a sok magból, ott a magonkénti alacsonyabb órajel ellenére is lehet összességében gyorsabb vele.
4, léteznek még mindig játékok, amik keményen gpu limitesek, de átlagban sokkal több cpu kell mint pár éve
5, jellemzően a 6 magos i7-et szokták az ilyen teszteknél 4GHz fölé húzni, így biztosan van elég mag is és van elég magonkénti teljesítmény is.


Itt egy példa:
(látható a min fps-en, hogy mennyire örül a két extra magnak a játék, vagy ha az nincs, akkor az átlag fps az i7 frekvenciaelőnyének + htnak)
Jah igen, 980Ti van a gépben ebben a tesztben



De találsz te is ilyeneket a neten.
Lesz olyan ahol gpu limit van, de nem mindenhol, és ez a kártya akkora előrelépés, hogy sok helyen lehet észrevétlen cpu limit a tesztben, mert a többi nem hajtja ki, de ez igen, ez a kártya egy szörnyeteg. Kb az sli teszteket kéne megnézni, hogy lássuk cpu vagy gpu limitezik. Ha lettek volna sli tesztek a cikkben, akkor talán látnánk, hogy mi a helyzet, mert akár egy i7 is lehet cpu limites, persze ott már joggal vetődik fel a kérdés, hogy mit raknál alá jobbat, mert a töb mag az alacsonyabb magonkénti frekvenciával is jár egyúttal (jellemzően) a tdp keret miatt)...
 
Válasz írásához előbb jelentkezz be!
48. Profeta051...
2016.05.31. 20:32
Most akkor a Core i5 6600k kevés az 1080 alá ? Kezdjek el pityeregni ? Ahogy kapható lesz normális 1080, megy a rendelés, viszont ha meghajtja ha nem, a 6600k marad Remek proci !
 
Válasz írásához előbb jelentkezz be!
47. Meteoreso
2016.05.31. 20:33
Emberek tudjátok e hogy a custom kártyák milyen árakon lesznek ?
Nagy levegő és azután nézd meg...
SOK SIKERT
 
Válasz írásához előbb jelentkezz be!
46. CyberPunk6... Profe...
2016.05.31. 20:39
Nyilván nem kevés, felesleges gúnyolódni.

Mivel mindkettő alkatrész felette van annak, amire a játékokat tervezik, ezért nyilván menni fog vele maxon megfelelő fps mellett, de lesz olyan ahol lehetne annál is több az fps.

Itt a téma inkább azért került elő, hogy a teszt megmutassa a valóságot.
Btw negyedmilliós kártya mellé azért az a 30k nem fér bele, hogy meglegyen egy 6700k?

Vagy csak az egész hozzászólás lényege, hogy neked van 660kd és még 1080-ra is telik? Mert akkor bocs, feleslegesen koptatom a billentyűzetet.
 
Válasz írásához előbb jelentkezz be!
45. Profeta051... Cyber...
2016.05.31. 20:59
Nem áll szándékomban gúnyolódni, csak olvasgattam a kommenteket és....Számomra sajnos nem fér bele az a +30ezer, hiszen a procira is sokat spóroltam, a kártyára meg azóta spórolok, mióta tudom hogy lesz Pascal. Nyilván ha annyi pénzem lenne, hogy nem számítana akkor 6700k, de sajnos ez nem így van. Szóval..vagy félre értettél, vagy hülyén fejeztem ki magam, vagy mind a 2
 
Válasz írásához előbb jelentkezz be!
44. xcomman Cyber...
2016.05.31. 21:07
Egy húzott i5 átlagban ugyanúgy megfelel mint egy alap órajeles i7. Ha minden magot használnának a játékok akkor jelentősebb lenne a különbség (vulkan, dx12 alatt ez lesz), de halkan megjegyzem, hogy minél több mag van egy prociban a HT annál kevésbé fog számítani. Régen 1 magnál jelentős volt a különbség, 4-6 mag fölött már nem dob annyit hozzá a teljesítményhez mint ahogy azt páran gondolják. Ezt lemértük 3d renderekkel.

Mind1, az én véleményem az, hogy nem hoz annyit a konyhára egy i7 egy gpu mellett, hogy feltétlenül be kelljen rá ruházni. Tartósabb, ez mondjuk tény és ha nincs nagy difi árban akkor végülis miért ne...

Onnantól kezdve van értelme az erősebb i7-nek, ha 2 gpu van bent a gépben legalább és akkor is főleg amiatt, mert több pci sáv van rajtuk. (Persze más előnye is van...)
 
Válasz írásához előbb jelentkezz be!
43. Qqtyin Meteo...
2016.05.31. 21:52
Megnéztem. És?
 
Válasz írásához előbb jelentkezz be!
42. Svindler Cyber...
2016.05.31. 22:02
De ha megnézed, itt az i7 előnye főleg a frekvencia előnyből származik, ami a tuning hatására eltűnik (nem húzhatóak magasabb órajelre az i7-esek, mint az i5-ösök, sőt... a 4790k néha a saját Turbójával is küzd), a min fps, meg majdnem ugyanott van.

A HT pedig borzasztóan kevés játékban számít valamit, van, ahol a CPU mag menedzsment miatt még ront is az eredményeken, ahogy Fzoltan írta. A belsős tesztjeink is ezt mutatták, ezért nem erőltettük egy i7-es beszerzését anno.

Azóta pedig az architektúrák clock-to-clock se fejlődtek sajnos sokat, de ettől még idén valószínűleg fejlesztünk egy frissebb platformra.

Visszatérve az eredeti témához, gamingre szerintem az esetek jelentős részében tényleg csak CF/SLI rendszernél kellenek a legjobb procik, egyébként kevés dolog indokolja, hogy most valaki egy 6700K feletti CPU-ba fektessen.
 
Válasz írásához előbb jelentkezz be!
41. Resike Meteo...
2016.06.01. 00:19
Még mindig olcsóbb mint a Fury X.
 
Válasz írásához előbb jelentkezz be!
40. Parano1d
2016.06.01. 14:16
Negyed annyi szó nem esik a kártyákról, mint a processzorról, komolyan mondom ez vicc
Nekem még az tűnt fel (túl azon, hogy brutális gyors az új kártya), hogy az AMD kártyák mennyit gyorsultak az új driverekkel.
Persze, most csomó új játék is van a tesztben, de eddig gtx980 simán jobbnak számított egy 390X nél, most pedig fordulni látszik a dolog, ugyanez gtx980ti vs furyx-nél, ahol eddig csak 4k-n volt képes utolérni Nvidia kártyát az AMD, most már sokszor alacsonyabb felbontáson is szorongatja.
 
Válasz írásához előbb jelentkezz be!
39. BReal Resik...
2016.06.01. 14:51
Én 190-ért találtam Fury X-et. Te találtál ennyiért 1080-at?
Parano1d: Azért már egy ideje a 390x hozza a 980 teljesítményét, amennyire emlékszem. De igen, driveren javítottak, az biztos.
 
Válasz írásához előbb jelentkezz be!
38. Resike BReal
2016.06.01. 15:42
Nyitóár 270k megvan?
 
Válasz írásához előbb jelentkezz be!
37. ChoSimba BReal
2016.06.01. 18:10
A 190e-es FuryX az 600 ájró. A 1080-as is annyiért jön, ha nem FE.
Ebből következik, hogy aki FuryX-et akar, az várjon 1-2 hónapot, mert lesz itt árcsökkentés még.
 
Válasz írásához előbb jelentkezz be!
36. rottenbull BReal
2016.06.01. 18:23
Te nagyon kitarto vagy, elismeresem. Az arakon meg nem rugozol, ez teny
 
Válasz írásához előbb jelentkezz be!
35. cheatergs Meteo...
2016.06.02. 11:46
Hát akk "Előre a múltba", mert az frankón áll a Pascalra, h igazából egy Fermivel kevert Maxwell.
 
Válasz írásához előbb jelentkezz be!
34. BReal ChoSi...
2016.06.02. 13:17
Nem. A sima 1080 600 dollár, az FE 700. A 700 dolláros FE nálunk 260000 Ft. Abból átszámolva a sima ref. 1080-as 220e Ft környéke.
Resike: Akkor talán oda kéne írni, hogy nyitóárra gondoltál. Nem tudom kitalálni a gondolataidat.
 
Válasz írásához előbb jelentkezz be!
33. Whysper BReal
2016.06.03. 16:25
2x480 és megvan oldva az árbaromság. a jelenlegi alaplaphoz +15 ezer és SLI-s lapod van Szóval alapból skipelem a 1080-t

Viszont munkához 2 db 1080 méár királyság lehet!
 
Válasz írásához előbb jelentkezz be!
32. Asagrim
2016.06.03. 21:06
Ebből nem értettem semmit. Olvasd el a fórum szabályzat 1.1-es és 3.1-es pontját. Ez nem hozzászólás, ez egy követhetetlen katyvasz.
 
Válasz írásához előbb jelentkezz be!
31. s_otto activ...
2016.06.04. 00:17
Actival: és miből fizetted volna ki? Az egész életed nem ér annyit mint egy ilyen kártya.... ez agp foglalaltba nem megy
 
Válasz írásához előbb jelentkezz be!
30. BReal s_ott...
2016.06.04. 06:56
Ez most valami vicc akart lenni amit én nem értek?
 
Válasz írásához előbb jelentkezz be!
29. Terror
2016.06.04. 10:32
Fejezd be, már fuldokolva röhögök
 
Válasz írásához előbb jelentkezz be!
28. sjacint
2016.06.04. 22:25
Nem tudom ki mondta, hogy 1080 munkára királyság, de el kell mondjam:
kevés.
Tesla grid vagy quaddro sokezer már okésabb.
 
Válasz írásához előbb jelentkezz be!
27. ChoSimba sjaci...
2016.06.05. 07:51
Ez megint attól függ, mi a munka. Nyilván valami DP heavy környezetben meg sem nyikkan. De pl. egy játéktesztelőnek tökéletes és az is munka
 
Válasz írásához előbb jelentkezz be!
26. Asagrim ChoSi...
2016.06.05. 12:40
Ja, aztán jön a játék megjelenése után a szokásos rinya, hogy optimalizálatlan a játék, nem is volt tesztelve (pedig volt, csak a negyedmillás videokártyán nem vette észre senki a hibát).

Nem tudom megérteni, hogy vizuális tartalom létrehozásánál miért használnak ilyen-olyan csúcsszuper hardvert, nem azon kell jól kinéznie a végeredménynek, hanem a végfelhasználó sokkal átlagosabb cuccán.

Másfél millió forintos monitoron 100%-os Adobe RGB fedéssel elkezd a nagy PS művész legyártani egy grafikát és ott nincs gradient banding, de az én dzsunka TN panelemen már igen, márpedig a grafika NEKEM készült, én vagyok a célcsoport, akit meg akar szólítani!
 
Válasz írásához előbb jelentkezz be!
25. Asagrim Terro...
2016.06.05. 12:48
Beavatnál? Én még mindig nem értem.
 
Válasz írásához előbb jelentkezz be!
24. CyberPunk6... Asagr...
2016.06.05. 13:02
Ahány panel, annyi féle kinézete lesz a képnek. A kép legyen jó és utána majd mindenki a megvásárolt monitora szerinti minőségben élvezheti. Ezzel nem nagyon tud a grafikus bármit is csinálni.

A játékot el kell adni, megcsinálják, hogy a drága gépen jót demózzák és kész. A játékteszterek az újságokban is csúcsgépen fogják tolni, aztán ez növeli az eladásokat, több pénzt ebbe nem ölnek.
A marketing többet ad el kevesebb befektetéssel, mint a minőség.

Amúgy kipróbálják gyengébb gépeken is, csak tényleg optimalizálatlan szar, de nem érdekli őket. Ki kell adni, majd patcheljük, aztán rájönnek, hogy aki már megvette az úgysem ad már több pénzt, szóval nem költenek rá, csak ha balhé van.


Amúgy a helyzet sokkal jobb, mint az ősidőkben. Ha valaki még emlékszik azokra az időkre, amikor a minimum konfig a játékoknál azt jelentette többnyire, hogy elindult egyáltalán és ment kb 3 fps-sel a játék, a minimum beállítások mellett, akkor azért azokhoz az időkhöz képest komoly az előrelépés.
Manapság sokszor az ajánlott konfigon maxon-max közelében megvan a stabil 60 fps és a minimumon is játszható a játék.

Persze ezt csak azok tudják, akik már 10-15 éve is játszottak.
 
Válasz írásához előbb jelentkezz be!
23. Asagrim Cyber...
2016.06.05. 15:39
Miféle istentelen logika már az, hogy "úgyis más-más minden panel, szóval fogom magam és 100%-os Adobe RGB mellett szerkesztem a grafikát"? Így születnek a szar grafikák, amik csak a tervező monitorán néznek ki jól. Ha a prolikkal nem akar foglalkozni akkor is maximum egy szürke mezei IPS panelt kellene használnia és máris pontosan tudni fogja mennyi graint kell hozzáadnia, hogy ne csíkozzon.

Nálam a 400 MHz-es minimum gépigény 96MB RAM és 4MB AGP kártya társaságában Quake 3-nál annyit jelentett, hogy közepes grafikán toltam egy 266MHz-es PII MMX-en, 96MB RAM és 4MB AGP kártya mellett, szóval ugyanolyan semmitmondó gépigények voltak korábban, mint most.
 
Válasz írásához előbb jelentkezz be!
22. CyberPunk6... Asagr...
2016.06.05. 16:13
Nem 400 MHz a minimuma a q3-nak.
A quake meg pont az a játék, amiben még a jó gépeken is mindenki szénné butította a grafikát, hogy gyorsabb legyen, a hibás motor miatt.

A probléma meg még mindig az a monitorral, hogy a szar panelek sem egyformák. Megcsinálja az egyikre és a másikon szar lesz ugyanúgy.
Eleve több eljárás is létezik arra, hogy a színeket kevés biten ábrázoló panelek, hogyan állítják elő a köztes árnyalatok egy részét.
 
Válasz írásához előbb jelentkezz be!
21. Asagrim Cyber...
2016.06.05. 17:54
Ahány oldalt nézel, annyi "minimum" rendszerkövetelménye lesz, van ahol 8 megás videokártyát írnak, van ahol 4-et. Én annyit tudok, hogy 2000 elején 400 MHz / 96MB RAM / 4MB AGP-t olvastam egy altavista keresés után, ami azért rögzült bennem ennyire, mert a szutyok Compaq Deskpro gépem pont ennek a RAM/GPU követelménynek felelt meg, a processzor meg sokkal gyengébb is volt, de gond nélkül toltam a single playert közepes beállítások mellett. Az, hogy multi közben kinek milyen gépen mennyire szaggatott be teljesen hidegen hagy, egyetemig nem volt otthon netem, és kifejezetten olyan intézményeket fogtam ki, ahol például olyan vasszigor volt a számítógépteremben, hogy nemhogy játék nem volt a gépeken, engem akartak kitiltani onnan, miután valaki lecserélte a rendszerikonokat azon a gépen, amelyiknél ülni szoktam.

"Eleve több eljárás is létezik arra, hogy a színeket kevés biten ábrázoló panelek, hogyan állítják elő a köztes árnyalatok egy részét."

De erre akkor sem az a válasz, hogy olyan monitoron csinálod az egészet, aminek a képminőségét hét szentség, hogy a célcsoport monitorainak 1%-a se tudja reprodukálni, azokat a jelenségeket, amik ebből következnek viszont már mind.
 
Válasz írásához előbb jelentkezz be!
20. Profeta051...
2016.06.06. 09:10
Lehet valaki már feltette ezt a kérdést előttem, és lehet meg is válaszolták, de nincs kedvem 130 HSz-t végig pörgetni...szóval..tudja valaki, hogy esetleg mikortól lehet ITT!!!! az IPONON!!!! kapni a normális 1080-as kártyákat? Igen, a normális hűtéses, nem porszívó founders referencia biszembaszom szarokat Előre is köszönöm
 
Válasz írásához előbb jelentkezz be!
19. xcomman Profe...
2016.06.06. 11:00
Bár nem az ipontól, de kaptam egy értesítést a nem referencia kártyák érkezéséről. Röviden leírom ide, aztán vagy igaz vagy nem. Én már megrendeltem egy evga ftw-t, mert nem akartam (bírtam ) tovább várni, de mint kiderült még várhatok még 1 hónapot....

Giga G1 06.17

Inno Twin X2 4-7 nap (igazából ez már itt is lehetne..)

Evga Sc és founder 06.14

Evga Ftw 06.28

Többiről még csak közelítő adat sincs. Ezek bármikor beeshetnek, de sztem az iponon is megjelennek lassan a drágaszágok..
 
Válasz írásához előbb jelentkezz be!
18. Profeta051... xcomm...
2016.06.06. 17:05
Köszönöm
 
Válasz írásához előbb jelentkezz be!
2016.06.07. 14:34
Az 1070esről nincs ilyen infód véletlen?
 
Válasz írásához előbb jelentkezz be!
16. shteer xSn
2016.06.07. 17:09
06.10-től bármikor )
 
Válasz írásához előbb jelentkezz be!
2016.06.08. 07:56
Nem a referencia/founder's változatra gondoltam.
 
Válasz írásához előbb jelentkezz be!
14. Profeta051...
2016.06.09. 10:35
Egy konkurens oldalon(vizesek) már van MSI gaming X 259,999Ftért Kb reggel 9óta nyomkodom az F5-t, hátha végre itt is elérhető szóval gyerünk már
 
Válasz írásához előbb jelentkezz be!
13. Kikikirly1... Asagr...
2016.06.09. 13:12
Én nem értek valamit.Más fórumokon is szokták mondani hogy nagyobb felbontáson kevésbé van CPU limit.Én úgy tudom hogy minél kisebb felbontáson játszol annál kevésbé van terhelve a processzor(és persze minden más hardver).Akkor hogy lehet hogy előbb jelentkezik CPU limit?Azt a részét így is értem hogy 4K-hoz miért ajánlott 6magos X79/99 Procit venni,hiába van 4k-n kevésbé CPU limit, elfogynak a sima 4magos processzorok legyen az i7/i5.De a többi nem világos.
 
Válasz írásához előbb jelentkezz be!
12. ChoSimba Kikik...
2016.06.09. 13:23
Ha a kutyádnak messzebbre dobod a labdát (nagyobb felbontás), akkor a kutya sokáig fut érte, neked meg ritkábban kell lehajolnod, felszedned és eldobni (CPU terhelés).
Ha közelre dobálod, akkor gyakran kell hajolgatnod. De ebben az esetben adott idő alatt többször is dobod el (nagyobb FPS), továbbá az is mindegy, hogy milyen gyors a kutyád, rajtad múlik a sebesség, nem a kutyán. Ezért lesz kb. ugyanolyan gyors egy agár és egy bulldog.
 
Válasz írásához előbb jelentkezz be!
11. Asagrim Kikik...
2016.06.09. 13:40
A CPU feladata "előkészíteni" a képkockát, amit aztán továbbküld a GPU-nak kirajzolásra. Minél nagyobb a kép, annál több GPU teljesítmény kell kirajzolni, tehát ilyenkor a GPU teljesítmény a limitáló tényező. Alacsony felbontáson a GPU sokkal gyorsabban rajzolja ki az egyes képkockákat, tehát a CPU-nak lényegesen több képkockát kell "előkészítenie", szóval itt a CPU a limitáló tényező. Ezért nem lehet egy tesztben ugyanannál a játéknál ugyanazon a gépen a magasabb felbontás miatt CPU limit.
 
Válasz írásához előbb jelentkezz be!
10. Kikikirly1...
2016.06.09. 14:02
Asagrim a te leírásodat értem.Minél több FPS-ed van annál inkább a processzorra esik a többlet terhelés a magas FPS szám miatt ami- alacsonyabb felbontáson keletkezik(több képkockát kell előkészítenie).Magas felbontáson pl.1440p-ben kevesebb FPS van tehát a CPU nak kevesebb képkockát kell előkészítenie viszont nagyobbak a képkockák amik több GPU teljesítményt igényelnek,tehát ilyenkor a GPU van terhelve.

Viszont írtad hogy a CPU-nak kell előkészítenie a képkockát ami feltételezem hogy magas felbontáson több számítási kapacitást igényel processzor oldalról is.Ezért van az hogy hiába akarsz 4Kban is 60FPS-el játszani,hiába kell itt is csak 60 képkockát kell előkészítenie a processzornak, ekkora felbontásnál nincs elég számítási kapacitása egy 4.generációs Intel processzornak(gyanítom Skayleke-nek sincs) 60 képkocka előkészítéséhez,egyszerűen elfogy a processzor.

4790K procim van 4,6hoz-ra tungingolva.Azért vettem hogy 2560X1440p 60FPS-el tudjak játszani.

Ha jól értem amit mondotok akkor ez a proci erre a felbontásra még nagyon sokáig elég lesz hiszen van benne kakaó(plusz generációnként alig van teljesítménynövekedés,illetve hogy DX12/Vulcan alatt csökken a processzor terhelés).

 
Válasz írásához előbb jelentkezz be!
9. Asagrim Kikik...
2016.06.09. 14:16
Egyáltalán nem igényel nagyobb számítási kapacitást nagyobb felbontáson az előkészítés, mert felbontástól teljesen független a processzorra háruló feladat. Az NPC AI-nak például totálisan mindegy mekkora felbontáson kell a paramétereknek megfelelően viselkednie.
 
Válasz írásához előbb jelentkezz be!
8. Kikikirly1...
2016.06.09. 14:34
Akkor az azt jelenti hogy 8K 60FPS-hez is ugyan olyan erős processzor elegendő?
 
Válasz írásához előbb jelentkezz be!
7. Asagrim Kikik...
2016.06.09. 14:56
Ez azt jelenti, hogy az a processzor, ami 8K 60FPS mellett nem limites egy játékban, az ugyanabban a gépben ugyanazzal a játékkal lehet limites alacsonyabb felbontáson.
 
Válasz írásához előbb jelentkezz be!
6. romario
2016.06.09. 17:17
Nagyon jó teszt lett, köszönjük.

"Mindenesetre aki ilyen felbontáson használná ezt az erőművet, az kösse fel a gatyáját, nagyon erős processzort kíván néhány játék alatt."
Mondjuk egy i7-3770K már ki tudná hajtani teljesen? Esetleg még az is karcsú?
 
Válasz írásához előbb jelentkezz be!
5. Kikikirly1...
2016.06.09. 18:09
i5-3570K i7-3770K között nincs hatalmas különbség.
Szerintem ki hajtja,2560 biztosan,hiszen a tesztben is kihajtotta a 3570K 4,4ghzn.Ahol 1080p-n már CPU limit volt, jó sok FPS-es lehetett szóval nincs jelentősége(a teszt nem tér ki arra hogy melyik játéknál jelentkezett limit).Ez a kártya nem 1080p felbontásra való sokkal inkább 1440p-re.
 
Válasz írásához előbb jelentkezz be!
2016.06.10. 09:34
A CPU limit nem úgy néz ki, hogy egy nagy piros villogó felirat megjelenik, jelezve, hogy CPU limit... Nézd meg a Hitman teszteket: 1080-ban is 90 körül van a teteje, és 1440-ben is, amiből erősen sejthető, hogy ott bizony a CPU adja az eredményt. A sok összetorlódód eredmény jó jelzője a CPU limitnek, de rejtetten limites lehet, ha csak a mezőnyből kimagasló eredmény limites, tehát a legjobb kártyának nem a valós teljesítményével szembesülsz, hanem egy csökkentett verziójával.
 
Válasz írásához előbb jelentkezz be!
3. Profeta051...
2016.06.10. 16:18
Nos, rengeteg videót néztem youtube-n, ahol ki van monitorozva minden. Érdekelne, hogy hosszú távon nem cinkes ez az átlag 75-80fok a GPUnak? 10videóból kb 9be ilyen hőfokon üzemel, függetlenül attól, hogy OC vagy sem. A founders 1-2fokkal eltér. Egész pontosan a Gaming 8X és az Asus strixről lestem a dolgokat. A jelenlegi 290X-em, szénné húzva(sapphire tri-x) nem nagyon megy 70fok fölé, pont az imént teszteltem GTA V alatt all in csutkán. Furcsa ez, mert mindenki arról habogott, hogy micsoda kazán, meg télen befűt a 290X, közbe így látva, még sem melegszik ez annyira, főleg hogy 28nm GPU. Aki jobban ért hozzá leírhatná mi a szitu, még mielőtt átveszem a kártyát...
 
Válasz írásához előbb jelentkezz be!
2. xcomman Profe...
2016.06.10. 17:05
Nem tudom megerősíteni ezeket a dolgokat, de várd meg az evga kártyákat. FTW és Classified verziókon 20%-al nagyobb hűtés van. Kizártnak tartom, hogy melegfejűek legyenek. Ha a 30%-al húzott 780 classi nem ment 70 fok fölé, max furmarkban, akkor ezeknek a kártyáknak sem illene a 80 fokot elérni. Furcsa...

(Az, hogy a fostrix melegszik még megértem, de az msi-nek nem szabadna)

LINK
 
Válasz írásához előbb jelentkezz be!
1. Profeta051... xcomm...
2016.06.10. 17:26
Hmmm, én hétfő/kedd veszem át az MSI-t, de akkor megnyugodtam. Ismét bebizonyosodott, hogy nem szabad hinni a youtubenak NZXT Phantom 410 házam van, tele ventikkel, ahogy kell rendesen, bízom benne hogy minden patent lesz Köszöntem
 
Válasz írásához előbb jelentkezz be!