iPon Cikkek

Játékos élet Full HD-s felbontás felett

Dátum | 2013. 11. 21.
Szerző | Svindler
Csoport | MEGJELENÍTÉS

Út a 4K-s felbontásig Kezdetben vala a karakterekre korlátozott megjelenítés… na jó, ennyire régre azért nem ugrunk vissza. Látogassunk el inkább a 90-es évekbe, amikor még mindannyian CRT-k előtt ücsörögtünk, és örültünk, ha a használt felbontást nem 60Hz-es képfrissítés mellett kellett néznünk. A 3D-s gyorsítók is csak ekkortájt kezdtek el feltűnni, és eleinte erősen behatárolták, hogy milyen felbontáson játszhatunk. 1996-ban megjelent a Voodoo 1, és egy évvel később mindenki csak ámult, hogy mennyire szépen is fut rajta a Tomb Raider 2 640*480-ban. Azóta persze nagyot változott a világ, az idei epizód talán el sem indul ilyen alacsony felbontáson, de akkoriban ez még jónak számított. A monitorok azért egy fokkal előrébb jártak, megfizethető áron lehetett kapni olyanokat is, amik képesek voltak jó frissítési ráta mellett kezelni a 800*600-at és az 1024*768-at. Hát igen, anno, akárcsak a TV-knél, még a 4:3-as képarány hódított, nem volt minden szélesvásznú. A CRT monitorok szép lassan fejlődtek, felbukkantak az első síkképernyős modellek, és egyre jobb vezérlő elektronikát kaptak, így már olyan magas felbontásokkal is elbántak, amiknek egyébként már nem sok értelmük volt a kijelzők fizikai adottságai miatt. Ettől függetlenül 2000 környékén már találkozhattunk olyan példányokkal is, amik 2048*1536 pixel megjelenítésére is képesek voltak, méghozzá 19 colon. És most itt álljunk meg egy pillanatra… 2048*1536? Igen, ez nagyobb, mint a manapság oly divatos Full HD-s, azaz 1920*1080 képpontos felbontás, és igazából a 2000-es évek elején megjelenő nagyobb LCD monitorok (20 colosak) is 1600*1200-asok voltak, ami pixelszámban nem sokkal kevesebb, mint a Full HD. Igaz, akkoriban ezeknél még elég vastagon fogott a ceruza, ha az árat kellett meghatározni, az elterjedtebb modellek inkább a 17-19 colosak voltak, 1280*1024-es felbontással. Ettől függetlenül megállapíthatjuk, hogy az utóbbi bő egy-másfél évtizedben nem igazán volt előrelépés felbontás fronton, inkább mindig egy új technológia fogta meg az embereket. Először elterjedtek az LCD kijelzők, majd jött a szélesvászon, a LED-es háttérvilágítás, a 3D, és végül az idei év slágere, a 4K-s felbontás, ami egyébként a legkisebb az UltraHD névvel illetett felbontások közül.
forrás: purelinkav.com
forrás: purelinkav.com
Hogy miért nem jött hamarabb? Egy biztos, nem technikai korlátok miatt, ugyanis 2001-ben (!) az IBM már bemutatta a T220-ast, egy 22,2 colos monitort, aminek a felbontása 3840*2400 pixel volt. Ez nagyobb, mint a mostanában kapható 4K-s kijelzőké, azok ugyanis megállnak 3840*2160-nál (a különbség egyébként azért van, mert anno a szélesvásznú kijelzőknél még a 16:10-es képarány volt a divat). Azon azért érdemes elgondolkodni, hogy miért kellett több mint 10 évet várnunk arra, hogy egy kijelzőkkel foglalkozó PR-os minden második szava a 4K vagy az UltraHD legyen. Persze rávághatnánk egyből, hogy a kereslet élénkítése miatt, hiszen rá kell bírni a kedves fogyasztót, hogy váltson valami újra, ehhez pedig nem árt egy indokot adni neki. Ezzel a válasszal igazából nem is tévednénk, de azért szerencsére több ok is megbújik a késés hátterében. Az első és talán a legfontosabb a tartalom kérdése. Elvégre mire jó egy 4K-s kijelző, ha nem tudjuk kihasználni az adottságait? Maximum e-pénisz növelésre ugye. Márpedig 10 éve még csak analóg TV adás volt, az is csak 720*576-ban, tehát egy televíziónak ekkora felbontást adni felesleges lett volna, igazából még manapság is az sok esetben. Monitoros felhasználás esetében viszont nem probléma, hogy nincs ilyen felbontású kész tartalom, hiszen amit látunk, azt a gépünk állítja elő. Azonban 10 évvel ezelőtt a gépek is jóval gyengébbek voltak, semmi sem lett volna képes kihajtani egy ilyen szörnyeteget, legalábbis 3D-ben biztos nem, és a 2D-s megjelenítésnek is megvoltak a maga akadályai, például az operációs rendszerek felkészületlensége, ami ha őszinték akarunk lenni, még manapság is visszatarthatnak a váltástól. Egy kicsit visszatérve a hardverek világába, az sem volt anno utolsó szempont, hogy milyen csatlakozón keresztül lehet egyáltalán ilyen sok pixelt átvinni a képernyőre. Az IBM monitora négy DVI csatornát használt, elég speciális megoldás volt. Gondolhatnánk, hogy manapság már nincsenek ilyen problémák, de az a szomorú igazság, hogy sajnos vannak. Nem azért, mert nincs meg hozzá a technológiánk, hogy egy kábelen elég pixelt küldjünk át, hanem mert a szabványaink vannak lemaradva. Egyelőre nincs szabványos út arra, hogy elérjük a 60Hz-es képfrissítési rátát 4K-s felbontás mellett, ezért a kijelzőgyártóknak trükköznie kellett. A 3840*2160-as monitorok két 1920*2160-as részre osztják fel magukat logikailag. Ekkora felbontás már mehet 60 képkocka/másodperces gyorsaság mellett egy HDMI kábelen, vagy egy DisplayPort csatornán. Egy DisplayPort 1.2-es kábel azonban több ilyen csatornát is képes kiszolgálni, így ha egy kicsit nyakatekerten is, de megoldható, hogy mégiscsak egy kábelen menjen a 3840*2160@60Hz. A rendszerünk azt fogja hinni, hogy két monitorunk van, de egyelőre nincs jobb megoldás, be kell érjük ezzel, vagy marad a 30Hz (az ugyanis megy egy csatornán), ami maximum csak filmnézésre elegendő. A tartalom és a szabványok hiányán túllépve ott vannak még a valós igények is. Pár éve még tökéletesen boldogok voltunk egy szimpla Full HD-s képernyővel is, aztán jött az Apple és kitalálta a Retina kijelző fogalmát, és ezzel elindított egy óriási versenyt az okostelefonok világában. Ennek hála az emberek már mindenhol pixeleket látnak, 1-2 év, és lesz, aki szerint már az 1920*1080 is kevés 5 colon. Hiába no, az Apple és a versenytársai evolúciós pályára állítottak minket: amihez egyébként évezredek kellenének, most megléptük pár év alatt, hirtelen sasszeműek lettünk, csak szólni kellett nekünk, hogy akár erre is képesek vagyunk. A cinizmust félretéve, a Retina felbontásoknak van értelme, de lehet, hogy már átestünk a ló túloldalára. Közben viszont a monitorok frontján van mit behoznunk, ugyanis míg a táblák és okostelefonok felbontása szárnyal, addig az asztali kijelzők maradtak ott, ahol már 10 éve vannak. Előbb-utóbb ideje lesz lépni, az első fecskék pedig mostanában jelentek meg. Nézzünk is meg közülük egyet, ami segítségünkre volt a mai teszt elkészítésében.
ASUS PQ321QE Jelenleg nem sok 4K-s monitor kapható, és azok sem az olcsóságukról híresek, az ASUS PQ321QE talán az egyetlen a megvásárolható példányok közül, ami 1 millió forint alatt beszerezhető. Az újdonságok bevezetésénél fel kell készülni a magas árakra. Az ASUS monitora egyébként ugyanazt a Sharp által gyártott IGZO panelt használja, ami a jóval drágább Sharp és Dell kijelzőkben is megtalálható. A képe gyönyörű, annyira, hogy ha tehetnénk, kötelezővé tennénk az IGZO paneleket, egyszer érdemes megnézni egyet élőben. Az új technológia egyébként nem csak a kép minőségén látszik meg, a fogyasztásra is kedvező hatást gyakorol. Még ilyen nagy, 31,5 colos méretben is 100W alatt marad a monitor fogyasztása.
ASUS PQ321QE
ASUS PQ321QE
A PQ321QE egy viszonylag egyszerű állványzatot kapott, ami csak döntögetésre és magasságállításra ad lehetőséget. Cserébe viszont jó masszív, betonstabilan tartja a méretes kijelzőt. Csatlakozók frontján nem leszünk túlságosan eleresztve, kapunk egy DisplayPort bemenetet és… hát majdnem ennyi. Van még egy audio bemenet és egy füles kimenet, ez a teljes lista. A monitornak vannak saját hangszórói is, amik elég tisztán szólnak, de a maximális hangerejük nem túl magas, látszik, hogy csak vészmegoldásnak vannak, és aki ilyen kijelzőt vesz, annak valószínűleg van egy jó fülese vagy hangrendszere. Tapasztalatok Ahogy az előző oldalon is írtuk, manapság az ilyen monitorokat úgy kell kezelni, mintha kétmonitoros rendszerünk lenne. Egy DisplayPort csatornán is elmegy az ASUS újdonsága 4K-s felbontáson, de ekkor a maximális beállítható frissítés 30Hz. Érdemes tehát a rendszerünk elindulása után egy kis sétát tenni a menüjében, és átállítani a DisplayPort kapcsolatot MST (Multi Stream Transport) módba. Az AMD és az nVidia driverei már fel vannak készítve az ilyen esetek kezelésére, így egyik fél kártyáival sem volt beállítási problémánk, ahogy átváltott a monitor, automatikusan beállították a kétmonitoros rendszert. Az örömünk csak azért nem lehetett felhőtlen, mert néhány nVidia kártya esetében azt tapasztaltuk, hogy MST módban lévő monitor mellett nem hajlandó bebootolni a gépünk. Valószínűleg csak frissebb BIOS-ra van szükségük a kártyáknak, mert pl. a GTX780-nál fennállt ez a probléma, míg a GTX780 Titaniumnál nem. A PQ321QE vezérlője egyébként végig két monitorként kezeli önmagát, egy stream esetében is. Ez pl. felbontásváltásnál látszik, előbb az egyik oldal jelenik meg, aztán a másik. Használat közben ez nem zavaró, ritkán fogjuk látni. Sajnos viszont azt kell mondjuk, a Windows-ok még mindig nem állnak a helyzet magaslatán, ha nagyobb felbontások kezeléséről van szó, még a Windows 8-nál is tapasztalhatóak hibák, amennyiben 150%-os méretet kérünk mindenre (pl. olyasmit is széthúz, amit nem kéne). Éppen ezért nyer értelmet a 31,5 colos méret: ha 24-27 colon néznénk 4K-s felbontást, a rendszerünk valószínűleg használhatatlan lenne, olyan apróvá válna minden, a nagyobb DPI támogatása pedig még nem tökéletes. A Microsoftnak már épp ideje, hogy rágyúrjon a témára, mert azért az várható, hogy a jövőben szép lassan elkezdenek terjedni a 4K-s kijelzők. Még jó, hogy játékok alatt nincsenek ilyen problémák, a felhasználói felület szinte mindig szépen skálázódik, így talán nem is csoda, hogy a munka mellett a játékok állnak a legjobban a 4K-s monitoroknak. A következő oldalon bemutatjuk mely kártyáknak kellett helytállniuk a mai megmérettetésen.
Íme a mai felhozatal:

Az AMD-től és az nVidiától is csak a legerősebb kártyákat pakoltuk a tesztbe, és az R9 290X esetében minden mérést Über módban hajtottunk végre. Ha végignézünk a mezőnyön, akkor láthatjuk, hogy lehet köztük egy problémás példány, a GTX770. Ez a kártya rendelkezik a legkevesebb memóriával (2GB), és a memória-sávszélessége is neki a legkisebb. Ezek olyan dolgok, amik a felbontás növelésével negatívan hathatnak a kártyára. A méréseink szerint a Battlefield 4 például könnyen felemészt 2,5GB memóriát a grafikus kártyán, de mint majd a méréseinkből is látszik, nincs egyedül ezzel. A két csúcskártyát nézve elmondhatjuk, hogy nyers shader erőben körülbelül ugyanott vannak, és a memória-sávszélességük is hasonló, a GTX780 Ti-nek viszont több textúrázója van, míg a Radeon a pixeleket tudja nagyobb tempóban falni, hála a 64 ROP egységének. Utóbbi segíthet az R9 290-eseknek abban is, hogy MSAA használata mellett gyorsabbak legyenek, míg a GeForce azon játékokban kerülhet előnybe, ahol a shader erő bőven elég, inkább a textúrázok száma számít. Tesztkonfiguráció Alaplap: Gigabyte GA-Z77X-UD3H Processzor: Intel Core i5-3570k@4.5GHz Memória: 2x4GB Corsair Vengeance DDR3-1866 Grafikus kártyák: ASUS Radeon R9 280X Matrix 3GB, AMD R9 290 4GB, AMD R9 290X 4GB, nVidia GeForce GTX770 2GB, nVidia GeForce GTX780, nVidia GeForce GTX780 Ti 3GB, Gainward GeForce GTX TITAN (a nem referencia kártyákat természetesen referencia órajelen járattuk) Tápegység: Cooler Master M2 Silent Pro 1000W Operációs rendszer: Windows 8 64bit minden frissítéssel Driverek: Catalyst 13.11 béta9.2, GeForce 331.70 béta Driverkérdés: Tegnap előtt megjelent a 331.82-es GeForce szoftver, amiben a leírása szerint volt egy-két olyan optimalizáció, hogy csak pislogtunk. Akár +50% sebesség Metro: Last Light alatt? Ehhez azért már a csillagok együttállása is kellhet. A 4K-s monitor már nem volt nálunk, de a 2560*1440-es méréseket újra elvégeztük a GTX770-essel Metro, Crysis 3 és Battlefield 4 alatt. Volt, ahol mérési hibán belül volt az eredmény és a legnagyobb mért különbség is mindössze 5-6% volt, úgyhogy a mai teszt átlagán semmiképp sem változtatott volna az új driver (azért nagy kő esett le a szívünkről, nem két perc volt összehozni a következő pár oldalt). Felbontások: A cikknek nem véletlenül az a címe, ami, nem csak a 4K-s felbontásra koncentráltunk. Persze nagyon kíváncsiak voltunk, hogy a mostani kártyák elegek-e már erre, de tekintve, hogy jelenleg még elég magas árat kérnek el egy megfelelő monitorért, megnéztünk egy elérhetőbb alternatívát is. 2560*1440-es kijelző már 150 ezer forinttól kapható, és már ez is egy jelentős előrelépés az 1920*1080-hoz képest (közel kétszeres pixelszám). A Full HD-s felbontások méréseit viszont nem pakoljuk be újra ide, így is lesz bőven mit nézegetni. Akit érdekel mire voltak képesek a kártyák a legelterjedtebb felbontáson, olvasson bele a múltkori cikkünkbe. Most pedig következzenek a tesztek, először a kisebbik felbontáson!








A 2560*1440-es tesztek első csokrából azt láthatjuk, hogy a Radeonok egy kicsit gyorsultak a konkurenciához képest, ami talán a friss drivernek is köszönhető (nem ugrál annyira az órajel). Az első komolyabb előrelépés a Crysis 3 esetében tapasztalható, itt szinte katonás rendben beálltak egymás mellé az AMD és az nVidia kártyái. Kisebb felbontáson az GTX-eknek volt egy kis előnye.








Ezen az oldalon körülbelül ugyanaz figyelhető meg, ami az előzőn is: a Radeonok némileg jobban teljesítenek, mint eddig. A legfrissebb Total Warnál pedig látszik, hogy nem kell 4K-s felbontás ahhoz, hogy kevés legyen a 2GB fedélzeti memória. A GTX770 azért marad le ennyire, mert a beépített benchmark elején egy képregényt mutogat nekünk játék helyett, sokszor kell a rendszermemóriához nyúlnia. Most pedig következzen az, amire talán a legtöbben kíváncsiak! Duplázzuk meg még egyszer a pixelszámot a következő oldalon.

Alan Wake alatt nem változik a sorrend, szinte ugyanazokat az arányokat látjuk, mint két oldallal ezelőtt. Még a GTX770 is jól tartja magát, elég a memóriája ehhez a játékhoz.

Akárcsak a Batman: Arkham Originshez. Itt sem változik a sorrend. Az fps számláló persze mindenhol úgy a felére esett le, de még így is képes átlag 30 fps-t kihozni bármelyik kártya maximális beállításokon, ami azért nem rossz eredmény.

Battlefield 3 alatt azért már nehezebb tartani a tempót, a „gyengébb” kártyák beesnek 30 fps alá, és ha nem akarunk túl alacsony minimum fps-eket, akkor azért már érdemes a legerősebb kártyák körül nézelődni, vagy lejjebb venni a beállításokat.




Battlefield 4 alatt ez elég sokat számít. Ha hajlandóak vagyunk Ultráról lemenni simán a magas minőségi beállításra, akkor már egész játszhatóvá válik a játék, az idő nagy részében 30fps felett lesz a 290-es Radeonokkal. Azért pont a Radeonokat emeltük ki, mert sokkal kiegyensúlyozottabb a teljesítményük a DICE új játéka alatt. Persze a tökéletes eredményhez, főleg ha szeretnénk elérni a 60fps-t, már nem árt két videókártya.


Bioshock Infinite alatt eddig mindig azt láthattuk, hogy a GeForce-ok verhetetlenek, de ha lejjebb vesszük a minőségi beállításokat, akkor kiderül, hogy a Radeonok képesek egyenlíteni. Kisebb felbontásokon nem vagyunk erre rákényszerítve, de 4K mellett néha kompromisszumokat kell kötni.


A Crysis 3 maximális beállításokon szinte játszhatatlan bármelyik kártyával, legalább kettőre lenne szükség, hogy értékelhető fps számot érjünk el, és akkor még nem is nyúltunk a komolyabb élsimításokhoz, csak FXAA-t használtunk. Közepes beállításokon már élvezhető a játék, de ilyenkor már el kell gondolkodnunk azon, hogy mi fontosabb: a felbontás vagy a magasabb minőségi beállítások, mert a Crysis esetében azért szépen látszik a különbség.



A Blood Dragont maximumra tekerve még az R9 290-es is GTX 780 Ti szinten van, a GTX770 lába alól pedig kifut a talaj. Kikapcsolva az élsimítást már magára talál, a többiek közül pedig sokan 30fps felett végeznek. Érdekes módon a minőségi beállítás Ultráról High-ra való levétele alig növeli a sebességet, az alacsonyabb minőségi beállítások pedig már szépen látszanak a képernyőn is, így eljutunk a Crysis 3-nál is látott dilemmához. Felbontás vagy magasabb beállítások? Azért persze ott van a C válasz is: két kártya SLI/CrossFire-ben.

GRID 2 alatt nem igazán változnak az erőviszonyok, csak a szokásos fps felezés látható a 2560*1440-hez képest. Az erősebb kártyákon egész jól játszható a játék, és még a GTX770 is képes átlag 30 fps-t kipréselni magából (de egy autós játékhoz nem árt, ha ennél több van, érezhető az irányításon).


Hitman alatt, ha bekapcsolva hagyjuk az élsimítást, az rosszabbul érinti a GeForce-okat, mint a Radeonokat. A benchmark elég terhelő, a játék maga igazából egész játszható az erősebb kártyákkal, de ha biztosra akarunk menni, csak kapcsoljuk ki az élsimítást. A GTX770 megtáltosodik tőle, mert így nem fuldoklik a memória hiányában, és igazából 4K mellett nem annyira létszükséglet az AA, ha valamin spórolni akarunk, érdemes ezt előrevenni a listán.

A Mafia 2 nem egy mai darab, de ilyen felbontáson azért meg tudja izzasztani a grafikus vezérlőket. Érdekes módon a két 290-es nagyon közel kerül egymáshoz, pedig a háttérben nem állhat processzor limit. Mindenesetre ilyen felbontáson már ők vezetik a rangsort, még a sima 290-es is hozza a GTX780 Ti szintjét.



Metro alatt nem mertünk az SSAA-nak még a gondolatával sem kacérkodni, kinyírta volna bármelyik kártyát, ha az egyedül próbálkozik. Maximális beállításokon még így sem érte el a 30 fps-t semmi. Mindent egy kicsit lejjebb tekerve sem változik érezhetően a helyzet, nagyon komolyan hozzá kell nyúljunk a beállításokhoz, ha játszható sebességre akarjuk gyorsítani a játékot. Marad a többkártyás rendszer, vagy a szokásos dilemma.



Sleeping Dogs alatt kipróbáltuk az összes élsimítási beállítást, így az SSAA is bevetésre került. Ahogy az az első dián is látszik, ez azonnal megölte a GTX770-est, de mentségére legyen mondva, hogy a többiek sem voltak képesek játszható értékeket felmutatni, így tulajdonképpen ez teljesen mindegy. Az élsimítást egy fokozattal visszább véve már elég sok kártya produkál szép értékeket, ha pedig még ennél is hajlandóak vagyunk lejjebb menni (miközben egyébként megtartjuk a maximális beállításokat), akkor már a 60 fps elérése sem lehetetlen, és még a GTX770-en is jól fut a játék.

Sniper Elite V2 alatt ugyanaz a sorrend, mint kisebb felbontások esetében, csak SSAA-val játszhatatlanná válik. Anélkül viszont bármelyik kártyával elmegy.



Tomb Raider alatt csak sima FXAA-t használtunk, az SSAA-t az eddigi tapasztalataink miatt nem erőltettük. A GTX770 TressFX használata mellett kifogy a memóriából, és valószínűleg ennek volt köszönhető, hogy Lara tincsei csak úgy teleportálgattak jobbra-balra (mondjuk hasonlót már rossz driverek miatt is láttunk régebben, de itt nem ez volt a gond). Ha lemondunk a TressFX szépségeiről, már kezd játszhatóvá válni a játék, de igazán akkor gyorsul be, ha a minőségi beállításokat is megpiszkáljuk. High séma használata mellett még mindig nagyon szép a játék, és a legerősebb kártyák elérik vele a 60 fps-t is. Tökéletes.

A Rome 2 nagyon zabálja a memóriát, maximális beállítások mellett még a 3GB-os kártyák is csak pislogtak, a GTX770 pedig akkor közölte velünk, hogy na jó, elmentek ti a fenébe… A teljesen értékelhetetlen eredmények miatt inkább lejjebb vettük a beállításokat, főleg, hogy nem sok különbség van a VHQ és Ultra között (a közeli képek így is, úgy is elég randák). Így már olyan fps értékeket kaptunk, ami egy stratégiai játékhoz megfelelő, és még 2GB videó memóriában is elfértünk. Igazából ez egy olyan játék, ami teljesen maximumra tekerve is úgy néz ki, hogy érthetetlen számunkra, hogyan képes ennyire leszívni a gépünket.
*dobpergés* Elérkeztünk az összesítésekhez, lássuk, hogy mi történik, ha átlagoljuk a különböző felbontásokon kapott eredményeket. A tizenöt játék azonos súllyal szerepel most is a diagramokon.


Két héttel ezelőtt, 1920*1080-as felbontás használata mellett azt láthattuk, hogy a GTX780 Ti, ha csak minimálisan is, de a mezőny felett állt. Új AMD driverrel, és magasabb felbontásokon ez az előny teljesen eltűnt. Bármelyik diát is nézzük, az R9 290X hibahatáron belül van a GTX780 Ti-hez képest, az R9 290 pedig a TITAN-hoz képest, nagyon kiegyenlítettek az erőviszonyok. Az árak viszont nem, így érdemes vásárlásnál az egyéni preferenciákat is erősen figyelembe venni (ajándék játékok, PhysX, Mantle, Shadowplay, TrueAudio, stb.). Most viszont nem azért vagyunk itt, hogy a különböző kártyák ár-érték arányát elemezgessük, a mai nap nagy kérdése az volt: elegek-e a mostani grafikus vezérlők arra, hogy akár 4K-s felbontáson is játsszunk velük? Nos, a tapasztalataink alapján igen is, meg nem is. A PS3-as / Xbox 360-as konzolgenerációnak hála néhány kirívó esettől eltekintve a játékok hardverigénye egy ideje stagnál, a multiplatform fejlesztés miatt a legtöbb fejlesztőcég nem öl plusz energiát a PC-s változatok polírozásába (tisztelet a kivételnek persze). A grafikus vezérlők azonban szépen erősödtek az utóbbi 7-8 évben is, ezért elérkeztünk arra a pontra, hogy igen, képesek a jelen generáció játékait 4K-s felbontáson is futtatni, legalábbis a legtöbbet. A probléma az, hogy azért már most is van egy maréknyi program, ami nem éri be még egy R9 290X-szel, vagy egy GTX780 Ti-vel sem. Ilyen például a Crysis 3 és a Metro: Last Light. Ezekben a játékokban túlságosan nagy áldozatokat kell hozni a beállítások oltárán ahhoz, hogy élvezhető sebességet kapjunk, és úgy gondoljuk, hogy jövőre, a next gen konzolok térhódításával párhuzamosan egyre több ilyet fogunk látni. Az új gépek ráadásul elég sok memóriával rendelkeznek ahhoz, hogy a fejlesztőknek legyen értelme magas felbontású textúrákat használni és ez kihatással lesz (végre) a PC-s változatokra is. Az már most látszik, hogy 2GB videó memória csak kompromisszumokkal elég ilyen magas felbontásokra, úgyhogy a jövőben tényleg a minimum lehet a 3GB memória, még 1080p-ben is (maximumra tekert játékokkal persze). Összességében, ha jövőbiztos konfigurációt akarunk építeni 4K-s felbontásra, akkor érdemes többkártyás rendszerben gondolkodni. Ahogy viszont az előbb kiestek az alap GTX770-ek a 2GB-nyi memóriájuk miatt, úgy hullik el ezen a ponton az R9 280X, mert a CrossFire híd nincs felkészítve ilyen felbontásokra. Ezért használnak már az R9 290-esek egy újfajta megoldást, aminél nincs szükség a hídra. Két R9 290(X) vagy GTX780 (Ti) már elég lehet ahhoz, hogy kompromisszum mentesen játszunk a jövőben. Hogy hosszútávon melyikük lehet az erősebb, arra van tippünk, de a szoftverek sokszor elég lassan adaptálják az új technológiákat, így egyelőre nem tudjuk, hogy a vélt előnyök mennyire lesznek valósak 2014-ben. A szubjektív faktor: szükségünk van egyáltalán 4K-s felbontásra? Látszik a különbség? A rövid válasz erre a kérdésre is az, hogy igen is, meg nem is, de ez így nem mond el túl sokat, ugye? Hogy az operációs rendszer alatt, munkaasztalként mennyire tudunk élni a nagyobb felbontás adta lehetőségekkel, az csak tőlünk függ, játékok alatt viszont mindenki profitálhat a nagyobb felbontásból, ezért ez az egyik legjobb felhasználási terület jelenleg (egyéb tartalom, pl. filmek híján). A valóság persze itt is árnyalt, ugyanis vannak játékok, amiknek nagyon jól áll a magasabb felbontás, és vannak olyanok, amiknél egészséges távolságból nézve a monitort, nem tudtuk megmondani, hogy éppen 1080p-t vagy 2160p-t nézünk. Reményeink szerint azért a jövőben már inkább olyan játékok jönnek, amik jobban mutatnak nagyobb felbontáson is, mert most elég vegyesek a tapasztalataink. A Battlefield 4 például játék közben mesésen fest, de az átvezetők alacsony felbontása és filmszerű effektje teljesen illúzióromboló két epizód között ekkora méretben. Persze ha már csak multizunk, akkor ilyen problémáink nem lesznek. A kicsit régebbi címek esetében, mint pl. a Mafia 2, nem igazán látszik a felbontás növelésének áldásos hatása. Persze ha belebújunk a monitorba, akkor mondhatjuk, hogy „Ha! Pixel!”, de maximum ennyi.

Ettől függetlenül véleményünk szerint mindenképpen van jövője a nagyobb felbontásoknak, ahogy a mobilok esetében, itt is ideje szintet lépni, csak ne essünk át a ló túloldalára. A 2560*1440-es monitorok már mostanában is elfogadható árszinten vannak, és egy erős kártya elég a kihajtásukhoz. A 4K-s kijelzők még elég drágák, és a technológia is némileg kiforratlan („két monitoros” csatlakozás), de azért akárki sétált el az ASUS PQ321QE előtt, eleresztett egy „hűűűű”-t. Ami persze néha csak annak szólt, hogy micsoda kis körömpiszoknyi méretűek az ikonok a Windows asztalán, de a legtöbb esetben azért ennél többről volt szó :) Az ASUS PQ321QE monitorért, és az R9 280X-ért köszönet az ASUS magyarországi képviseletének, a GeForce-okért az nVidiának, az R9 290X-ért pedig az AMD-nek!
Új hozzászólás írásához előbb jelentkezz be!

Eddigi hozzászólások

65. mrksz22
2013.11.21. 14:56
Hát, végül is csak közel 1 millió az ASUS monitor amin mentek a tesztek.
Aztán még rá kell csapni egy nem éppen olcsó kártyát, hogy mennyenek is alatta a játékok.
Tehát szükség van rá? Persze miért ne, a fejlődés csak jó, de nem az átlag gamernek
 
Válasz írásához előbb jelentkezz be!
64. regener
2013.11.21. 15:00
Ezt kifejtenétek?

"A Rome 2 nagyon zabálja a memóriát, maximális beállítások mellett még a 3GB-os kártyák is csak pislogtak, a GTX770 pedig akkor közölte velünk, hogy na jó, elmentek ti a fenébe…"

Amúgy jó cikk
 
Válasz írásához előbb jelentkezz be!
63. drift3r91
2013.11.21. 15:04
ocsabi,nem védeném a konozlosokat sose vennék,de nézd meg hogy a 4K hoz mennyi pénz kell,meg egy PS4 hez!
140k eg konzol abból még ezek a videókarik is alig jönnek ki és akkor hol a gép többi része.
Jó 300ezres gép kell,hogy menjen a 4K! Ésakkor még a millás megjelenítő,szerintem fölösleges ilyen korán elemenni 4K-ba látható hogy mai játékok bizony könyörögnek a 30FPS-ért és inkább FULL HD 60fps sel,mint 4K 30al.
Egyébként mi az a fél HD? 640*360?
+Nem sok olyan ember van akinek csak HDba maxon menne a BF4!
 
Válasz írásához előbb jelentkezz be!
62. Svindler
2013.11.21. 15:10
regener: instant fagyi, vagy kb. nulla fps és később fagyi Ez volt a 2GB VRAM + 4K-s felbontás + Rome 2 maxon harc végeredménye ^^
 
Válasz írásához előbb jelentkezz be!
61. gumitamin
2013.11.21. 15:23
#drift3r91
És akkor még a fogyasztásról nem is beszéltél.
Egy konzol el van 100Watton. A PC meg (ahol minimum 600Wattos tápokról beszélünk)?
 
Válasz írásához előbb jelentkezz be!
60. ThePoweR gumit...
2013.11.21. 15:33
Valamit valamiért. De nem is az a lényeg, hogy most mi van hanem hogy mi lesz 1-2 év múlva. Konzolokat ugye 5-6 vagy több évre tervezik és már most gondban vannak a FHD felbontással. Persze későbbiekben javulhat a helyzet mikor már megszokják rá a programozást, de addigra már késő lehet, mert FHD felett fogunk járni.
 
Válasz írásához előbb jelentkezz be!
59. hpeter105
2013.11.21. 15:36
ThePoweR: így van, pláne, hogy a FHD már elég "régi" 1440p-meg nem jött be, esetleg munkára... így 2 év és kb 4k megújulás
 
Válasz írásához előbb jelentkezz be!
58. tookmindeg...
2013.11.21. 15:56
Svindler, miért nem windows 8.1? Ott már van high dpi.
 
Válasz írásához előbb jelentkezz be!
57. Svindler
2013.11.21. 16:14
tookmindegy: papíron a Windows 8-ban is van, csak rosszul működik (sőt, már a Win7-ben is volt), és úgy olvastam, hogy a problémák jó része maradt 8.1 alatt is, de majd ki fogom próbálni (pl. irfanview-ban megjelenített képet is széthúzott, pedig azt nem kellett volna). Mivel ez most játékteszt volt főleg, és a 8.1 még elég friss, ezért nem telepítettük fel, megvárjuk míg kap pár patch-et. Az egérkezeléses gondról biztos hallottál pl. azt nemrég orvosolták. Az ilyesmik miatt tartogatjuk későbbre.
 
Válasz írásához előbb jelentkezz be!
56. Szefmester
2013.11.21. 16:29
Na a múlkor a star citizen gépigénynél (ahol a nem butítjuk konzolra dolog is volt), épp mondtam hogy talán a 4 290es amd talán élvezhető teljesítményt mutatna több 4k-s monitoron... úgy néz ki alá is becsültem az enginejüket... Látva hogy egy magányos vga hogy megizzad egy darab 4k-s monitorral...

Az újdonság és az átlagnál jobb teljesítményt mindig meg kellett fizetni. lásd intel procik egymás közt. kétlem hogy a majdnem 300k-s intel i7ese 4x gyorsabb legyen a legolcsóbb i7essel szemben... (nyugi van.. tudom mit jelent az ár/érték kifejezés, nem kell nekem jönni, ez csak példa volt.)
 
Válasz írásához előbb jelentkezz be!
55. LechooEdy
2013.11.21. 16:40
Éljen, a konzolok az 1080pt is nyögvenyelősen jelenítik meg. Ezek után megint a konzolok miatt fogunk rostokolni.
 
Válasz írásához előbb jelentkezz be!
54. fpityu
2013.11.21. 17:09
Én már csak arra leszek kíváncsi, hogy a mantle ezen mennyit javít a radeonokon. Vajon egy mezei r7-es is elviszi 4k-ban a battlefieldet ultrán?
 
Válasz írásához előbb jelentkezz be!
53. ThePoweR fpity...
2013.11.21. 17:24
Kizárt.
 
Válasz írásához előbb jelentkezz be!
52. DogTheDog
2013.11.21. 17:33
A sok konzol fikkanto azert feltolhatna ide egy fizetesi csekk masolatot,csak,hogy legyen alapja a nagyzolasuknak.
 
Válasz írásához előbb jelentkezz be!
51. Terror
2013.11.21. 17:55
Gondolom nem kívánságműsor, de legközelebb lehetne ugyanezt 21:9-es monitorokkal is? Akár monitortesztben, esetleg egy-egy screenshottal a játékokból, hogy hogyan néz ki az ekkora látószög bennük...

A témához visszatérve, 31 hüvelyken ennek mennyi értelme van? A képpontméret a semmi felé konvergál, és nálam már a full hd-n sem látszanak a pixelek, így viszont a kép is nyomorított. Nemcsak a kijelző erősíti a megfizethetetlen kategóriát, hanem ráadásul nem árt mellé két csúcskártya sem, sli/crossfire-ben, hja és a bitang processzor sem árt ugye. Ez eddig a legdurvább pénzszórás, ami úgy hipphopp elénk lett rakva, pedig már láttunk pár dolgot.
 
Válasz írásához előbb jelentkezz be!
50. Corpses74
2013.11.21. 18:17
Atom gépem minden lehetséges http://www.overclock.net/g/a/716980/howto-downsampling-custom-res-2100-x-1314-3840-x-2400-in-dx9-dx10-dx11-with-nvidia-cards-directly-selectable-in-the-game/
 
Válasz írásához előbb jelentkezz be!
49. csabi02
2013.11.21. 18:18
"Egy konzol el van 100Watton. A PC meg (ahol minimum 600Wattos tápokról beszélünk)?"

1.melyik az a konzol?

2.A 650-es TT tápom még soha nem érte el a valós 300w-os fogyasztást sem...
(5870-el)

3.Nem balhéból,de 140ropiért már lehet olyan gépet is össze rakni ami "majdnem" alkalmas a FHD játékra
 
Válasz írásához előbb jelentkezz be!
48. tookmindeg...
2013.11.21. 18:35
Svindler, értem és köszönöm az infókat!
 
Válasz írásához előbb jelentkezz be!
47. Seri22
2013.11.21. 18:53
Az sem érdemes elfelejteni, hogy az nvidia minden játék kijövetele előtt kiad egy új drivert amiben optimalizálják a játékra a kártyát, az amd meg kb kéthavonta.
 
Válasz írásához előbb jelentkezz be!
46. csabi02
2013.11.21. 19:02
Ezt a 4k dolgot nagyon felgyorsították amúgy ,mert nemrég 4k-s monitorokat bemutatta néhány nagy márka 5000€ feletti árcédulával
DE már most a ~130 cm es SONY BRAVIA X9 5400euro...



Valakinek nagyon érdeke az hogy a 4k elterjedjen
 
Válasz írásához előbb jelentkezz be!
45. Szefmester
2013.11.21. 19:08
#16: Minek az neked? A gépem ami a konzolos szintet még vidáman hozza az 2008 májusi tákolmány (felső közép kategória), egy 2011 január végi vga cserével (kényszerből és nem teljesítmény hiányból) ami a mai napig a nekem tetsző újdonságokat is vidáman viszi 1080p-ben maxon (max az élsimi van kilőve), úgy hogy a vga cserével együtt az egész gépem került 240k-ba házastól, egerestől, monitorostól, ssd-stől... Szerintem ezért a teljesítményért nem komoly összeg ahhoz képest amire használom.
 
Válasz írásához előbb jelentkezz be!
44. MJA
2013.11.21. 19:26
"hirtelen sasszeműek lettünk, csak szólni kellett nekünk, hogy akár erre is képesek vagyunk. A cinizmust félretéve, a Retina felbontásoknak van értelme, de lehet, hogy már átestünk a ló túloldalára"

A fent idézet mondat tükrében kérdezem, hogy akkor mi a fenéért kellett a 4K-s felbontás tesztekre AA szűrést beállítani? Az anti-aliasing szűrések az alacsony felbontás miatt keletkező különböző hibák javítására szolgál! Alapvetően pontosan azzal, hogy részben, az éleknél, nagyobb felbontást számol a gpu... abból is egyértelmű, hogy a bevezető szöveg egy marhaság, hogy FHD-ra pakolja mindenki aki tudja az AA szűrést, mert láthatóan javítja a képminőséget. (tehát kevés a FHD felbontás ahhoz hogy ne látszodjanak mindenkinek a korlátai)

tehát:

1. pixeles volt a kép 4k felbontás mellett, hogy még AA szűrés kellett rá? ...akkor meg minek a "túloldalára" estünk át?

vagy

2. "túl jók" lettek volna az eredmények valamivel kellett még rontani rajta?
 
Válasz írásához előbb jelentkezz be!
43. MJA
2013.11.21. 19:38
igen, éppen erre akarok "kilyukadni", hogy hülyeség arról beszélni, hogy nem kell a nagyobb felbontás, hiszen a FHD egyértelműen kevés (24" körül is). (...mégis a fórumban is és a cikkben is megy a savazása a 4k-nak...)
 
Válasz írásához előbb jelentkezz be!
42. kamikazee3...
2013.11.21. 19:52
Ha már a tesztben szerepel a 2560x1440-es felbontás, én csak rákarcoltam volna az első képre, ahol a méretarányok vannak!
 
Válasz írásához előbb jelentkezz be!
41. LechooEdy
2013.11.21. 20:02
csabi02 Igen úgy hívják, hogy haladjunk a korral, fejlődjön a technológia.
 
Válasz írásához előbb jelentkezz be!
40. nemlehet
2013.11.21. 20:03
Az élsimítás nem a felbontás miatt kell... Az azért kell, mert ugye a kép pixelekből rakódik össze, amik tekinthetők rövid vonalakáknak. Vonalakkal nem tudunk tökéletes görbét kirajzolni és ezért nem egyenes "vonalak" recések lesznek. Ezt hivatott csökkenteni az AA, ami elmossa ezeket a határokat, hogy a szem számára ne legyen érzékelhető. Ez jelenség magasabb felbontáson sem tűnik el, csak a recék kisebbek lesznek ezért nehezebb észrevenni őket. Szóval ugyan úgy ott vannak, csak a gyengébb szeműek már nem látják. Persze kérdés, hogy elég kicsik lesznek-e, hogy elhanyagolhassuk az AA-t. Nem tudom, ezt ki kell tapasztalni.

Amúgy számomra meglepő, hogy a játékok többsége simán elfut 4k-n a mai csúcskártyákkal. Eddig arról volt szó, hogy 4 Way SLI kell majd.... Ez azért közel sincs így. Ok, hogy majd next gen (khm... COD:Ghost khm...) nagyobb vasat igényel, de szerintem max 2 év éven belül a közép kategóriás kártyák is viszik majd a 4k-t, ahogy most is viszik a fHD-t.
A konzolokkal meg nem tudom mi lesz, mert a Sony mondta, hogy 4k gaming nem lesz, csak 4k videózás. Ha PC-n néhány éven belül abszolut elérhető lesz a 4k akkor megint csak oda jutunk, hogy a next gen baromira nem éri meg. Igen, 140k-ért sem...
 
Válasz írásához előbb jelentkezz be!
39. csabi02
2013.11.21. 20:09
nem savazom a 4k-t.
kérdés,hogy miért most és miért ez a felbontás?!
ha most is 2csatival kell megoldaniuk akkor legyen 4csati meg 8k...
ezt a felbontást már lassan mobil kijelzőkben elérik.
 
Válasz írásához előbb jelentkezz be!
2013.11.21. 20:11
Az azért kell, mert ugye a kép pixelekből rakódik össze, amik tekinthetők rövid vonalakáknak. Vonalakkal nem tudunk tökéletes görbét kirajzolni és ezért nem egyenes "vonalak" recések lesznek. Ezt hivatott csökkenteni az AA, ami elmossa ezeket a határokat, hogy a szem számára ne legyen érzékelhető. Ez jelenség magasabb felbontáson sem tűnik el, csak a recék kisebbek lesznek ezért nehezebb észrevenni őket. Szóval ugyan úgy ott vannak, csak a gyengébb szeműek már nem látják. Persze kérdés, hogy elég kicsik lesznek-e, hogy elhanyagolhassuk az AA-t. Nem tudom, ezt ki kell tapasztalni.

ez kész... leírtad azt hogy az alacsony felbontás miatt kell az AA.. és a nagyobb felbontás szükségtelenné teszi. A "rece" jelenti azt, hogy alacsony a felbontás... kicsit gondolkozz már...


"ha most is 2csatival kell megoldaniuk"

ez is mekkora bullshit már... egy DP kábel és csatlakozó kell. Egy DP csatlakozó 4db adatcsatornát használ...

régen senki se panaszkodott, hogy a DVI meg két sávos... arról nem is beszélve hogy a single-link dvi is csak FHD@74Hz-et tud, tehát már a 2560*1600 vagy a 2560*1440-hez is kétcsatornás dvi kellett régen is... (most mitől lett hirtelen gáz az, hogy a 4k-hoz meg DP-nek is több sáv kell...)
 
Válasz írásához előbb jelentkezz be!
37. nemlehet
2013.11.21. 20:23
MJA:
ez kész... leírtad azt hogy az alacsony felbontás miatt kell az AA.. és a nagyobb felbontás szükségtelenné teszi. A "rece" jelenti azt, hogy alacsony a felbontás... kicsit gondolkozz már...

Szerintem meg neked nem igazán megy az értő olvasás. De akkor a kedvedért képpel illusztrálva:

Most, hogy tisztáztuk mit is csinál az élsimítás, talán megérted, hogy ha kétszer ennyi pixelből rajzolódni ki a forma, akkor is recés lenne, csak azonos távolságból kevésbé látszana. Az élsimítás, meg elmossa a szélső pixeleket, hogy minél jobban egybeolvadjon a háttérrel. Nagyon nem ugyan az a kettő.
Szerintem a nagyobb felbontás nem váltja ki az AA-t. Persze van akkora felbontás ahol már igen, de arra szerintem a 4k is kevés.
 
Válasz írásához előbb jelentkezz be!
2013.11.21. 20:29
Tudom mit írsz, az AA a "recét" felcseréli "életlenségre", egyik hiba helyett egy másikat ad.

Az egésznek az alapja az, hogy nagyok a négyzetek amikből a tartalom felépül, vagyis alacsony a felbontás, ha szemmel nem látható négyzetekből építed fel a tartalmat (vagyis nagyfelbontással), akkor nem lesz látható "recéd", és éles marad a kép is.

Kezdj már el gondolkozni is!

"Persze van akkora felbontás ahol már igen, de arra szerintem a 4k is kevés."

pont ezt írtam az első hozzászólásomban, hogy nem kellene savazni a 4k-t ha még az AA hatása is látszik rajta, vagy ha mégse akkor feleslegesen terhelték vele a gpu-kat...
 
Válasz írásához előbb jelentkezz be!
35. csabi02
2013.11.21. 20:30
MJA
amit írtam nem bullshit hanem a cikkben szerepel...

" Egyelőre nincs szabványos út arra, hogy elérjük a 60Hz-es képfrissítési rátát 4K-s felbontás mellett, ezért a kijelzőgyártóknak trükköznie kellett. A 3840*2160-as monitorok két 1920*2160-as részre osztják fel magukat logikailag. Ekkora felbontás már mehet 60 képkocka/másodperces gyorsaság mellett egy HDMI kábelen, vagy egy DisplayPort csatornán. Egy DisplayPort 1.2-es kábel azonban több ilyen csatornát is képes kiszolgálni, így ha egy kicsit nyakatekerten is, de megoldható, hogy mégiscsak egy kábelen menjen a 3840*2160@60Hz. A rendszerünk azt fogja hinni, hogy két monitorunk van, de egyelőre nincs jobb megoldás, be kell érjük ezzel, vagy marad a 30Hz (az ugyanis megy egy csatornán), ami maximum csak filmnézésre elegendő."
 
Válasz írásához előbb jelentkezz be!
34. ejcy
2013.11.21. 20:32
Szerencsés ember vagyok, alig veszek észre bármiféle külömbséget a full hd és az ultra között. Szerintem mások se.
De legalább találtak újabb okot hogy egyesek, új tv/monitort/videokártyát vegyenek.
 
Válasz írásához előbb jelentkezz be!
33. Svindler
2013.11.21. 20:39
MJA: az első hozzászólásodban kiragadtál egy részletet a szövegkörnyezetből, ami egyébként az okostelefonok esetében emlegeti a versenyt. Ott pedig már bejelentették, hogy 5,x colon nézhetünk majd 2560*1600 pixelt. Szerinted ez reális szükséglet? (Monitoroknál más tészta, hogy mi kell, de nekem pl. nem hiányzik 21,5 colon a 4K)

A cikkben nem megy a savazása a 4K-nak, de az, hogy nem állunk rá készen, sajnos tény. Se operációs rendszer, se csatlakozási szabvány, se tartalom, se kraft frontján, ha szélesebb körben akarjuk elterjeszteni. A játékok ugye kivételezettek (mint tartalom), mert itt megtehetjük, hogy a tartalmat ekkora felbontásban futtatjuk.

Persze a fő problémád nem is ez volt, hanem az élsimítás. Az aliasing problémája a felbontás növelésével nem szűnik meg, csak csökken, egyre kevésbé vesszük észre (azonos képátlón).

Egyébként, hogy túl jók lettek volna-e az eredmények élsimítás nélkül, azt magad is megnézheted, hiszen 15 játékból 10-nél van olyan mérés, ami semmilyen terhelő élsimítást nem használ (az FXAA erőforrásigénye közelít a nullához), a többiek között meg több is olyan, hogy már élsimítással is hoztak kellő fps számot, így nem éreztem szükségesnek a plusz tesztelést. Nem kéne összeesküvés elméletet keresni, ott ahol nincs, főleg, hogy idéznék a cikkből:
"...csak kapcsoljuk ki az élsimítást. A GTX770 megtáltosodik tőle, mert így nem fuldoklik a memória hiányában, és igazából 4K mellett nem annyira létszükséglet az AA, ha valamin spórolni akarunk, érdemes ezt előrevenni a listán."

Úgyhogy peace

Terror: bevallom őszintén nem gondoltam (sőt, gondolom), hogy a 21:9-es képarány iránt sokan érdeklődnének, sok felhasználásra nem előnyös. Sebességben nem nehéz belőni, valahol félúton lehet a Full HD és az 1440p között, de a látószög jó kérdés, én kicsit tartok is tőle, hogy sok játék hibásan kezelné, és nem mindenben lehet állítani a látószög mértékét. Nem sűrűn kerül hozzánk ilyen monitor, de ha legközelebb kapunk egyet megnézem pár játékkal, hogy mi a helyzet vele. Időpontot nem tudok ígérni most, de előbb-utóbb sort kerítünk rá.
 
Válasz írásához előbb jelentkezz be!
2013.11.21. 20:41
ez csak elektronikai megvalósítás... kit érdkel? Mikor egy DP port elegendő sávszélességű, és akár egy tucat megjelenítőt is kezelhet... (igen nem kettőt, hanem rengeteget)

ez az osztott képernyőfelbontás extraként lehet benthagyva... és sikerült idióta módon negatívumként beállítani. (még 2560*1440-es vagy 2560*1080-as megjelenítő is lehet osztott képernyős módban, persze ott extra funkció )
 
Válasz írásához előbb jelentkezz be!
31. Svindler
2013.11.21. 20:45
csabi02: csak HDMI esetén kell két kábel, mert DisplayPorton daisy chain elven több monitor is felfűzhető, ebben az esetben két virtuális

MJA: azért a Dual-Link DVI-t szvsz nem érdemes a mostani helyzettel hasonlítani. DL-DVI esetében az operációs rendszered nem lát két monitort, a mostani daisy-chaines módszer mellett viszont igen. Ezt előbb-utóbb (valószínűleg előbb) meg fogják oldani, hiszen csak szabványosítani kéne az egészet, de egyelőre ez nem történt meg.
 
Válasz írásához előbb jelentkezz be!
30. Terror Svind...
2013.11.21. 20:46
Svindler - nemcsak jómagam, de a környezetemben több ember is gondolkodik ilyen vásárlásán, habár a kínálat nem túl nagy egyelőre, viszont a többmonitoros rendszerrel szemben nagy előny, hogy a monitorok keretei nem osztják szét a képet és filmnézéskor is kapóra jön, hogy pont akkora a monitor, mint a kép. Szvsz ha három monitorral okés a látószög a játékokban, akkor egy 21:9-es esetében sem kell gond legyen, csak még nem láttam élőben ilyet sajnos.
 
Válasz írásához előbb jelentkezz be!
29. csabi02
2013.11.21. 20:52
Vágom,hogy mit tud a DPport de ott a lényeg ,hogy hiába 1kábelen kötném rá ,akkor is 2nek kezeli az 1db 4k kijelzőmet...
 
Válasz írásához előbb jelentkezz be!
28. Svindler
2013.11.21. 21:08
Terror - elvileg nem kéne, de én hiszek a lusta programozókban A többmonitoros rendszerek se mentek rendesen az első naptól, rengeteg probléma volt velük. Egy próbát mindenesetre megér a kiderítése, ahogy tudok, sort kerítek rá.
 
Válasz írásához előbb jelentkezz be!
27. enisherpa
2013.11.21. 21:12
Annak idején, amikor programozás tanfolyam után elindítottuk az első játékot C+4-en (Formula One), elállt a lélegzetem a megdöbbenéstől. Sokkolt a 320x200-as, fekete-fehér grafika. (A Junoszty monitorok között nem találtunk színest)

Aztán alig bírtam szavakba önteni, amikor ZX-Spektrumon, 256x192, 8 színű paletta mellett játszottunk "Észak Dél ellen"-t. A 3 FPS elfogadható kompromisszum volt a színekért cserébe.

Enterprise 128, 320x256, 16 színű, menet közben cserélhető paletta, szaggatás nélkül. Elképesztő volt a váltás.

Később jött az első PC-m. Egy ideig 640x480 8 bit. Óriási előrelépés. Később vettem egy 512 kB-os RAM bővítést az S3 Trio 64v+ kártyámba, hogy vigye a 800x600 high color-t, 43 Hz interlaced mellett. Sokkal szebb lett.

Gép csere után 1024x768, 32 bit, 60 Hz. Szebb lett, és a szemem is kevésbé fáradt. 85 Hz-en még kevésbé. Most 1360x768, 60 Hz-nél tartok, és nem bántam meg. Valamivel jobb. Közben lecseréltem a 17" monitort 32"-osra.

Gyűjtöm a pénzt, jövőre -ha összejön- váltok full HD-re. Nézegettem gépeken, és nagy különbséget nem látok az 1360x768-hoz képest. Sokat nem várok ettől, de a meglevő monitorom támogatja, az új konfig meg bírni fogja..

Ez a 4K viszont kicsit erőltetett. Sasszeműek talán észrevesznek valamennyi javulást, de én inkább fizetnék magasabb monitor képfrissítésért. Inkább 100 Hz fullHD, mint 60 Hz 4K.
A felbontás növelésével egyre kevesebb plusszt kapunk, egyre növekvő árért. Mennyi az elég?
 
Válasz írásához előbb jelentkezz be!
26. szmt
2013.11.21. 21:20
Én csak csöndben szeretnék gratulálni a cikkhez.

Ilyen konfigot ma egy átlag ember nem engedhet meg magának, és Svindler elég geeknek és perverznek (sorry...) látszik ahhoz, hogy ilyet a kezébe kapva, élvezettel tesztelje. Ez mind lejött abból, ahogy ír a tesztről. Nem sablonszöveg, csorog a geek-nyál, ahogy olvasom, van ez a "bárcsak-ln-is-láttam-volna" érzés.

Öröm volt olvasni Thx

 
Válasz írásához előbb jelentkezz be!
25. csabi02
2013.11.21. 21:21
"A 3 FPS elfogadható kompromisszum volt a színekért cserébe."
ezen jót röhögtem...
 
Válasz írásához előbb jelentkezz be!
24. Magrathea
2013.11.21. 21:33
enisherpa: Elmorozsoltam egy könnyet.
 
Válasz írásához előbb jelentkezz be!
23. enisherpa
2013.11.21. 21:39
csabi02: Első alkalommal tényleg körbesétáltam a monitort, hogy hát izé.. mi ez? ezen színek vannak? Később nekünk is lett színes televíziónk. Hónapokig játszottunk egy játékkal. [LINK]

Az S3 trio még megvan. Pár éve gép újításkor nem volt pénzem videokártyára, egy ideig használtam. Szerintem még ma is működik.
 
Válasz írásához előbb jelentkezz be!
22. sjacint
2013.11.22. 00:36
képpont távolságokat kellene kiszámolnotok

anno valahol 0,15mm körül volt az alja a crt-nél, mai nekem volt az volt 0,17 mm
most hol járunk?
És anno is recés volt.
szal nekem a 4k max akor jó ha az 20"-on megvan
30-36-ra meg már 8k kellne.
szerintem.
ja igen nem értek hozzá de a sima rgb csati ami analóg volt az is átvitte a jeleket. most mér nem jó az ?

 
Válasz írásához előbb jelentkezz be!
21. Cannapeace
2013.11.22. 02:32
Ha már UHD akkor jokis OLED kijelzős legalább de gondolom LCD csak. Esetleg kontra CRT kiváncsi lennék melyik jobb 60Hz-en kép minőségben, után huzása van-e ennek mint a legtöbb lcd-nek. Inkább gyártanának CRT-t azt még vennék is most is az van 2003as.
 
Válasz írásához előbb jelentkezz be!
20. csabi02
2013.11.22. 08:36
enisherpa,ocsabi:
Eléggé szigorú képek...

nekünk commodore volt,meg Atari 2600as



Az atarival csak az volt a baj,hogy sokszor beszart és kb 2hetnte javítani kellett...
 
Válasz írásához előbb jelentkezz be!
19. Stormrage
2013.11.22. 08:53
a video vezerlok meg nem allnak keszen a 4k-ra... foleg, hogy ezen vezerlok nagyresze 120,000 forint vagy folotte van.
 
Válasz írásához előbb jelentkezz be!
18. bitangue
2013.11.22. 12:03
nekem személy szerint a 16:10 jobban bejön, mint a 16:9. magasabb felbontáson már teljesen el lehet felejteni a 16:10-et?
 
Válasz írásához előbb jelentkezz be!
17. Svindler
2013.11.22. 15:23
szmt: köszi

bitangue: Ha a magasabb alatt 4K-ra gondolsz, akkor igen. 2560*1600-as monitorok nemrég még kaphatóak voltak, mára csak a 30 colos kategóriában vannak ilyenek, és azok nem túl olcsók. Pl. HP ZR30W
 
Válasz írásához előbb jelentkezz be!
16. Szoftverde...
2013.11.22. 16:17
30" 2560*1600, azért jelenleg kikell h. elégítse efajta igényedet.
 
Válasz írásához előbb jelentkezz be!
15. csabi02
2013.11.22. 20:04
Az milyen durva,hogy ami 3hete 5400€ volt 4k-s TV ma már 4300€...
 
Válasz írásához előbb jelentkezz be!
14. Zizi
2013.11.22. 20:24
Hehe :-) És én naív azt hittem, hogy veszek egy 1440p-s monitort, aztán majd csak úgy rákötöm a 7950-esemre és vígan játszogatok rajta. Hát, nem.
 
Válasz írásához előbb jelentkezz be!
13. Svindler
2013.11.22. 21:43
Zizi: ha egy kicsit engedsz az élsimításból, és maximum helyett beéred csak szimplán magas beállításokkal, akkor azért elég sok mindenre elég az a 7950-es
 
Válasz írásához előbb jelentkezz be!
12. hympyke
2013.11.22. 22:20
Vesszük itt az erősebbnél erősebb hardvert a szarabbnál szarabb játékokra...
 
Válasz írásához előbb jelentkezz be!
11. Zizi
2013.11.22. 23:32
Svindler: á, amit én szoktam játszani (Starcraft 2, Heartstone, Baldur's Gate Enhanced Edition mostanában), ahhoz igazából nem kell igazán erős videókártya. Viszont monitort tényleg kéne vennem, hónapok óta halogatom, de ma ismét sikerült lebeszélnem magamat a Dell U2713HM-ről azzal, hogy sok teszt szerint zümmög, én meg csendeset akarok, ha már a gépemnek sincs hangja...
 
Válasz írásához előbb jelentkezz be!
10. Talent15
2013.11.23. 00:06
Jó dolog a 4k, csak nagyméretű kijelző kell hozzá, hogy a különbség észrevehető legyen a FHD-hoz képest.
 
Válasz írásához előbb jelentkezz be!
9. Phantomstr...
2013.11.23. 00:19
27" körül már egész csábító lenne ötödennyiért.
 
Válasz írásához előbb jelentkezz be!
8. enisherpa
2013.11.23. 11:09
Ha az emberi szem felbontóképességénél (pixeleket egyesével látjuk) 4x nagyobb pixelsűrűséget akarunk, azaz mostanában szokásos méretű monitoroknál HD Ready helyett 4K-t a recésség miatt, akkor:
- a monitor frekvenciát illene az agyunk max. kb. 30 Hz-es üteménél négyszer nagyobbra venni, 120 Hz-re
- kellene a minimum 120 fps, különben szaggat
- a hallásunk kb. 24 kHz-et bír, szóval valós fizikán alapuló binaural 3D hangzást kérek 96 kHz-es mintavétellel

Ekkor lenne nagyjából egálban a hang és a videó minősége. Ehhez már csak szagokkal ellátott force feedback-es VR sisak kell, és indulhat a FIFA box 2000. Vagy az interaktív online 3D-s társkeresés , egyszerre akár 64 résztvevővel.
 
Válasz írásához előbb jelentkezz be!
7. MZperX75
2013.11.23. 16:56
enisherpa -

"Ehhez már csak szagokkal ellátott force feedback-es VR sisak kell, és indulhat a FIFA box 2000. Vagy az interaktív online 3D-s társkeresés , egyszerre akár 64 résztvevővel."

Beteges!

MÁS:


Konkrétan ,ti konklúzióban ,akkor most mit is vontok le?

Mert egy olcsóbb kártya gyorsabb,...akkor "te" nem tudsz dönteni,meg hogy ne nézzük az ár teljesítmény arányt,ezért nem ajánlasz ezen NVidia reklámoktól nyüzsgő oldalon AMD-t?

A teszt reális jó,de utána amit írtok.............,az elfogulatlan és objektív? NEM az.

Egyértelmű a teszt győztese az AMD 290X, mert olcsóbb és nagyobb felbontásban gyorsabb.


Ma amit az Nvidiától érdemes lenne megvenni az a GTX650Ti boost 35ezerért.


 
Válasz írásához előbb jelentkezz be!
6. szacsee
2013.11.23. 18:52
Kösz a tesztet!

Szubjektív véleményem az, hogy 24" felett lehet hogy szükség van nagyobb felbontásra.
Elsőre viszont a játékfejlesztőket kellene elővenni.
Ha megnézünk egy részletgazdag és éles képet, ami megfelelő minőségben készült, akkor 1920x1080-as felbontásban 23-24"-ig elegendő kell hogy legyen.
Full HD monitorra váltás után kis naívan azt hittem, hogy nem kell élsimítást használni, mert ekkora felbontásnál az akkor még nagy pixel sűrűségűnek számító kijelzőn minden tűéles lesz. Nem így lett, gondolom sok játék elkészül egy adott felbontásra optimalizálva és nagyobb felbontásnál felskálázza a képet. Többit pedig az AA és társai elintézik. (előző gen konzolok 720P-ben domborítottak @ HD Ready felbontásban, a játékok zöme pedig konzolport)
Nagyon sokszor motion blurral oldják meg a gondot, így pl autós játékoknál a teljes képfelület 1/3-1/2 éles felület. Mellette az optimalizáció hiánya még ráteszi a pontot. Egy szó mint száz, üdvözlendő a gyártók próbálkozása, ami egy újabb "trükk", hogy végy új monitort (pl 3D után) viszont játékoknál kb semmit nem fog hozni, mert amelyik játék szarul nézett ki 2x élsimítással Full HD-ban az nem fog tündökölni 4K-ban sem.
Itt egy kép ami valós fénykép és mindenki döntse el maga, hogy ha normálisan a PC játékok mellé állnának a fejlesztők akkor hasonló minőségi grafikával ellátott játékban készült képpel nem lennének-e elégedettek.... ja és nem RAW, BMP, hanem jpeg képről van szó (képpontsűrűséget nézve vizsgáljátok a részletgazdagságot megfelelő távolságból (játék közben sem 10cm-re ülsz a monitortól):
[LINK]
 
Válasz írásához előbb jelentkezz be!
5. Svindler
2013.11.24. 14:26
MZperX75: Már megint ezek az nVidia reklámok... nem igazán értem miért ne lehetnének az oldalon azok. Az AMD-nek is nyitva a lehetőség, ha szeretne reklámozni, megtehetné. A cikk értékelésébe semmit sem szól bele, hogy éppen ki futtat reklámot az oldalon.

Ahhoz, hogy győztest hirdess, ezer apróságot át kell világítani, aminek a nagy része (hogy kinek mi számít), egyéni preferencia. Pl. az nVidia kártyák mellé már most kapsz annyi játékot ami kiegyenlíti az árkülönbözetet. Ha ezek Neked nem kellenek, akkor természetesen ez nem számít. Az AMD esetében még nem számolhatok a játékokkal, mert egyelőre csak ígéretet kaptunk, de kuponokat nem, úgyhogy majd meglátjuk mit hoz a jövő. Sebességre kb. ugyanazt nyújtja a két megoldás, de hosszútávon a Radeon 4GB memóriája és a Mantle lehet előny, plusz a konzolok miatt talán a GCN architektúra. De ezek mind olyan dolgok, amik tele vannak "talán"-okkal, még nem tudjuk mit hoz a jövő. Már régebbi Radeonoknál is meg voltam győződve róla, hogy de sokat fog érni a technológiai előnyük, de mire kijöttek olyan szoftverek, amik ki is használták azt, már két generációval arrébb jártunk... Jövőállóbb a Radeon, ez tény, csak kérdés, hogy a sebessége elég lesz-e a jövőben. Mert ha nem, akkor meg mind1 (4K-n persze, 1080p-re ez még nagyon sokáig elég lesz).

Tehát a jövőbeni vélt előnyöket valósnak nyilvánítanom _most_ nem lenne túl objektív a részemről. Plusz amit nagyon sajnálok, de sajnos nem fért bele az időbe, hogy megnézzük 4K-n, hogy muzsikál az új CrossFire az SLI ellen. Az nV-nek meg vannak már most is használható előnyei, mint pl. a PhysX (megint csak ha számít valakinek) és a Shadowplay, ami valószínűleg jóval több embert érint, mint a PhysX. Hardveres enkóder a Radeonban is van, de amíg nincs rá szoftver amivel egyszerűen kihasználhatnánk, addig kb. mindegy. A saját prió listám alapján nekem pl. egyértelmű, hogy _én_ melyiket venném, de szerintem a fentiek alapján nem lehet kijelenteni, hogy az egyik egyértelműen mindenkinek jobb választás lenne a másiknál.
 
Válasz írásához előbb jelentkezz be!
4. kravo
2013.11.25. 14:03
Azt hiszem én várok még 4-5 évet UHD-s monitor beszerzésével. Talán addigra olcsóbbak is lesznek, és lesz olyan gpu, ami elérhető áron akár 2-3 évig is jó teljesítménnyel tudja tolni a pixeleket a monitorra.

Persze az is lehet, hogy 4-5 év múlva már nem fog érdekelni ez az egész.
 
Válasz írásához előbb jelentkezz be!
3. PRO_St4rS
2013.12.12. 17:31
http://www.tweaktown.com/news/33502/nvidia-shows-off-4k-surround-technology-a-huge-6480x3840-resolution/index.html
4K feletti élet
 
Válasz írásához előbb jelentkezz be!
2. Mist
2013.12.22. 13:32
Amit meg lehet csinálni, nem biztos hogy meg kell csinálni.
Figyelembe kell venni az ember szemének fizikai korlátait.
Ez olyan lesz mint a Blu-Ray disk.
Lesz belőle néhány, de a tömegek nem fogják venni.
 
Válasz írásához előbb jelentkezz be!
1. Fada Mist
2014.01.03. 08:43
Nézz meg egy VALÓBAN minőségi (nem felskálázott dvd-forrású...) Blu-Rayt és soha többet nem akarod majd lejjebb adni (a 1080p-s BR-RIP-ekről ne beszéljünk, az originált nem érik el természetesen minőségben). És a hang még jobban veri a DVD-t. Kb. 2000 forinttól már egészen jó használt lemezeket lehet kapni, még arra sem lehet fogni, hogy drága.

Az igaz, hogy a DVD-hez képest lassabban terjedt el. Az, hogy itt nálunk a harmadik világban nem veszik tömegek, nem jelenti azt, hogy máshol sem.

A szemed fizikai korlátai nagyon nem itt vannak. Normális esetben.
 
Válasz írásához előbb jelentkezz be!