iPon Hírek

Támad a Polaris: lehullott a lepel az új AMD videokártyáról

Dátum | 2016. 06. 01.
Szerző | J.o.k.e.r
Csoport | FŐ EGYSÉG

Az AMD magyar idő szerint ma hajnalban megtartotta várva várt bemutatóját, amelynek keretén belül több érdekességről is szó esett. Ezek közül a legnagyobb hírértékkel talán a frissen bejelentett, mindössze 199 dollárba kerülő Radeon RX 480 bír, amely június 29-én válik elérhetővé kereskedelmi forgalomban.
Az új videokártya az előadáson elhangzottak alapján Polaris alapú GPU-val érkezik, amelynek fedélzetén 36 CU lesz, azaz összesen 2304 stream egységgel gazdálkodhat. A GPU pontos típusát még nem árulták el, de alighanem Polaris 10-es modellről lehet szó. Az viszont nem titok, hogy a GPU mellé 4 vagy 8 GB-nyi GDR5-ös fedélzeti memória kerül, ami 256-bites memória-adatsínen keresztül kapcsolódik, effektív órajele pedig 8 GHz lesz.
A GPU órajelét egyelőre homály fedi, hiszen az AMD csak annyit árult el, hogy 5 TFLOP/s felett lesz az egyszeres pontosságú számítási teljesítmény, ami 1,08 GHz feletti boost órajelet jelenthet. A GPU a GlobalFoundries gyárában készül, méghozzá 14 nm-es FinFET gyártástechnológiával, az architektúra pedig GCN4-es lesz, de az egyelőre rejtély, hogy pontosan mennyi textúrázót, illetve renderelő egységet állíthat csatasorba. A TDP viszont már ismert: 150 watt lesz. Ez majdnem a fele egy R9 390-es TDP-jének, és körülbelül annak a sebességét hozhatja majd a kártya, ha a kisebb memória-sávszélesség nem fogja zavarni (ráadásul jóval olcsóbban).
A DirectX 12 és Vulkan API támogatással egyaránt rendelkező videokártya kiváló választás lehet VR felhasználásra és az AMD GPUOpen kezdeményezését is támogatja. Teljesítményével kapcsolatban egyelőre csak annyi derült ki, hogy két darab Radeon RX 480 az Ashes of Singularity tesztben jobb eredményt ért el, mint az Nvidia aktuális egy GPU-s csúcskártyája, a GeForce GTX 1080, együttes áruk azonban csak 400 dollár, szemben a GTX 1080 599 dolláros alapárával, míg a Founders Edition modellek ugye 699 dollárba kerülnek. Nyilván nem mindenkinél opció a két videokártyából álló rendszer építése, de ez akkor is érdekes adalék.
A most még homályos részletekről június 29-én hull le a lepel, sőt, azon a napon újabb Radeon RX sorozatú videokártyák is érkeznek, amelyek a 100 és 300 dollár közötti szegmensben szállnak harcba.
Új hozzászólás írásához előbb jelentkezz be!

Eddigi hozzászólások

222. thestock
2016.06.01. 06:25
Ha van valóság alapja annak amit állítanak azt hiszem megvan mivel lepem meg magam karácsonyra
 
Válasz írásához előbb jelentkezz be!
221. kistoth thest...
2016.06.01. 06:38
Ennyiért? Azt mondanám nincs alapja sajnos
Bűzlik az az árcédula
 
Válasz írásához előbb jelentkezz be!
220. Svindler kisto...
2016.06.01. 06:46
Nem feltétlenül. Az AMD nagyon sok piacot vesztett az utóbbi években, így neki kell először meglépnie, hogy jobb áron ad ugyanolyan kraftot, vagy fordítva, egy adott árszinten érezhetően több kraftot mint ami eddig volt. És a középkategória jó belépő lenne erre. Szerencsére pár hét, és megtudjuk mi a helyzet.
 
Válasz írásához előbb jelentkezz be!
219. XuChi
2016.06.01. 06:59
Ha ez nálunk nem lesz drágább 80000Ft-nál, akkor meg is van mire váltom le a kiöregedett gtx 770-et
 
Válasz írásához előbb jelentkezz be!
218. thestock kisto...
2016.06.01. 07:03
Miért is nincs? verziótól függően 70k körül adnak majd egy olyan kártyát aminek alacsony a fogyasztása,jó a támogatása,és egy jelenleg 110 ezres kártya teljesítményét tudja. FHD monitorom van, szerintem ilyen felbontáshoz elég ez a teljesítmény.
 
Válasz írásához előbb jelentkezz be!
217. tr4k4n thest...
2016.06.01. 07:09
és ez így szokott lenni nem? kijön egy új kártya ami erősebb mint az előző, kevesebbet fogyaszt és még olcsóbb is, aztán majd bilibe lóg a kezed
 
Válasz írásához előbb jelentkezz be!
216. ChoSimba
2016.06.01. 07:23
Ó, ez remek azt hittem drágább lesz. Ennyiért szerintem teljesen rendben van. Ebből tuti rengeteget fognak eladni.
És itt jön egy érdekes pillanat, ha a 1060-as csak 6GB memóriával jön ki (egyszer majd talán), akkor nem adhatják ennél többért. Az sem lehet ennél lényegesen gyorsabb, ez ugye a gtx970 teljesítményszintje körül mozog.
 
Válasz írásához előbb jelentkezz be!
215. Buky87
2016.06.01. 07:30
Nagyon kíváncsi leszek ezekre. Nézelődök már mi legyen a 270x utódja.
Szépen hangzik a 200 dollár csak nálunk sajnos nem ennyi lesz. Szerintem örüljünk ha 90.000 forint körül megáll. Sőt még azt sem tartom kizártnak hogy a custom hűtős kártyák meg 100.000+ lesz. Sajnos elcsúszott a középkategória ár is. Talán megjelenés után egy évvel áll majd be 75-80.000 forint körül.
 
Válasz írásához előbb jelentkezz be!
214. kistoth Svind...
2016.06.01. 07:31
Meg nyereséget sem igazán produkált, ha meg már a zsír új kártyánál gatyaletolós árat alkalmaznak abból nem lesz befektetői bizalom.
2015 4. negyedévében zsugorodó bevétel mellett volt némi profit de az egész évet nézve így is veszteséges volt.

Az ár ettől függetlenül lehet igaz, sőt valószínű az az igaz, a teljesítmény adatokat meg pofátlanul túllőtték.


thestock:
Persze hogy elég lehet, de azok a számok erre az árkategóriára még csak közelítőleg sem húzhatók rá, ami valamelyik oldalon csúsztatást feltételez. (vagy az ár lesz magasabb vagy a teljesítmény gyatrább)
Ettől függetlenül neked - vagy nekem - lehet hogy elég lesz.
 
Válasz írásához előbb jelentkezz be!
213. Svindler kisto...
2016.06.01. 07:39
Hát nekem van egy tippem, hogy a 200 dodó, az a 4 gigás változat. A nyák sokkal olcsóbb, mint egy R9 390-nél (egyszerűbb VRM, csak 256 bites memsín), kevesebb mem (a 200 dollárosnál) és nem utolsó sorban olcsóbban gyártható GPU, olcsóbb hűtéssel. 310 dodó most odakint egy R9 390, szóval én tartom, hogy ez elég reális ár lehet, még nyereség mellett is piaci pozíció szerzésre. De kerek négy hét múlva már sokkal okosabbak leszünk
(egyébként én 70k körülire saccolom a hazai árat, lehet az első 1-2 hétben lesz 80 is).
 
Válasz írásához előbb jelentkezz be!
212. Flegeton
2016.06.01. 07:52
Nem tudok elsiklani a felett, hogy két kártya hozta a 1080as teljesítményét 1 játékban.
Sajnos tapasztalatom szerint (r9 290 cf) elég kevés játék profitál az amd kártyákból és a cf jéből. Az opengl-es játékokat ne is említsük.
Azt kell, hogy mondjam aki játszani szeretne az nvidiat vegyen.
Más programok is jobban elvannak nvidias dolgokkal.
 
Válasz írásához előbb jelentkezz be!
211. zamballa
2016.06.01. 08:03
Itt a pénz beszél.
Hiába a top az Nvidia de kinek van 250-300EFt ja rá?!
Aki nem milliomos az megelégszik a jóval is.
A mai viszonylatban 100EFt is nagy pénz.
 
Válasz írásához előbb jelentkezz be!
210. Szefmester
2016.06.01. 08:05
Ha neked az számít kitől veszed...

Én kifejezetten örülök ennek a hírnek, és úgy is örülök hogy ha nem tudjk betartani az ígéreteiket, és csak kevesebbet tudnak adni. Az új VGA generációból nekem a 1070-1080 pocokméreg árú, monitorom is "csak" fHD, jó lesz nekem ez is. 6870-esem van, az többet is fogyaszt, gyengébb is...

Az árérzékenyebbeknek ez a kártya még így is jó lesz.
 
Válasz írásához előbb jelentkezz be!
209. s_otto
2016.06.01. 08:20
Ez is elég kemény paper launch. Junius 29-én megjelenik talán, akkor július elején lehet itthon is kapni nagy valószínűséggel.

Várjuk a teszteket, mert ez így elég kevés információ, az órajel is elmarad a sokak által vártaknál. Az ígérgetéseket ismerve ha fele a fogyasztása a 390-nek akkor a teljesítménye sem fogja elérni azt.

Ráadásul a 200 dollár szinte biztos a 4Gb-os változat. És az új kártya körüli hype itt is nyomja majd fel a magyar árakat.

Dícséretes hogy két kártya ashes-ben beéri a konkurencia csúcskártyáját, hiszen az ashes-t pont ilyen hírekhez íratta az AMD. Ráadásul ugye ez is belsős mérés, amit kezeljünk fenntartásokkal.
 
Válasz írásához előbb jelentkezz be!
208. AgeOfVampi...
2016.06.01. 08:28
Na, kéne még 1-2 nagyobb teljesítményű verzió hasonló szellemű árazásban (és TDP-vel), és akkor örülünk
 
Válasz írásához előbb jelentkezz be!
207. ChoSimba s_ott...
2016.06.01. 08:29
De ez 16nm, nem 28nm, szóval lehet ugyanakkora teljesítmény fele fogyasztás mellet.
A 200 dodó a 4GB-os, a 8GB-osra 230$-t rebesgetnek.
 
Válasz írásához előbb jelentkezz be!
206. Phantomstr... Szefm...
2016.06.01. 08:34
Jelenleg tőlük szokatlan módon nem ígérnek betarthatatlant. Gyakorlatilag annyit, hogy az R9-390 és 390X/nano teljesítményét egy kategóriával lejjebb hozzák. Ez úgymond a rutin, ha ezt nem tudják betartani, már most elcsúszták a generációt.
 
Válasz írásához előbb jelentkezz be!
205. s_otto ChoSi...
2016.06.01. 08:39
A polaris 14nm.

A fele fogyasztás igaz lehet a dupla teljesítmény nem, főleg a cikkben levő órajellel.

 
Válasz írásához előbb jelentkezz be!
204. Szefmester Phant...
2016.06.01. 08:47
Ezzel én tisztában is vagyok. Technológiai ugrás, miegymás miatt tartható a dolog. De ha mégsem, már akkor sem lesz gyenge. Fejlődjön csak 30-50%ot a 380-hoz képest és már jól csinálták ha azonos áron adják.
 
Válasz írásához előbb jelentkezz be!
203. Chrematori...
2016.06.01. 08:55
Ez mind szép és jó, de az meglep, hogy itt is miket említenek teljesítmény terén, kíváncsi leszek az erejére, ha kikerül a polcokra
Mellesleg elég érdekes hűtő, nem tudom mért, de rögtön az R9 290 jutott eszembe, talán annak a halk neszét is hozza magával? :'D
https://www.youtube.com/watch?v=xlQokQsbKlc
Ui.: AOS ban utoléri a GTX 1080 at, ezt azért csodálom, viszont AMD s benchmark nak számít, olyan tesztet mutassanak fel, ami független, pl 3DMark Fire, Unigine Heaven, stb.
 
Válasz írásához előbb jelentkezz be!
202. Fzoltan
2016.06.01. 08:58
Akkor itt sem lesz nagy ugrás IPC-ben... várom a Vegát és az 1080Ti-t...
 
Válasz írásához előbb jelentkezz be!
201. Fzoltan Chrem...
2016.06.01. 08:59
AoS mitől AMD-s? Azért, mert DX12?
Hitman AMD-s? Ott brutális az AMD előnye.
 
Válasz írásához előbb jelentkezz be!
200. rini
2016.06.01. 09:01
Miért ne lehetnének ezek az adatok hitelesek? Szerintem azok. Az árát egyértelműen a piacszerzés határozza meg. Az elöző generáció energia kezelése borzasztó rossz volt. Ez volt az oka annak, hogy az NV termékek elég rendesen lenyomták őket eladási mutatóban. Biztos, hogy rá is feküdtek annak javítására amikor megtervezték ezeket. Ráadásul a fejlettebb gyártástechnológia is a kezükre játszott. Még így is meglátásom szerint nagyobb fogyasztással fog érkezni mint az NV kártyái. Lásd az 1080 175 wattját és ennek pedig 150 watt. Holott teljesítményben ég és föld a különbség a két kártya között. Én a magam részéről teljesítményben úgy 10-15%-al várok többet mint a 390/x kártyák. Ráadásul ha jól sejtem akkor pozicionálása éppen oda esik ahol az NV-nek nemigazán lesz kártyája mert az 1070/80 gyorsabb az 1060 még nincs, ráadásul az várhatóan a 970/980 közötti vagy körüli teljesítmény közé fog beérkezni. Szóval én elhiszem ezeket az adatokat.
 
Válasz írásához előbb jelentkezz be!
199. Fzoltan rini
2016.06.01. 09:07
Igen, nekem is ez a furcsa, hogy az 1080 elvan 160-180 wattból, a Polaris meg nem kér sokkal kevesebbet, de jóval kisebb a teljesítménye - bár azért a 390X +10% azért nem kevés.
Ha valóban 70 körül fog mozogni, akkor simán bestbuy lehet.
 
Válasz írásához előbb jelentkezz be!
198. ZS3NI
2016.06.01. 09:16
70k-ért instant megveszem.
 
Válasz írásához előbb jelentkezz be!
197. s_otto Fzolt...
2016.06.01. 09:31
Nos igen, elindult. A cikkben még azt írták, elérheti a 390 teljesítményét, Ti már azt írjátok 390x + 10%-is hihető. Hogyne, persze. Másik oldal híreivel, találgatásaival szemben nem voltatok ennyire pozitívak.

Tényleg brutál az AMD előnye
[LINK]
 
Válasz írásához előbb jelentkezz be!
196. ftibor1990
2016.06.01. 09:36
Szinte kizárt, hogy ez 80k alatt legyen itthon. ~200usd (valószínűleg ugyan ennyi €) a referencia modell amit mondtak, gondolom a custom hűtős változatok még egy +20-30$-t dobnak majd az áron. Ha ezt itthoni valutára átváltjuk, eleve nem áll meg az ár 80k huf alatt.

Ref. átszámítva: 200€ x 1.27 = ~80.000huf. Ez a 4gb-os változat, tehát valószínűsíthetőleg ez lesz a legolcsóbb elérhető ár... (Bár még úgy is olcsóbban kapja meg a vevő a teljesítményt a mostani modellekhez képest)
 
Válasz írásához előbb jelentkezz be!
195. Whysper
2016.06.01. 09:38
70k-ért megvárom!

Viszont már látom a jövőt. --- mennyi szörnyűt hír é scomment fog jönni a Zen és a Ati kártyák megjelenéséig é sutánna ---
 
Válasz írásához előbb jelentkezz be!
194. Fzoltan s_ott...
2016.06.01. 09:39
A Polaris 10-re mindig is azt mondták, hogy valamivel 390X fölötti teljesítménye lesz. Én személy szerint Fury X teljesítményre számítok Polaris 10 esetében, ehhez illene a 150W simán.

Én hozzá sem szóltam az nV karik találgatásaihoz, csak a teszthez.

Hát, szerinted az nem brutális, hogy a 290X hozza a 980Ti-t?
 
Válasz írásához előbb jelentkezz be!
193. Asagrim
2016.06.01. 09:39
Ha ez a Polaris csúcskártya, akkor a Vega-t már nem várom meg. 1440p-re kell egy kártya, és ha ez a kártya nem hozza egy 1070 teljesítményét (se), akkor most AMD oldalon lesz egy tátongó lyuk ebben a teljesítménykategóriában.
 
Válasz írásához előbb jelentkezz be!
192. Fzoltan Asagr...
2016.06.01. 09:41
Szerintem pont a DX12 és a VR miatt előtérba fognak kerülni a kétGPU-s kártyák, és el kell majd felejteni a CF/SLI problémákat.
 
Válasz írásához előbb jelentkezz be!
191. Asagrim Fzolt...
2016.06.01. 09:42
"fognak" - AMD

Kösz nem, majd ha jelen időben lehet róluk beszélni, akkor beszélhetünk róla.
 
Válasz írásához előbb jelentkezz be!
190. Fzoltan Asagr...
2016.06.01. 09:43
Akkor költsd át, ahogy akarod, DX12 és VR alatt a többGPU-s rendszerek másképpen muzsikálnak.
Nem értem, hogy miért tetted hozzá, hogy AMD, mert ez az nV-re is igaz.
 
Válasz írásához előbb jelentkezz be!
189. Whysper Fzolt...
2016.06.01. 09:44
Arról ne is beszéljünk ,hogy ugye Lapop fornton most bontakozik ki az extrenal VGA téma és ott is dual VGA-t pakolsz a dokk-ba és akkro veszel egy laza PC-t IGP-vel (VGA nélkül) meg egy laza laptopot IGP-vel és mikor kell a kakó beizzítod a 2 VGA-t
 
Válasz írásához előbb jelentkezz be!
188. BReal kisto...
2016.06.01. 09:45
Az árról nem nagyon szoktak hantázni a gyártók szerintem. Kíváncsian várom a kártyákat, aztán bevárom a 1060-at, és jön a döntés. Hajrá.
 
Válasz írásához előbb jelentkezz be!
187. Raszputyin Chrem...
2016.06.01. 09:46
Ashes of singularity egy nagy bullshit, az eddigi tesztekből látszik, hogy a csúcskártyák is beállnak egy limitre, és ahhoz igazodik az egész grafikon.

Mert azt nem merik hangsúlyozni, hogy elérik a 1080-at és megállnak ugyanúgy 70Fps-en adott beállításokkal...
 
Válasz írásához előbb jelentkezz be!
186. Asagrim Fzolt...
2016.06.01. 09:47
Mert mindenki tudja hogy az AMD-vel kapcsolatos jövő idejű kijelentéseket nem lehet készpénznek venni. Most is itt van ez a paper launch és találgat mindenki mindenfélét, mintha tippekkel ki lehetne tölteni a hiányzó információt. Nem lehet...
 
Válasz írásához előbb jelentkezz be!
185. BReal Flege...
2016.06.01. 09:48
Én játszani szeretnék és azt veszem, ami jobb ár-érték arányt fog produkálni. Nem vagyok idióta, és nem veszek 1080-at FHD-ra. Plusz én bizony 150-250e Ft-ot nem költök egy VGA-ra. De azért köszi a tippet.
 
Válasz írásához előbb jelentkezz be!
184. Raszputyin
2016.06.01. 09:49
A nyák-ot nem mutogatták? Ja, hogy arról levettük volna, hogy a bemutató 70%-a kamus?

Szerintem ez inkább a befektetőknek szóló bemutató volt, mintsem a vásárlóknak,.
 
Válasz írásához előbb jelentkezz be!
183. HozeManuel
2016.06.01. 09:51
Világos mit csinál az AMD. Alulról építkeznek. Ez még nem az 1080 verő csúcs kártyájuk. Ez jó nagyon sok vásárlónak akiket most kb leszar az Nvidia. Teljesen világos hogy le vannak maradva időben, de új technológia miatt érthető. Hosszú távon talán megszorongatják a zöldeket de persze kit érdekel hogy kié az aktuális csúcs kártya ha az emberek 75%-a úgysem tudja kifizetni? Az nvidia lett a videókártyák Bugattija az amd inkább Wolksvagent játszik
 
Válasz írásához előbb jelentkezz be!
182. Asagrim BReal
2016.06.01. 09:51
Másik cikknél már úgy emlékszem átrágtuk miért nem idióta az, aki fullHD-ra 1080-at vesz. Az, hogy te szándékosan ignorálod a teljesítménytöbbletet igénylő alkalmazási módokat nem másokat tesz idiótává, hanem téged részrehajlóvá.
 
Válasz írásához előbb jelentkezz be!
181. BReal Chrem...
2016.06.01. 09:53
Szerintem a 1080 baki után ezt nem kéne erőltetni.
https://www.youtube.com/watch?v=kj4x0VYKk0I

Asagrim: Lehet csűrni csavarni a dolgokat, de egy felmérést nagyon szívesen megnéznék, hogy megjelenéskor mennyi FHD monitor tulajok aránya a 1080 vásárlók között.

S_otto: Neked pedig köszönjük, hogy próbálod rontani a légkört, nem sikerült.
 
Válasz írásához előbb jelentkezz be!
180. Raszputyin BReal
2016.06.01. 09:57
- Vagy játszani veszel kártyát, és akkor leszarod az árát.

- Vagy az ár/érték arányt nézed, és akkor tök mindegy, mit tud a kártya, ha az ára nem jó neked = 5000Ft-s VGA az optimális.

- Nem veszel FHD-ra 1080-at akkor sem, ha jó az ár érték aránya? Mi lesz akkor az első kijelentéseddel?

- A végére bejött az árlimit is, hogy tovább fokozd az önelletmondásaidat.
 
Válasz írásához előbb jelentkezz be!
179. HozeManuel Asagr...
2016.06.01. 09:59
Azt mondta játékra vesz VGA-t. Nem említette a VR-t. Nem akar 200FPS-t. Szerintem nem részlehajló hanem gyakorlatias ember.
 
Válasz írásához előbb jelentkezz be!
2016.06.01. 10:00
Ha ez a befektetőknek szólt volna, akkor nem EGY darab VGA-t mutattak volna. Igazából ez a bemutató nem tudom kiknek szólt

Abban mi a ráció, hogy elhozok egy hatalmas megjelenési felületre egy darab középkategóriás kártyát? Hol a többi? A Polarisnak el kéne rajtolnia a teljes lineuppal belátható időn belül, de a többi kártyáról 0 információ.

Egyébként meg 150W 14nm-en egy R9 390 szintű teljesítményért? Mi a francot csinálnak ezek? A GTX1080 16nm-en 200W-ból szénné alázta a jelenlegi mezőnyt, akkor itt hol lesz már megint a fogyasztás/hőtermelés? Nem értem mit csinál az AMD...

Aki meg szörnyűlködik, hogy minek GTX1080 FHD-ra? Például azért, mert ezzel a kártyával jövőre már lehet kompromisszumot kell kössél FHD-n is, a 1080-al meg supersamplinggel sem fog kelleni legalább 3 évig...
 
Válasz írásához előbb jelentkezz be!
177. BReal Raszp...
2016.06.01. 10:05
Raszputyin: Tudom pontosan ki vagy, tagadhatod, az itteni első kommentjeid egyértelművé tették újra (Asagrim kedvéért nem írom le).
Nem lehet úgy játékra kártyát venni, hogy ár-érték arányt nézek? WTF is this bullshit? 2,5 éve is úgy vettem a gépet, hogy alaposan utánanéztem a teszteknek. Úgy voltam vele, hogy FHD-n minimális megkötésekkel (pl. élsimítás minimálisra vétele) menjenek legalább 30 fps-sel a legújabb játékok is. A Crysis 3 is teljesíti ezt. Egy szaros 58000-es 270x-szel ezt megkaptam. Nekem nincsenek 60 fps-es elvárásaim ott, ahol ténylegesen nem érzem szükségét (ha pl. egy Overwatchban nem lenne meg az a sebesség, akkor az baj lenne, szerencsére Epic előtti beállításon megvan). Szóval igen, nekem ha értelmes forint áron marad a kártya, ez egy jó upgrade lehet. Ugyanis a 390-390x FHD-ra jelenleg több, mint tökéletes számomra.
Akkor leírom úgy, hogy ne köthess bele: x összegig vagyok hajlandó elmenni egy kártya vásárlásánál, és az abba a kategóriába eső mindkét oldali VGA közül a jobb ár-érték arányút választom. Remélem világos így a "1080-at FHD-ra akkor, ha jó ár-érték aránya van?" kérdésedre a válasz.
 
Válasz írásához előbb jelentkezz be!
176. Asagrim HozeM...
2016.06.01. 10:07
Jó, akkor legyen gyakorlatias, nekem aztán mindegy ki minek nevezi a "mindenki idióta aki fullHD-ra vesz 1080-at" olvasatú hozzászólásokat.
 
Válasz írásához előbb jelentkezz be!
175. BeZol
2016.06.01. 10:07
A GTX 960as is 200 dollár volt megjelenéskor, és én a megjelenést követő első héten vettem 68ezerért itt iponon palit superjetsream-es 960-ast, ami eleve +10%-kal erősebb, és húzással már +20%-kal erősebb egy sima gtx 960asnál (és egyben ez a legmagasabb gyári oc órajelű 960as is).
Egy ilyen kártya sli-be rakva hozta a gtx 980as teljesítményét, ami akkor nem 150ezer volt, hanem 180+ ezer Ft.

Most itt az új generáció. Talán most is az lenne, hogy pont feleannyi "cucc" kerül majd az 1060asba mint ahogy a 960asba is került a 980ashoz képest, és emiatt pont fele olyan erős lesz az 1060as, mint egy 1080as. Erre építve az AMD most kihozott egy szintén 200 dolláros kártyát, ami crossfire-ben olyan erős, mint egy 1080as, CSAK nem raktak rá még +akárhány dollárt (ugye 1070 és 1080as is +50dolláros indulóárakat kaptak, vajon 1060as mekkorát kapna vagy kapott volna?!).

A teljesítményadat teljesen korrekt az árhoz képest, tehát fele olyan erős kártyát kapunk kezdéskor kb. 65-75 ezer Ft-ért, mint egy gtx 1080as 250-260ért. A fogyasztást kicsit sokallom, de ilyen ár mellett, ill. az októberig nem érkező 1060as hiányát nézve teljesen hidegen hagy, és még valós játékban futtatáskor lehet pariban is lennének.

Ez egy nagyon-nagyon jó termék így ilyen árral (talán kezdésnek túl olcsó is!), és mivel jelenleg 10ből 8 új videókártya nvidia, ezzel a termékkel pikk-pakk visszaszerezhetik a részesedésüket a piacból + még érkezik ennél olcsóbb és drágább kártya is rá 1 hónapra.

A számítási teljesítmény (5+ tflops) alapján R9 390X-et (5,1 tflops) kapunk 120ezernél olcsóbban, ami ugye játéktól függően 970es szintet ért el, vagy még a 980asnál (4,61 tflops) is erősebb volt, tehát 70ezerért kapunk 120-150ezer Ft-os kártyateljesítményt
Ha ügyesek, akkor 980asnál erősebb lesz a kártya, a tesztekből majd kiderül, hiszen nvidia is azonos tflops mellett (1070: 6,45 ; gtx 980ti: 6,4) tudott +10%-ot gyorsulni.

Én egyébként megkockáztatom, hogy nem ez a kártya lesz a best buy, mert még áprilisban olvastam olyan leakelt eredményekről, hogy valamelyik polaris kártya gtx 980ti-nek megfelelő 3dmark pontokat ért el, és él a gyanúm, hogy az a 300 dolláros polaris lehet, tehát akár a bűvös 100ezer Ft alatt (best buy gtx 970es ár ugye) kaphatunk majd gtx 980ti-nél akár erősebb, de az 1070esnél szerintem gyengébb kártyát. (1070es 150 körül indulhat majd árban, a 980ti pedig 220 körül mozgott sokáig, most épp 200ér is kapni, de 250körülről indult lefele. Az 1070es kb. +10%-kal erősebb a 980ti-nél)


Elég hosszú Off:
Régen legjobb esetben 55%-ban AMD kártyákat vett a nép (HD 5xxx széria), 45%-ban Nvidia-t (gtx 4xx széria, ami zabálta az áramot és néha le is égett), de úgy általában mindig az volt, hogy 60%-ban zöldet, 40%-ban pirosat vettek a népek, és mióta az AMD kb. csak átnevezte az áramzabáló kártyáit 2012-2013 utántól, addig az Nvidia olcsóbbá tette a saját termékét és kipakolta a játékok szempontjából kevésbé lényeges megoldásokat, így azonos teljesítményt eleve olcsóbban tudtak gyártani, és eleve jóval kevesebbet fogyasztottak, így eljutottunk oda, hogy 80%ban zöldet, 20%ban pirosat adnak el újonnan már több mint fél éve, aminek az elmúlt 2 év után lassan az a vége, hogy csoda, ha minden 3.-4. gépben amd kártya van.
Most itt ez az új termékcsalád a 100ezer Ft alatti kategóriába (szándékosan érkeznek ide!), hiszen itt vásárolnak a népek nagyon-nagy mennyiségben, így visszaszerezhetik a piaci részesedésüket, ami nagyon-nagyon jót tenne az AMD részvényeknek is. Régen a 40%-os részesedésükkel (és kb. semmivel sem jobb procijaikkal, de azért apu-k szempontjából még jobb helyzetből) 6-10 dollár között mozgott az árfolyamuk. Január óta 1,75 dollárról elnyargaltak 4,71-ig (+269%), míg az Nvidia 24,78 dollárról ment 46,72ig (+189%), amit most épp talán tovább is fog folytatni. Az elmúlt 6-7 évben soha nem volt 25 dollár fölött az Nvidia, most meg csúcsokat döntöget hála a piacvezető szerepének (10ből 8 kártya zöld), és most a frissen megjelent pascalhoz fűzött reményeknek, amit ugye olcsóbban is gyártanak azonos teljesítményhez mérten, és közben még drágábban adják, emiatt nagyobb nyereséget tudnak realizálni kártyánként (kb. apple stílus), és emiatt szárnyalnak a részvényeik, hiszen sok pénzük is van, jóval többet költenek kutatás-fejlesztésre, és nincsenek eladósodva. Ilyenkor felmerül a kérdés, hogy innen most hova tovább? Ezek annyira szép számok, hogy ezen már nagyon nehéz javítani, és ez a piaci részesedés hosszú távon biztosan nem fenntartható, így él a gyanúm, hogy most még megy a beetetés, szárnyal a részvény, de biztos sokan ismerik a mondást, hogy olcsón venni, drágán eladni (na meg rekord alacsony áraknál eladni, rekord drágán venni mondás is létezik, lásd forint beerősödés 235-ig, majd begyengülés 324ig az Euróval szemben, mindkettő túl lett játszva), és emiatt az Nvidia mostani "aranykorszakának" szerintem hamarosan vége lesz.

És akkor itt van csóré AMD, aki el van adósodva mint az állat, a piaci részesedése csak 20%, még osztalékot sem tud fizetni, mert veszteséges negyedévről negyedévre talán 2011-2012 óta egyhuzamban, és míg az 5 évvel ezelőtt 367 millió dolláros kutatás fejlesztésük lecsökkent 229 millióig is, addig az Nvidia 250ről 350ig tornászta fel úgy, hogy ők alapvetően csak videókártyákkal foglalkoznak, az AMD-nek meg procijai is vannak... Az Intel 2 milliárd dolláról már lassan 3,3 milliárd dollárnál jár mellesleg... Tehát elég erősen csappannak a források, ezért is volt inkább csak átnevezés az elmúlt pár évben minden egyes vga, és ezért sem történt egetrengető változás procik terén, hiszen szerintem mondhatjuk azt, hogy MINDENT a polaris videókártyákra és a zen processzorokra tettek fel, és ezeket reszelgetik már több éve a jóval-jóval kevesebb rendelkezésre álló pénzből. Hát ezért is volt mélyponton nemrég a részvényük, és számított egyben jó belépési lehetőségnek is (olcsón venni ugye).

Ha most sikeresek lesznek a polaris-szal (ár talán túl alacsony is, főleg a konkurencia hiányát tekintve, ami fogyasztói szempontból jó, de vállalati szempontból kevésbé, talán ezért is csorog most kicsit lefele az árfolyamuk), akkor a már talán télen beígért nyereséges negyedévi jelentések jöhetnek (talán optimistán már a most júl. 22 körüli jelentést is pozitívra előjelezték, de a polaris rajt csak június vége lesz, nem fog ez még szerintem összejönni, csak október 20 körüli jelentésre, ez is egy plussz indok lehet az árfolyam csökkenésére rövidtávon), ami viszont alapvetően nem baj, hiszen olcsóbb beszállási lehetőséget kaphatunk, ha a további emelkedéshez reményeket fűzünk. A polaris árazásával egyébként minden esély meglesz a régi piaci részesedés visszatornázására, ez hosszú távon sokat fog számítani. Itt olyanra kell gondolni, hogy már nem emlékszem pontosan, hogy havonta vagy negyedévente, de az nvidia kb. 2,4 millió, az amd pedig kb. 0,6 millió videókártyát adhatott el eddig (együttesen 3milliót). Ha beállna a 50-50 arány újra, akkor az vaskos csökkenés lenne az nvidiának 1,5 millióra (-37,5% !!!), míg az AMD-nek 1,5 millió videókártya értékesítése (+250%-os növekedést jelentene!!!). Na ez kérem szépen növekedési potenciál (és csak vga-król beszélünk, a decemberben érkező zen processzorok még okozhatnak meglepetést is, hiszen 14nm lesz az is, mint az intel majd most megjelenő kaby lake processzorai, még ha ők 2017ben már 10nm-re is mennek...).

Ha az árfolyamra tekintek, régen 6-10 dollár között mozogtak az AMD részvények kb. semmivel sem jobb processzorokkal, de versenyképes videókártyával. Tény, hogy azóta jobban eladósodtak, de ha ezt az eredmények alapján le tudják dolgozni, akkor újra 6-10 dollár között lehet árfolyam, tehát simán +100% haszon is lehetséges lehet. Ha viszont azt nézem, hogy mennyire együtt mozgott régen a Nasdaq árfolyamával az AMD részvénye, akkor mostani Nasdaq árfolyammal nézve 19,38 dolláron is járhatnának a részvények (ez álom marad).

2017 nyaráig van idejük felzárkózni, addigra 10nm-es intel procik jönnek, tehát procik terén újra lemaradásba kerülhetnek, ill. ki tudja nvidia mit húz elő a zsebéből, ugyanakkor a Virtual Reality lehet h 2017ben már jobban előtérbe kerül, és ha ilyen pc-t akar valaki, az vásárolhat majd, vagy itt van az is, hogy az AMD gyártja az ősszel érkező új ps4 agyát, ill. a jövőre érkező slim xbox one, és majd a szintén érkező erősebb xbox-ot is, ami újabb profit-profit-profit lesz. (jön a konzolokra a VR szemüveg, ami dobhat a konzol értékesítéseken, ami ismét jó az AMD-nek)

Hát én érdeklődve várom, hogy meddig jut el az árfolyam (én 1,81 dolláron vásároltam be), de bármi is lesz, legeslegkésőbb 2017 nyarán biztos el is adom. és az is tuti, hogy a decemberben érkező zen-t, és a tavasszal érkező új 14nm-es zen-es apu-kat még megvárom. Ezek még biztosan jók lesznek, hiszen lesz hyper threading, 4-6-8 mag, 40%-nál jobban növelt instructions per clock (kb. ennyivel ratyibbak az amd procik most), és a 14nm áldása az egészre. Ezek után viszont a jóval kevesebb k+f budgetnek köszönhetően újabb hanyatlás lehet esedékes, és ezt megelőzve kiszállok (drágán eladni ugye), engem nem fognak beetetni a marketingjükkel, mindenképp korrekció lesz majd akkor szerintem.

Bocsi, ha valakit nem érdekelt, de kb. hova írjak ilyennel kapcsolatosan, senkit sem érdekel ennyire a téma még a környezetemben sem
 
Válasz írásához előbb jelentkezz be!
174. s_otto BReal
2016.06.01. 10:10
Tehát 1080 hír alatt kritikusnak lenni oké, polaris hír alatt már légkör rontás. Világos.

Semmi nem derült ki konkrétan, a ma hajnali bejelentéskor, megy a találgatás továbbra is. Ha annyira jó lenne a polaris konkrét infok lennének róla, és nem engednék hogy az emberek nv-t vegyenek, mert nem hajlandók tovább várni a bizonytalan majd ilyen lesz "semmire".
 
Válasz írásához előbb jelentkezz be!
173. Raszputyin FaL
2016.06.01. 10:11
FHD - szeirntem is feljebb fognak menni a FHD követelmények, nem is keveset. Ha ma egy 970 nem elég már FHD-ra csak kompromisszumokkal, akkor a következő generációban a 1070 valóban kell majd hozzá.
 
Válasz írásához előbb jelentkezz be!
172. HozeManuel Asagr...
2016.06.01. 10:11
nem azt írta hogy mindenki. Én úgy értelmeztem hogy Ő lenne egy idióta ha 1080-t venne az ő igényeire. Maximum azokra nézve sértés akik ugyanarra használják a gépüket mint ő. Nem érdemes ilyeneken fennakadni.
 
Válasz írásához előbb jelentkezz be!
171. BReal
2016.06.01. 10:13
Akik abba kötnek bele, hogy betámadtam a FHD-re 1080-at tervezőket: Fal írja, hogy azzal legalább 3 évig nem kell kompromisszumot kötni FHD-n. És? Attól én minek vegyem meg a 1080-at a jelenlegi negyed milliós árán, ha óriási overkill? Meg lehet játszani, hogy lecserélem a kártyát, és később veszem meg, feltehetően jóval alacsonyabb áron.
s_otto : 1080 hír alatt kritikusak voltunk? Mindenki elismerte a teljesítményét, ne zavarjon. A legkritikusabb FZoltan volt, aki többet várt! Ilyen kritikus hozzáállást kérek mindenhova.

Úgy látszik, HozeManuel megértette mit akartam írni. Az idiótázással nyilván elszaladt a szekér, ezért elnézést, de amikor látom, hogy minden egyes AMD-s hírnél ugyanazok az embereket fikáznak (S_otto, és tudjukki), felmegy bennem a pumpa.
 
Válasz írásához előbb jelentkezz be!
170. s_otto
2016.06.01. 10:14
Asagrim: egyébként Breal 44-es hozzászólásába nem értem mit keres az 1080 youtube link? Én nem hasonlóért kaptam 3 napot? Eddig nem volt nvidia vs amd flame, nem értem miért keverte ide az nvidiát????
 
Válasz írásához előbb jelentkezz be!
169. HozeManuel BReal
2016.06.01. 10:15
Hát szerintem a 60FPS-nek kéne a minimumnak lenni és szerencsére ez már meg is fizethető. Szerintem van értelme spórolni egy olyan kártyára ami minél több játékban tud minimum 60 FPS-t. Egyébként én is úgy vettem kártyát hogy Witcher 3 ban meglegyen a 60 FPS oszt jó van . De most rövid távra vettem kártyát, ha hosszab távra veszek ez már kevés lett volna.
 
Válasz írásához előbb jelentkezz be!
168. s_otto BReal
2016.06.01. 10:15
Csak az bizonyított tesztek vannak, itt meg még mindig nem tudsz semmit a teljesítményről, csak ígéretek vannak.

Senki nem fikázik, konkrétumok vannak. Vagyis nincsenek, ilyen lesz, ezt tudja, stb. Ezzel tele a padlás.
 
Válasz írásához előbb jelentkezz be!
167. SnokeHUN
2016.06.01. 10:20
Mindig jókat derülök az AMD-n.
Elképesztő, hogy mennyire le van maradva az konkurenciától. De az még hagyján, hogy a hardver része ósdi, de a szoftveresen teljesen kuka. A terméktámogatása felháborító, béta illesztőprogramokkal próbálnak lépést tartani, mig az nvidia sokszor már a aktuális mainsteam játékok megjelenése előtt kiadja az optimalizált WHQL drivert.

Kész poén azzal hencegni hogy 2 "erős" kártyájuk megveri a konkurencia legerősebbjét. Mindezt dupla annyi fogyasztásárt és olcsóbban. De azt már a kutya nem írja hozzá, hogy nagyobb táp és ház kell hozzá és költségesebb üzemeltetni. Ja és ez is biztos úgy fűt mint egy radiátor... AMD kezd a tech világ Ladája lenni...
 
Válasz írásához előbb jelentkezz be!
166. HozeManuel FaL
2016.06.01. 10:21
Tévedsz. 1080-al nem 3 hanem még 5 évig nem kell kompromisszumot kötni
 
Válasz írásához előbb jelentkezz be!
165. BReal s_ott...
2016.06.01. 10:21
Én nem láttam bizonyított teszteket az NV bemutató konferenciáján, de javíts ki, ha tévedek.

HozeManuel: Nekem pont az ilyen játékokban nincs szükségem 60 fps-re, mint a Witcher 3. Nyilván ha leveszem mediumra a grafikát, a 270x is bírja 60-nal, de grafikában ekkora áldozatot nem szeretek hozni, maximum 1-gyel visszább venni a beállításokat High/Very High-ra, élsimítást lejjebb venni. Nyilván egy Project CARS-ban szükség lenne rá, ahol tuti nagy butítással érnék el 60 fps-t, oda már új kártyát kéne vennem. Még szerencse, hogy nem nagyon izgat a játék.
 
Válasz írásához előbb jelentkezz be!
164. Raszputyin BReal
2016.06.01. 10:23
...És most megjelent álarcban a dalai láma, de Maxbell röhögve mutogatta a leánynak: "Ez egy jó pofa, én régen ismerem! - Piszkos Fred közbelép

Nem az a baj, hogy mire veszed a kártyát, csak az indító hsz-edben 3 ellentmondás is volt. De mindegy, nincs jelentősége.
Én azt a kártyát fogom megvenni, amire pénzem lesz, és nem kanyarítok köré bonyolult ideológiákat.
 
Válasz írásához előbb jelentkezz be!
163. s_otto Snoke...
2016.06.01. 10:23
AMD a driverekkel elkezdett feljönni, azért már szinte a játék megjelenés napján kint a driver. Vagy 1-2 napra, régebben hosszabb idő eltelt.

Egyébként pont az nv-nek is voltak driver fiaskói az elmúlt időkben, gyorsan javítva lett.
 
Válasz írásához előbb jelentkezz be!
162. s_otto BReal
2016.06.01. 10:25
Nem láttál, és le is írta mindenki hogy hisszük ha látjuk. Most mi írjuk le - csak ez már rossz légkör keltés.
 
Válasz írásához előbb jelentkezz be!
161. BReal Snoke...
2016.06.01. 10:25
Azt ugye tudod, hogy driveres fronton az utóbbi időben pont, hogy az NV-vel voltak nagyobb gondok? Béta driverek? Érdemes megnézni akár az Iponos kommenteket is. Amúgy azt láttad, hogy a Crimson megjelenése óta sokkal több nem-beta drivert adnak ki?
2 kártya megveri a 1080-at. És, nem lehet igaz? Igen, több hő, többet fogyaszt, csak épp a 2 VGA megvétele olcsóbb. De ezt gondolom csak véletlenül nem említetted meg... Kettősmérce rulez.

Raszputyin : Játszani szeretnék jobb ár-érték arányú kártyával, és nem költök 150-250e Ft-ot VGA-ra. Elmondanád, hogy ebben mi az ellentmondás? Biztos én vagyok a hülye, de nem látom. Szeretnék megvilágosodni, kérlek, tedd meg te.
 
Válasz írásához előbb jelentkezz be!
160. HozeManuel Snoke...
2016.06.01. 10:26
Költségesebb üzemeltetni: Évente kb +5-10.000Ft villanyszámla attól függően mennyit játszol naponta. Úgyhogy aki csóró mert nem telik neki a villanyszámlára annak tényleg az 1080 a jó választás
 
Válasz írásához előbb jelentkezz be!
159. xcomman BReal
2016.06.01. 10:28
Még 1440p-re is a sima 390 nagyrészt elég... Ha ez erősebb lesz nála akkor jó vétel lehet neked és annak aki nem akar több 100k huf-t kiadni.

Én valszeg maradok az 1080 vagy 1070 sli megoldásnál. Most 3-4 évig nem szeretnék géphez nyúlni. Meg, nem igazán jönnek olyan játékok amik igénylik ezt a teljesítményt. Lehet egy sima 1070 is elég lenne Az meg, hogy a portot elbasszák nem a hardvert minősíti. Szerencsére/sajnos dx12 alatt nem lesz lehetőségük sunnyogni, mert túl hardverközeli és instant dobja el magát, ha valami nem kerek.
 
Válasz írásához előbb jelentkezz be!
158. Asagrim s_ott...
2016.06.01. 10:29
Talán mert a linkek nyitogatása nélkül is pont elég lépést tartani a hozzászólások elolvasásával, miközben dolgoznék is? Tudod, amiért fizetnek is, ellenben ezzel az ingyenmelóval, amit a fórumon végzek. De mindjárt megkönnyítem a dolgomat, és beaktiválom a jóváhagyást, ha az NEKED jobban megfelel.
 
Válasz írásához előbb jelentkezz be!
157. s_otto BReal
2016.06.01. 10:30
2 kártyához drágább alaplap kell ami plusz költség, és CF támogatás

Abban pedig az amd még elég gyengusz, a javuló driverek ellenére
 
Válasz írásához előbb jelentkezz be!
156. s_otto Asagr...
2016.06.01. 10:31
Kérdeztem csak, és köszönjük a munkád. Ő meg a 3 napot.
 
Válasz írásához előbb jelentkezz be!
155. BReal s_ott...
2016.06.01. 10:31
Aha. Biztos rengetegen vesznek 1080-at 20000 Ft-os alaplapba. Ez nagyjából olyan, mintha azt írnád, hogy SLI rendszerbe i7 illik az i5 helyett. Aki ilyen összegeket költ VGA-ra, az biztos spúrkodik a többi hardveren. Mellesleg az SLI sem működik egy csomó játékban, szóval a te szemléletedben az NV is gyenge. Ettől még, ahol működik, ott működik (én is utálom a kétkártyás rendszert).
 
Válasz írásához előbb jelentkezz be!
154. Raszputyin BReal
2016.06.01. 10:32
Majd ha 100%-os lesz a két kártya működése minden játékban, akkor releváns lesz ez az információ (mert tesztek hiányában még csak ténynek sem lehet nevezni).

Szeirntem amúgy csak összeadták a tflops értékeket, mondván, hogy a népnek ez így is jó lesz.
 
Válasz írásához előbb jelentkezz be!
153. okumura
2016.06.01. 10:33
Érdekes kártya lesz ez, de sajnos a 200 dollár adók és vám nélkül értendők.
én 90-100.000 forintra számítok, de még így sem hiszem, hogy 980 ti-al egy szinten lenne.
Kíváncsian várom az első "RX 480 vs gtx 1070" teszteket, örülnék ha meglepne.
 
Válasz írásához előbb jelentkezz be!
152. BReal s_ott...
2016.06.01. 10:37
Az még véletlen se zavarjon, hogy poénnak szántam, tudod a jel sokat segít ennek értelmezésében. Chrematoriummal amúgy sincs bajom, vele értelmesen lehet beszélni. Arról most ne is beszéljünk, hogy az, amire a linkem szólt, tényszerűen még igaz is.
Raszputyin: Tök mindegy, ezt nem írta szempontként. Szimplán a "CF-fel gyorsabb a 1080-nál" dolgot emelte ki. Közben olyanokat írt, hogy több fogyasztás, hő, és drágább. Drágább? Fogyasztásban igen, hűha, óriási összegeket jelent éves szinten. De azt kihagyta, hogy leírja, hogy a 2 kártya olcsóbb lesz, mint az 1.
 
Válasz írásához előbb jelentkezz be!
151. Asagrim s_ott...
2016.06.01. 10:38
1.10-et kéretik betartani. Nagyon érik itt a 3 nap nem csak egy embernek!
 
Válasz írásához előbb jelentkezz be!
150. firebird18...
2016.06.01. 10:39
két darab Radeon RX 480 az Ashes of Singularity tesztben jobb eredményt ért el, mint az Nvidia aktuális egy GPU-s csúcskártyája, a GeForce GTX 1080.


Már az AMD tudja hogy annyira el van maradva hogy kettesével kell árulnia a kártyáit?? Na itt a szégyen !!!!!!

Egyébként ha valakinek van egy gtx980 as karija annak az ára lemegy 110-120 korul lehet venni használtan de 100 ért is hozzá lehet jutni akinek nagyon kell a pénz. Egyszerűbb ha veszel mellé egy másik karit egy 100 ért és a két kártya simán veri a gtx 1080 at és csak 100 ezerbe kerűlt. Mennyibe is kerűl 2 darab rx480????? Nem beszélve hogy egy online rodeonos játékról beszélünk mert az amd csak azokra a szarokra írja a drivereket, bár nekem mindegy mert utálom az összes online-os játékot. de egy tomb raider, vagy egy cod ban lehet hogy három kártya is kevés lenne mert ezekhez erő kell......

Nem elég ha gyors egy kártya ha közben nagyon gyenge, de az se jó ha nagyon erős de lassú. Mind a kettőnek benne kell lennie a teljesítményben és ezt csak az Nvidia tudja. JJAAA ha duplán beszélünk akkor a gtx 1080 is sli-ben kell néznünk mert ez csak akkor fer.
 
Válasz írásához előbb jelentkezz be!
149. firebird18... okumu...
2016.06.01. 10:41
Ne feledd 2 darab rx480 ér be egy darab gtx 1080 at. azt is csak külön erre a célra készített amd-s játékban.. Olvasd el a cikket. egy kártxa teljesítménye valahol egy gtx 970 körül van.
 
Válasz írásához előbb jelentkezz be!
148. BReal fireb...
2016.06.01. 10:43
CoD-hoz erő kell? Ez nekem új.
Nem, nem 100e-be kerül. A 2 db 480 ára 200+200=400 dollár, míg a 1080 ára 600 dollár. 1,5-szer drágább.
Oké, nézzük SLI-ben a 1080-at is! Több, mint fél millió forint. Köszi.
 
Válasz írásához előbb jelentkezz be!
147. Asagrim fireb...
2016.06.01. 10:45
Kevesebb flamet ha lehet, mert bekészítem a poroltót...
 
Válasz írásához előbb jelentkezz be!
146. Fzoltan s_ott...
2016.06.01. 10:49
Inkább pont az SLI volt marginálisan gyengébb, de immáron DX12 nekkett lényegtelen.
 
Válasz írásához előbb jelentkezz be!
145. FaL BReal
2016.06.01. 10:50
Az alaplapomat 21k-ért vettem 3 éve és bizony abba fogom belerakni a GTX1080-at
 
Válasz írásához előbb jelentkezz be!
144. SnokeHUN HozeM...
2016.06.01. 10:51
Szerintem a 1080-as kártya túlzás játékra, ahogy az I7 procik is. Ez akkor éri meg ha munkára kell vagy ha lan partiba kocka cerka összeméregetésben szeretnél jeleskedni. Szóval ebben a kategóriában a munkagép a lényeg, ahol a minsőg kell. Szerintem nem kérdés melyik a minőségi és melyikkel nem fognak körberöhögni a kollégák
 
Válasz írásához előbb jelentkezz be!
2016.06.01. 10:54
Ne haragudj, de most fullba nyomtad a kretént...

Nézd csak meg az Iponos GTX1080 tesztet és meglátod, hogy nemhogy túlzás az i7 játékra, hanem bizonyos esetekben alap, különben olyan CPU limitbe futsz bele, hogy csak na.
 
Válasz írásához előbb jelentkezz be!
142. BReal FaL
2016.06.01. 10:55
Én csak azt írtam, hogy biztos rengetegen. Nem mondtam, hogy senki.
Amúgy csak én nem értem SnokeHUN hozzászólását? A 1080 sok játékra, ahogy az i7 is, ezek munkára kell. Ahova a minőség kell. Szóval fontos a minőség, és nem röhögik körbe a kollégák. De most akkor játékról beszélünk, vagy munkáról?
 
Válasz írásához előbb jelentkezz be!
141. Asagrim FaL
2016.06.01. 11:05
Mutasd már meg hol volt CPU limit? Hitmannél említett valaki fullHD-nál magasabb felbontáson CPU limitet, aminek semmi értelme, mert ugyanazon a gépen, ugyanannak a játéknak alacsonyabb felbontáson kellene CPU limitesnek lennie, ugyanis alacsonyabb felbontásnál terhelődik jobban a processzor.

A CPU feladata "előkészíteni" a képkockát, amit aztán továbbküld a GPU-nak kirajzolásra. Minél nagyobb a kép, annál több GPU teljesítmény kell kirajzolni, tehát ilyenkor a GPU teljesítmény a limitáló tényező. Alacsony felbontáson a GPU sokkal gyorsabban rajzolja ki az egyes képkockákat, tehát a CPU-nak lényegesen több képkockát kell "előkészítenie", szóval itt a CPU a limitáló tényező. Ezért nem lehet ebben a tesztben ugyanannál a játéknál ugyanazon a gépen a magasabb felbontás miatt CPU limit.
 
Válasz írásához előbb jelentkezz be!
140. R.Soma Snoke...
2016.06.01. 11:05
Hát ez jó nagy hülyeség, már bocs. Először is, magasabb felbontásnál a játékok elképesztő erőforrást igényelnek, egy 1080 önmagában kevés is hozzá, kettő kell, hogy erőlködés nélkül vigye (ami azt jelenti hogy nem akarsz 2 év múlva cserélni, amint kijön az új gen). A felbontás-robbanás miatt a GPU-k lépéshátrányban vannak, ezt igyekeznek behozni, jelenleg bíztató a folyamat. A proci meg... Van játék, ami kihasznál egy i7-est, elég csak kicsit körülnézni, nem sok munka. Viszont ha munkáról van szó, akkor meg egyik sem, mert ha hardverigényes környezetről van szó, akkor nem geforce-ot használunk, hanem quadro-t és nem négymagos i7-eseket (amik a földön járó ember számára viszonylag elérhetőek), hanem 6-8-10 stb. magos high-end meg xeon procikat, mert a megfelelő munkakörnyezetben ezeket valóban ki lehet használni. Egy 1080 nem más, mint a jelenleg (pár hónapig) legerősebb játékra optimalizált videokártya, nem több. Ki lehet aknázni minden kis szegletét annyival, ha rádugod egy 4k monitorra és nem veszed le az élsimítást a Witcher 3-ban.
 
Válasz írásához előbb jelentkezz be!
139. bakkpeter FaL
2016.06.01. 11:06
OFF:
CPU limit i7-es procinál???
Részben egyetértek SnokeHUN-nal:
i7-4790K procim van, de nem találkoztam olyan játékkal, amely 50% fölé vitte volna a CPU kihasználtságot FullHD Ulra felbontásokon. (GTA5, BF4, stb.)
i5 prociról váltottam erre (játék szempontjából teljesen feleslegesen), i5 esetében is csak 60-80% között mozgott a CPU, ha még vmi futott a háttérben.

VGA téren is nyomatják a 8GB-os szériákat, miközben a DirectX és API nem képes arra, hogy ezt ki is használja.
A Mantle nagy csodája sem hozta azt a nagy áttörést, hogy alacsony szintű hozzáférést biztosítson a VGA kártya erőforrásaihoz, pedig ezt várta mindenki. Most majd ott csücsül 8GB ram a kártyán, aztán a játékok nem tudják kihasználni.
Persze ígéret mindig van, hogy egy újabb API, stb. majd kihasználja a legújabb "BF5"-ben (stb.), de aztán mindig vmi közbejön, jönnek a hibák.
(Minden téren ez van: előre legyártják a csúcstechnológiás hardvereket és nincs rá tartalom. Pl. VR szemüvegek, UHD tévék, itt meg a csúcs VGA kártyák, stb,.)

Amivel viszont nem értek egyet, hogy tényleg alacsony a TDP-je a 480-as kártyának és ha 2db 480-as kártya erősebb lesz, mint egy 1080-as nVidia, akkor inkább azt választom:
- Futtass teszteket SLI-be, CFX-be kötött kártyákkal és figyeld meg, hogy sokkal több FPS-t adnak, kevesebb laggot, mint egy single VGA. És ha ezt olcsóbban kínálják egy kicsit több fogyasztásért, akkor végül is árban ugyanott vagy, csak az élmény lesz jobb és a grafikai felbontásod.
 
Válasz írásához előbb jelentkezz be!
138. okumura Snoke...
2016.06.01. 11:09
Munkára?! már most is van olyan játék, ami (ultrán)megizzaszt egy 1080-at 4k-ban, és dx12 óta egyre inkább trend a több cpu szál kihasználása, így az i7 is egyre inkább indokolt.
Na és mi lesz 1 év múlva?
 
Válasz írásához előbb jelentkezz be!
137. Asagrim bakkp...
2016.06.01. 11:10
Olvass figyelmesebben. i5 volt limites (szerinte), azért kellett volna (szerinte) i7 a tesztgépbe.
 
Válasz írásához előbb jelentkezz be!
2016.06.01. 11:19
Szerző | Svindler
GeForce GTX1080 – Vissza a jövőbe!
Tesztek 2/3
"A Hitman is új a tesztjeink között, és DX12 overhead csökkentés ide vagy oda, bizony olyan procilimites volt 1080p-ben, hogy csuhaj."

Tesztek 2/3
[A RotTR-ben] "Az utólagosan bepatchelt DX12 környezetben egyébként sem hiszünk annyira, de talán a Total War: Warhammeren (ami valószínűleg hamarosan bekerül a tesztjátékaink közé) majd segíteni fog, mert borzasztóan CPU limites."

Verdikt
"1080p-ben viszont procilimitbe futottunk néhány esetben, de nem gyomláltuk ki az eredményeket, mert volt, ahol csak sejtjük, hogy erősebb CPU-val még ment volna feljebb a GTX1080."

Ezaz!!! KÖTÖZKÖDJ MÉG!!!!
 
Válasz írásához előbb jelentkezz be!
135. RealDreamQ
2016.06.01. 11:19
Lol , itt az AMD-s hír és máris 89 hsz .... meglesz a 200 is nemsokára , de az a gáz hogy ennek szinte 2/3-a 4 embertől van .

A most még homályos részletekről június 29-én hull le a lepel, sőt, azon a napon újabb Radeon RX sorozatú videokártyák is érkeznek, amelyek a 100 és 300 dollár közötti szegmensben szállnak harcba.

Szóval jön az erősebbik bika is , meg egy gyengébb is minimum .
Várjuk a végleges adatokat és majd a teszteket , akkor lehet vitázni majd , addig meg csak a szájkarate megy , kinek jobban kinek kevésbé ... de a jó magyar szokás ismét jelen izzik
 
Válasz írásához előbb jelentkezz be!
134. SnokeHUN bakkp...
2016.06.01. 11:22
Na tessék. Átlag gamer FullHD-ba tolja a játékot és 30FPS is bőven elég. Amihez untig elég egy i5 és egy középkategóriás kártya. Sőt én 2 hónappal ezelöttig GTX650 és Intel Core 2 Quad Q9400 kobóval játszottam High beállításokkal (végül kilehelte a lelkét). Legyen az új vagy régi játék. Persze volt szarul optimalizált játék, ami meg se moccant rajta, de ami ment az mindig gyönyörű volt. Szerintem hogy 100ezrekkel drágább cuccokkal elérjük a max beállításokat túlmutat az ésszerűségen és logikátlan. Ez a CPU limint meg egy vicc, mendemonda

Ezek a 4K meg VR cuccok még a jövő zenéi, még a szabványok se teljesen tiszták. Persze egy két korai fecskét meg lehet venni, de ez is urihuncutság..
 
Válasz írásához előbb jelentkezz be!
133. Fzoltan FaL
2016.06.01. 11:24
Attól, hogy egy i5 CPU limites lesz, még bőven lehet ugyanott az i7 is.
 
Válasz írásához előbb jelentkezz be!
132. bakkpeter FaL
2016.06.01. 11:24
Olvasd már végig!

Te csak ennyit idéztél:
A Hitman is új a tesztjeink között, és DX12 overhead csökkentés ide vagy oda, bizony olyan procilimites volt 1080p-ben, hogy csuhaj.

Pedig ez a teljes szöveg:
A Hitman is új a tesztjeink között, és DX12 overhead csökkentés ide vagy oda, bizony olyan procilimites volt 1080p-ben, hogy csuhaj. Magasabb felbontáson már nem a CPU a szűk keresztmetszet, így helyreáll a rend,

Tehát ha nem alacsony felbontáson játszol, kell az High, Ultra felbontás, magyarul költesz pénzt drága VGA kártyákra, akkor CPU limittel NEM fogsz találkozni, csak GPU limittel.
 
Válasz írásához előbb jelentkezz be!
131. Chrematori...
2016.06.01. 11:24
FZoltan, nem azért mert DX12, hanem mert igazából nem is játék, hanem egy benchmark, amiről hallottam eleget, de lehet mindenki téved, sebaj, felejtve, ha szúrja a szemed, ne olvasd el, vagy jelentsd Asagrim nak
BReal, igaz, most kapott 1 öngólt, de ezt szoftveresen lehet javítani
xcomman, R9 390 es 1440p re? A nagyrészt elég, az mire utal, a CS:GO, LOL, WOW, DOTA2 és hasonló játékokra? Mi lesz akkor ha combosabb játékot szeretnénk játszani, Medium graf? Az úgy eléggé silány szerintem.
s_otto, amit BReal linkelt, az nem egy nV vs AMD vitát akar kirobbantani, nekem szánta, nem látom benne a kötekedő, vagy vitakeltő szándékot.
Az i7 ről Asagrim nak teljesen igaza van, mert minél nagyobb felbontáson megy a 3D munka (játék, alkalmazás, benchmark, akármi), ott annál inkább GPU limites lesz, mert azt terheli a leginkább. Persze szó se róla, nem 1 játéknál hoz + FPS t a több mag/szál, de jelenleg sztem i5 az ami még bőven elég egy jó kártyával magas felbontáson, viszont lehet nemsokára már édeskevés lesz.
Az meg poén hogy ennyien feljárnak, mégsem lehet kulturált emberek módjára megbeszélni valamit. Nem kell egymás torkának ugrani, ha ellentmond a véleményetek, kissé az állatokra valló viselkedés. Végtére is, skacok... Egy szám.tech. es oldalon vagyunk, többet ésszel mint erővel
 
Válasz írásához előbb jelentkezz be!
2016.06.01. 11:28
Idézem SnokeHUN #91-es kommentjét, mivel eredetileg Ő vetette fel a CPU limit létezésének kérdését:

"Átlag gamer FullHD-ba tolja a játékot és 30FPS is bőven elég."
 
Válasz írásához előbb jelentkezz be!
129. Chrematori...
2016.06.01. 11:31
Viszont tesztek hiányában ez a CF vs GTX 1080 elég érdekes, nem tudom miért, én ebben nem tudok hinni, úgy vagyok vele, hiszem ha látom
FHD ra az 1080 pedig annyit tesz, hogy nem engedi 60 FPS alá az izmosabb játékokat. Persze, némi kompromisszum és úgy is meglesz a kívánt FPS, de lehet 2-3 hó, és olyan játékok jönnek majd, ahol FHD n elvérzik a GTX 1080, na m1 meglátjuk mit hoz a jövő
Kíváncsi vagyok, mi lesz a Cyberpunk 2077 ből, elvileg ráálltak, és még ezéven be akarják mutatni.
 
Válasz írásához előbb jelentkezz be!
128. Asagrim bakkp...
2016.06.01. 11:32
Pontosan a vastagon szedett részt magyaráztam, erre a hozzászólásra reflektálva:
https://ipon.hu/forum/hozzaszolasok/52708/geforce_gtx1080__vissza_a_jovobe?limit=200#comment804097

FaL

Try harder.
 
Válasz írásához előbb jelentkezz be!
127. Asagrim FaL
2016.06.01. 11:34
Tehát akkor az átlag gamernek ajánlod, hogy i5 helyett vegyen i7-et, mert az 1080p-n i5 nem elég 1080-nak, amit az átlag gamer meg se venne? Szerintem ezt a gondolatmenetet ne folytasd, egyre inkább belekavarodsz!
 
Válasz írásához előbb jelentkezz be!
126. BeZol
2016.06.01. 11:34
Ajánlom figyelmébe az SLI-ben gondolkodóknak ezt a videót 4 perctől. Ez egy gtx 980ti sli konfiguráció (gtx 1070es +10%-kal erősebb a 980ti-nél!!!) i7 4790k-val és 6700k-val tesztelve. Ha nézitek a gpu kihasználtságot, egyik sem tudja ebben a városban futkosós gta V jelenetben teljesen kihajtani a vga-kat, gyakran 70% körül fut a régi i7essel, és 80-85%on a csúcsszupi skylake-kel, ebből adódik olykor 30%-kal több fps érték a 6700k-s gépen.

Az i5-ös elég 1 vga-hoz, az i7-esek nem feltétlen kellenek, ha viszont már 980ti-nek akár a 2szeres teljesítményéről beszélünk, akkor oda meg már kevés egy 4magos i7-es.

Aki hosszú távon gondolkodik, mondjuk egy 1070 sli-ben, az pofára fog esni még egy 6700k-val is. Ide már 6mag kell, tehát pl. egy új 6800k tökéletes lenne, cserébe drágább alaplap, drágább proci, és 4 ram modul kell, viszont legalább már kaphatóak lesznek m.2-vel és egyéb finomságokkal felextrázott alaplapok hozzá, nem úgy mint a 5xxx-es prociknál volt. A directX 12 is a több magos/szálas procikat részesíti előnyben, erre is linkeltem már régen képet.
3dmark directX 12 skálázódás kb. 6magos bottleneckig: [LINK]
Ez pedig cinbench, hogy kb. teljes directX 12 optimalizáltság esetén mi várható: [LINK] (6mag12szál a 4mag8szálnál +50% pl.)

Aki 100ezer Ft alatti polaris crossfire-ben gondolkodik, annak viszont továbbra is elég lesz egy i5-ös proci, hiszen az i5 kihajtja az 1080ast is szerintem, tehát nem lehet probléma. Sajna keresve sem igazán találok SLI/CF csúcs-kártya mellé cpu scaling-os teszteket/videókat.
 
Válasz írásához előbb jelentkezz be!
125. Chrematori... Snoke...
2016.06.01. 11:35
Nem tudom öreg, de 30 FPS el még akkor is zavaró, ha nem egy FPS vagy Racing játékot tolsz, hanem valami lassabb játékmenetűt. 40 felett már szebb, 50 is megfelelő tud lenni, csak legyen lehetőleg stabil. 60 korrekt, átlag monitor többet meg sem jelenít. Akinek pedig extrém kell, ott vannak a 100 Hz feletti monitorok, ha már a gép is elbírja. Azon viszont kicsit elakadok, hogy FHD és 30FPS. Ha már FHD megy, szóval nem egy kenyérpirítóról van szó, miért legyen 30 FPS? Hogy fél óra után kiessen a szemünk?
 
Válasz írásához előbb jelentkezz be!
2016.06.01. 11:37

Nem kell, mivel így is igazam volt Csak előbb ennéd meg a billentyűzeted, mint elismerd

Egyébként meg,
1.1 A fórum nyelve magyar.



 
Válasz írásához előbb jelentkezz be!
2016.06.01. 11:38
Ez a gondolatmenet Tőled származik, mert én egyszer sem ajánlottam semmit!
 
Válasz írásához előbb jelentkezz be!
122. BReal
2016.06.01. 11:41
Köszi Chrema, így akkor már ketten erősítenek meg abban, hogy talán mégsem volt annyira félreérthető, amit írtam.

Azonban szerintem amíg FHD-n a 1080 az egyik leggépigényesebb Rise of the Tomb Raiderben 120 fps-t produkál, Divisonben 110 fps-t és az örök-gyilkos Crysis 3-ban 82-t, addig nem kell attól tartani, hogy 2-3 hónap múlva jöhetnek olyan játékok, ahol elvérzik. Arról nem is beszélve, hogy a tesztek úgy 80-90%-ában FHD felbontáson nem is tesztelik, csak 1440p-ben és 4k-ban. Amúgy ahogy írtam, számomra is a FHD fix 30 fps elegendő bizonyos esetekben. A konzolosoknak sem folyik ki a szemük. A lényeg, hogy ne ingadozzon az fps nagyon, illetve sokat, mert nyilván ha 30 fps-ről beesik 15-re, az kellemetlen.
 
Válasz írásához előbb jelentkezz be!
121. Asagrim FaL
2016.06.01. 11:42
Majd emlékezni fogok rá a legközelebbi console peasant megnyilvánulásodnál.

Szerencséd, hogy magas az ingerküszöböm, kevesebbért is kiraktak volna már máshol.
 
Válasz írásához előbb jelentkezz be!
120. Fzoltan BeZol
2016.06.01. 11:43
Most ez tök komoly, hogy 980Ti SLI-t tesztelnek FullHD-ben, és te felhozol egy olyan játékot, ahol még az i5 is 100+ fps-t produkál, az esetek többségében azonos az FPS, a legrosszabb esetben is max 20 a különbség?
Ez a hatalmas indok az i7-nek?
Ráadásul még azt sem tudjuk, hogy milyen frekvencián mentek a procik....
 
Válasz írásához előbb jelentkezz be!
119. Buky87
2016.06.01. 11:47
Sajnos itt sokaknak nem tűnik fel, hogy 480 az kb. 960-es áron 970-es teljesítmény és 970-es tdp-vel rendelkezik. Nem hinném, hogy 1060-nak lenne az ellenfele. Inkább a mostani népkártyát szeretnék letaszítani a trónról.

Kicsi off:
Ha mindent megszeretnél tudni az új nvidia kártyáról gyere AMD fórumba.
 
Válasz írásához előbb jelentkezz be!
2016.06.01. 11:47
Ha nekem nem szabad, Neked sem, vagy akkor mindenkinek mindent szabad
 
Válasz írásához előbb jelentkezz be!
117. Benyuss Snoke...
2016.06.01. 11:47
15 perc után szúr a szemem, fáj a fejem 30 FPS-nél. Ha Te szeretsz így órákon keresztül játszani, akkor csináld, de ne merd azt állítani, hogy ezt csinálja " az átlag"!

Reflektálva a kártyára: szerintem a közép-felső kategóriát letarolják, ha ezeket tartják és a tesztek sem fognak semmi bibit kihozni. Nem a felső- vagy csúcskategóriában van a nagy pénz és ezt az AMD is tudja. Ha jó lesz, nagyot fognak szakítani.
 
Válasz írásához előbb jelentkezz be!
116. BReal Benyu...
2016.06.01. 11:49
Minden adott, elvileg lesz pár hónap előnyük a 1060-nal szemben.
 
Válasz írásához előbb jelentkezz be!
115. xcomman Chrem...
2016.06.01. 11:56
Szinte mindent vitt highba/ultra-ba 60 fps-el. Divison, Arma 3, Black ops 3, Bf4, Evil within, Alien Isolation, Thief, Dark souls 3... Mantle/vulkan/dx12 cuccok mégjobban mennek vele, bár nem sok ilyen van jelenleg, ezt elismerem. Ennyi pénzért a legjobb vétel volt 1 éve.
 
Válasz írásához előbb jelentkezz be!
114. RealDreamQ Buky8...
2016.06.01. 12:04
Kicsi off:
Ha mindent megszeretnél tudni az új nvidia kártyáról gyere AMD fórumba.


Ez de tetszett , felröhögtem

bocs mindenkitől

FaL (Válasz Asagrim üzenetére) 2016. 06. 01. 11:47

+++
Ez így van , akkor a szabályt betartatni és betartani !
 
Válasz írásához előbb jelentkezz be!
113. R.Soma BeZol
2016.06.01. 12:06
Valami nem stimmel azzal a videóval. Egyrészt valamiért a 4790K-s konfignak folyamatosan jóval magasabb a vram használata (sokszor 1 gb különbség, miért?), másrészt nem tudjuk, hogy milyen órajelen futnak a procik, egyedül azzal már szét lehet csalni az egészet, vagy egyszerűen figyelmetlenségből (juj fenthagytam 4.8-on a 6700K-t) fals eredményt produkálni. Nem vonnék le messzemenő következtetéseket ez alapján, viszont bármerre nézek, egy 4790K simán elvisz két 980Ti-t különböző források szerint. Pofára esésről szó sincs.

Szerintem momentán a procikkal az a helyzet, hogy az a jó ha megvan a 4 mag (i5), ha nagyobb felbontás és/vagy grafikaigény van - ez nyilván egyénenként változik -, akkor van pár játék, ami kihasználja az i7-est. Nem sok, a Starcraft2 például 2 magot használ, ott a single-core teljesítmény sokkal fontosabb, abban meg a 4 magos i7-esek rendszerint jobbak, mint a 2011-3-asok. Nagyon nem szerencsés sommás kijelentéseket tenni, túl sok a tényező hozzá.
 
Válasz írásához előbb jelentkezz be!
112. ThePoweR
2016.06.01. 12:09
112 hsz? Pff. Bele se kezdek.
 
Válasz írásához előbb jelentkezz be!
111. RealDreamQ R.Som...
2016.06.01. 12:13
Sok-sok helyen is olvasható , hogy nem CPU terén lett előrelépés , hanem a GPU lett jóval ütősebb ... nemsokkal hoz többet a 6700K , ez megint sok helyen olvasható . Persze fanok szemét ezek a sorok elvakítják , mert az nem úgy van ... google mindenki barátja , aki arra is képtelen , csak az kér linket .
 
Válasz írásához előbb jelentkezz be!
110. Asagrim ThePo...
2016.06.01. 12:14
Nem maradsz le semmiről.

RealDreamQ

Elhiszed, hogy nem érdekel mit gondol a moderálásról olyan ember, aki már maga is moderálásban részesült, mert nem bírja betartani a szabályokat? Most is az 1.10-et szegitek, már megint. Úgy látom ideje frissíteni azokon a szabályokon, aztán meglátjátok kinek mit szabad és mit nem.
 
Válasz írásához előbb jelentkezz be!
109. SnokeHUN Chrem...
2016.06.01. 12:19
Az emberi szem 24 képkockától kezdve folyamatos mozgó képet lát. Tehát 30fps ilyen szempontból luxus a pillázódnak. A szemszúrás jelenséget meg ahhoz lehet kötni, hogy elfelejtesz pislogni. Az meg bebizonyított tény, hogy egy képernyőt feszülten bambulva ez gyakran bekövetkezik. Az hogy 30+fps hogy a fenébe sarkal téged pislogásra az jó kérdés lenne.
De sztem csak szimplán szar a monitorod. (most biztos jön a fejedbe a reposzt, hogy de az enyém egy kurvajó monitor, meg új, meg drága. Oké, lehet csak nem a TE szemednek vagy csak a konfig összeállításánál nem vettél figyelembe pár dolgot)
 
Válasz írásához előbb jelentkezz be!
108. Terror Snoke...
2016.06.01. 12:25
"24 képkockától kezdve folyamatos mozgó képet lát."

Ez meg csak egyszerűen nem igaz, szóval bukik minden, amit írtál.

Nem lehetne az ilyen urban legendekről leszállni?
 
Válasz írásához előbb jelentkezz be!
107. janika77
2016.06.01. 12:28
Hű mi van itt....
 
Válasz írásához előbb jelentkezz be!
106. R.Soma Snoke...
2016.06.01. 12:30
Jézusom, egyszer próbálj már ki egy számítógépet...
 
Válasz írásához előbb jelentkezz be!
105. ThePoweR
2016.06.01. 12:30
[LINK]

Vótmá?
 
Válasz írásához előbb jelentkezz be!
104. R.Soma ThePo...
2016.06.01. 12:32
Az előbb ment le, hatalmas
 
Válasz írásához előbb jelentkezz be!
103. SnokeHUN Terro...
2016.06.01. 12:36
Ez tény, ha figyeltél volna az iskolában a biosz órán is tanulhattál volna róla.

Aki meg ezt urban legendnek tartja érdekelne mikor volt szemésznél, mert sejtem ráférne egy cilinderes szemüveg vagy úgy vett monitort, hogy megnézte az árukeresőbe a toppot, amit elbír a tárcája. Bezzeg ha méltóztatna elmenni egy áruházba meglesni melyiknek milyen a képe és melyiket látja jobbnak talán nem szenvedne a 30fps-től.
 
Válasz írásához előbb jelentkezz be!
102. Chrematori... Snoke...
2016.06.01. 12:42
LOL ez vicces volt, már ne haragudj :'DD Figyelj (igen ezt leírtad :'D), a monitorommal semmi baj, mert mikor 60 FPS el játszottam mennyit is, 4 órát egyhuzamban? Nem volt semmi bajom. Ám de mikor 30 al kellett tolni, mert bugolt a játék, és VSync On + 30FPS limit ment, akkor 1 órát már nem húztam le gép előtt, inkább levegőztem egy jót. Lehet az én szemem mutáns, mert meglátom 50 és 60 FPS között is a különbséget, de szakadjak meg, mert ez engem még zavar is. Egy konzolos lehet hozzászokott, neki ez standard, de nekem nem. Konzolom nincs, PC m van, és örülök is neki. Ahol lehet, a lehető legtöbb FPS t szeretem kifacsarni belőle. Nem azt mondom, hogy 80 ból legyen 120, mert az nem kell. De ha egy game t maxon 50 FPS el tolok, akkor fogom magam, és kap +80 Mhz t a GPU, és +300 Mhz t a MC. Kb 60-70 FPS nél van már az a gördülékenység, amiben a képkocka váltások közötti idő igencsak csekély, és már nem bántja a szemet (hozzáteszem részemről ). És mivel ez egyéntől függ, nem vonhatjuk le azt a következtetést, hogy ha Lacikának nem b@ssza a szemét a 30 FPS, akkor Pityukának sem fogja. Akinek megfelel a 30, tessék, ott van Akinek több kell, az majd eléri. Én mindössze azon akadtam fent, hogy FHD nél a gép csak 30 at produkál, pedig ahová 1080p s monitor megy, ott egy normális CPU&VGA nak is lennie kell, és itt nem is értem, hogyan jön ki annyi. Biztos van olyan apróbb beállítás, ami nagy nyomást gyakorol a teljesítményre, és annak csökkentésével vagy kikapcsolásával, tehát minimális képminőségromlással meglenne 50 felett is.
Ha nem bántja a szemét, áldásom rá, de ha idővel igen (fél óra, 1 óra non-stop monitornézés), akkor nyugodtan lehet hajtani a több FPS re, senki senkit nem fog érte megölni, mert nem konzol minőségben játszik gépen. Ha megteheti, tegye csak nyugodtan meg, nem kell szenvedni. Azon viszont még fogok 1 darabig csodálkozni, hogyan képesek az emberek 30 FPS el játszani huzamosabb ideig.
 
Válasz írásához előbb jelentkezz be!
101. Terror Snoke...
2016.06.01. 12:43
Ez egy olyan tény, amivel szemmel láthatóan senki nem ért egyet és iskolában sem tanítanak ilyen baromságokat.

Nem az kell szemészhez menjen, aki látja a különbséget 24 és 60 fps között, hanem az, aki nem! (logikából is jeles vagy)
 
Válasz írásához előbb jelentkezz be!
100. Chrematori... ThePo...
2016.06.01. 12:48
5:08 tól istenem, szakadok
SnokeHUN, 1 kérdés, valóban nem csekkoltál még PC t?
lehet én vagyok a hülye, de ha mobilon vagyok egy combosabb játékkal, ott is zavar a 30 FPS, de hát egy Mali 450 MP től mit várni :3
+1 kérdés ha nem baj... Nálatok biosz órán azt tanítják, hogy ha tolsz egy FPS game t, ott 30 FPS luxus, mert 25 től már annyira gördülékeny, hogy folyamatos mozgásnak látjuk? Én nem tudom, de 25 FPS től kisül a szemem, 30 még kínoz, de az 50+ már huzamosabb ideig bírható. Mellesleg videóról van szó 25 FPS el vagy 30 FPS el? Mert ott még helytálló, de megmondom őszintén, egyhuzamra 1 film elég is 30 FPS el, ha van rá mód, ott is inkább 60.
 
Válasz írásához előbb jelentkezz be!
99. SnokeHUN Chrem...
2016.06.01. 12:48
Hát tudod mit? Gratulálok! Élő pédája vagy, hogy az evolúció igen is létező dolog

De most így hírtelen megfogalmazódott bennem egy kérdés, ami így hangzik:
Te jársz moziba? Nem akar a szemed kiesni a helyéről? Mert ugye ott fix 24fps van, a Hobbit volt egyedül 48fps, igaz az 3Dben volt)
 
Válasz írásához előbb jelentkezz be!
98. ThePoweR Snoke...
2016.06.01. 12:49
Tudom hogy troll, de itt egy vidi.

https://www.youtube.com/watch?v=FhSHeYT2U70
 
Válasz írásához előbb jelentkezz be!
97. Raszputyin Snoke...
2016.06.01. 12:52
A filmekben természetesen mozgáselmosás vanik, attól nem érzi a szem/agy a 24Fps-t. Egy 30Fps-es játék motion blur-ral ugyanolyan folyamatos lehet érzetre, mint egy 60-as anélkül.

Ez persze a látványra vonatkozik, de most az is volt az offtopic téma.
 
Válasz írásához előbb jelentkezz be!
96. showtekk Snoke...
2016.06.01. 12:52
Az a szomorú, hogy még bizonygatod is a butaságodat.. Filmeknél videóknál tényleg elég a 24fps, de teljesen más kategória egy videó/film mint a játék. Azt, hogy 30fps elég e vagy sem mindenki döntse el maga, nem vagyunk egyformák mindenki máshoz szokott hozzá, de ne kezdjünk már ilyeneket megmagyarázni, hogy 24fps elég mer onnantól kezdve látja folyamatosnak a szem... olyan szinten baromság ez, hogy else tudom mondani És tényleg az a durva, hogy még bizonygatod és bizonygatni is fogod ezt, függetlenül attól, hogy még többen fogják írni, hogy hülyeség amit írsz.. na mindegy, az a baj én se tudtam megállni már, hogy ne szóljak hozzá ehhez, pedig önmagában elég szomorú, hogy egy RX 480as AMD cikk alatt ilyeneken vitatkozunk és csinálunk 100-200 kommentet a semmiért.
 
Válasz írásához előbb jelentkezz be!
95. Asagrim Snoke...
2016.06.01. 12:55
https://en.wikipedia.org/wiki/Motion_blur
 
Válasz írásához előbb jelentkezz be!
94. hazazs bakkp...
2016.06.01. 12:57
Nem hogy pont mindig az SLI / CFX konfigokkal van a baj állandóan?
Mikrolag-ok, profilhiány, plusz a dupla árért általában 40%-nyi plusz teljesítményt kapsz.
Véleményem szerint jobban megéri egy brutál erős kártya.
Több kártyás rendszerben egyedül annak látom értelmét, ha aktuális csúcskártyából van kettő, mert ott már tényleg nem lehet máshogy fentebb lépni.
Persze ettől még csinálja nyugodtan az, aki gerjed rá.
 
Válasz írásához előbb jelentkezz be!
93. LGx
2016.06.01. 12:58
istenem...
a biológia csak azt mondja, hogy 24fps-től látja az agyad egybefüggő mozgásnak.
azt sehol nem írják, hogy ez az etalon, vagy elegendő bármi másra...
 
Válasz írásához előbb jelentkezz be!
92. atix2
2016.06.01. 12:59
félek értelmes keretek között hozzá szólni a cikkhez, mert egyből nekem esnek vagy 3an agydurrantó, amit egyesek írnak. Ha az AMD 150W-os fogyasztással elverné az 1070-t egyeseknek az sem tetszene, sőt! azonnal köveznék is érte ..."ha nem elég erős az a baj, ha túl erős akkor meg az a baj..."
SnokeHUN: a 24FPS-ről meg annyit, hogy ha 24Hz-es a monitorod, akkor valószínüleg tényleg nem látsz 24fps-nél szaggatást. 60Hz-nél üzemelő monitornál ha kevesebb FPS-t képes a kártya feldolgozni egymillió százalék, hogy lesz tearing vagy be akadás a képkockákban. Szem ide, vagy szem oda....
na de felesleges válaszolnod, mert én ide vissza nem jövök lezsibbasztott pár vélemény...elég volt!
 
Válasz írásához előbb jelentkezz be!
91. Chrematori... Snoke...
2016.06.01. 13:00
Hát lehet genyó vagyok, de nem járok moziba, most mondok 1 nagy érdekességet (máramennyire az ). Kárpátalján élek, de nem MO n hanem Ukrajnában, és teszek magasról az ukrán filmekre Megnézem én itthon is, TV n vagy PC n, nem számít Voltam moziban, szép képet adott, gördülékenynek is tűnt, de nekem valahogy irrealisztikus a képméret, ezért sem nagyon fogott meg. Pl az hogy 5x akkora vetítőn egy ember, mint a valóságban. Igaz, monitoron pedig kisebb, de azt már jócskán megszoktam
Raszputyin, vannak emberek, akik rühellik a MB t, vagyis a mozgás elmosódást. Én m1 melyik játékról legyen szó, első dolgom hogy kikapcsolom. Mondjuk ott van a Post Processing, azaz utófeldolgozás, az is egy érdekes cucc, ha húzza is a teljesítményt, a lehető legjobbra rakom, mert egyszerűen szúrja a szemem a gördülékenység hiánya. Mondjuk kinél hogy
 
Válasz írásához előbb jelentkezz be!
90. SnokeHUN showt...
2016.06.01. 13:04
Igazából trollkodtam. Egy egyetemi beadandóhoz csináltam így anyagot. Jobb lett, mint vártam. Köszönöm
 
Válasz írásához előbb jelentkezz be!
89. Chrematori... hazaz...
2016.06.01. 13:07
+1
3 esetben látom csak életképesnek:
1. Már van egy elég jó kártya, és spórolás végett csupán kiegészítik még1 ilyen kártyával.
2. Az abszolút csúcs kártya képtelen az adott felbontáson (pl 4K, Surround) jó FPS el megjeleníteni a játékokat, és csak így lehet jelentősebb teljesítménynövekedésre szert tenni (+ OC).
3. Amikor kiállításokról van szó, MODDING van reflektorfényben, amikor a megjelenés fontosabb, mint a teljesítmény, és ezt meg is fizetik. Mert valljuk be, azért eléggé szemet gyönyörködtető látvány 2db vagy ennél több VGA fúziója.
 
Válasz írásához előbb jelentkezz be!
88. Asagrim Snoke...
2016.06.01. 13:15
Érdekes egy egyetem lehet. Ilyenkor már a legtöbb helyen javában tart a vizsgaidőszak.
 
Válasz írásához előbb jelentkezz be!
87. ChoSimba Chrem...
2016.06.01. 13:29
Szerintem 2 kártya fúziója csak akkor szemet gyönyörködtető, ha a két kártya drága
Ilyen alapon egy R7-250 CF is szép ?
 
Válasz írásához előbb jelentkezz be!
86. Chrematori... ChoSi...
2016.06.01. 13:45
Alapjába véve, ha a hűtés is korrekt, akkor az Szóval ha egy normális egyedi, vagy VGA block kerül rá, akkor persze
Ha egy drága SLI / CF rendszerre tekint az ember, akkor pedig az ugrik be neki, hogy nem csak f@szántosan néz ki, de biztos bivalyerős is
 
Válasz írásához előbb jelentkezz be!
85. BReal ThePo...
2016.06.01. 13:55
 
Válasz írásához előbb jelentkezz be!
84. comeon Asagr...
2016.06.01. 13:58
Biztos PhD-zik
 
Válasz írásához előbb jelentkezz be!
83. BReal Snoke...
2016.06.01. 13:58
Én, mint a 60 fps-hez nem ragaszkodó egyik mintapéldánya, ezt cáfolnám. 50-60 fps körül érezhetően folyamatosabban mozognak a karakterek, illetve sokkal reszponzívabb az irányítás. Emiatt írtam még előtte, hogy pl. nekem egy Witcher 3-nál, Divisionnél, stb. a legfontosabb a 30 fps tartása, viszont olyan játékoknál, mint egy Overwatch, mondjuk egy jövőbeli Unreal Tournament, egy pörgős Doom, egy Forza vagy egy Project CARS, sokkal jobb érzés vezetni, illetve sokkal "könnyebb" célozni, lőni.
Chrematorium: Néztem pár filmet 48-60 fps-sel, de számomra ott már teljesen olyan érzetet ad, mintha 1,5-szeres gyorsítással lenne lejátszva. Nagyon utálom.
 
Válasz írásához előbb jelentkezz be!
82. xcomman BReal
2016.06.01. 14:09
Még a po**óban is jobb a 60 fps, írja bele ezt is a dogába vaa
 
Válasz írásához előbb jelentkezz be!
81. s_otto
2016.06.01. 14:11
Egy online újságban ezt hozták le: "Raja Kudori emellett kihangsúlyozta, hogy a Doom érkező frissítésébe olyan funkciók kerülnek, amelyeket csak Radeonon érhetnek el a felhasználók."

Már megint megvan hogy miért lesz jó az amd terméke. Ilyen volt régen az apu, aztán a bulldozer, de hogy régebbre menjünk vissza a dx10, majd a dx11, aztán a dx12 - az első játék 1 hétig el sem indult radeonon. Ilyen volt a mantle, a 4db játékkal, aztán a VR, ami még mindig nem elérhető, ilyen a vulkan api, amit nvidia kártyán demóztak először.
 
Válasz írásához előbb jelentkezz be!
80. BReal
2016.06.01. 14:12
Igen Ottó, tudjuk.
 
Válasz írásához előbb jelentkezz be!
79. Derivel
2016.06.01. 14:13
Két darab 480-as jobb fps-t ért el egy AMD által támogatott játékban, mint a 1080. Ez jól is hangozna, csak az a bökkenő, hogy az AMD benchmark-jában lejjebb vették a grafikai beállításokat.
 
Válasz írásához előbb jelentkezz be!
78. Riddick77
2016.06.01. 14:24
Ez bejövős,várom a teszteket,ha jó áron lesz lehet két MSI befigyel.
 
Válasz írásához előbb jelentkezz be!
77. Juliska s_ott...
2016.06.01. 14:34
Mik lesznek ezek a "funkciók"? Van bővebb leírás?
 
Válasz írásához előbb jelentkezz be!
76. Resike BReal
2016.06.01. 15:00
Amikor először ültem le egy több 100Hz-es tévé elé egy 60 fps-es filmmel nekem is ilyen érzésem volt. De hidd el hogy ugyanúgy meg lehet szokni mint minden mást és amikor már megszoktad a "jót" utána minden más szarnak fog tűnni mellette. Csakhogy mindenki agya más-más fps-re van ráhangolódva és ezért vannak a 30-60-120fps-es viták. Amúgy egy átlagos ember szem paraméterei ~600MP és 90hz, ha a monitor a látótered ~1/4-ét tölti ki akkor az ~150MP, amitől már egyáltalán nem vagyunk messze a 8K UHD az már több mint 33MP.
 
Válasz írásához előbb jelentkezz be!
75. BReal Resik...
2016.06.01. 15:02
Ez nem azt jelenti, hogy néztem 1 percet, és felálltam. Láttam belőle eleget ahhoz, hogy azt mondjam, számomra nem ad természetes hatást filmeknél.
 
Válasz írásához előbb jelentkezz be!
74. s_otto Julis...
2016.06.01. 15:07

"beépített shader funkciókat" - "lényegében az AMD friss konstrukciója a konzolszerű programozást teszi lehetővé PC-n"

Valami rettentő hasznos és élni nem lehet nélküle dolog - fél év és a kutya nem emlékszik rá kb.

a konzolszerű programozás egyébként nem nagy kunszt 960p 24-30fps - na ebből nem kér a PC
 
Válasz írásához előbb jelentkezz be!
73. Resike BReal
2016.06.01. 15:09
És nézted egy hónapon keresztül? Körülbelül ugyanannyi idő az átállás mint egy új szemüveg megszokása, és ha közben mégis több időt töltesz egy másik monitor frissítésén akkor meg még több idő.
 
Válasz írásához előbb jelentkezz be!
72. BReal Resik...
2016.06.01. 15:10
Szemüveges vagyok, volt már pár az életem során, és nem 1 hónap megszokni. Kb. 1 nap alatt hozzászokok az újhoz. A 60 fps-es játékokat sem tart sokáig megszokni. Szóval számomra felejtős.
 
Válasz írásához előbb jelentkezz be!
71. Steven86 Snoke...
2016.06.01. 15:17
Gratulálok, hogy az "analóg" és digitális képalkotási szisztémákat hasonlítod össze IMÁDOM az ilyeneket! Te figyu! Konzolos vagy? Nekik adták el ezzel a szöveggel az "új generációs" konzolokat
(azért nem mindegy, hogy egy ARMA 3 mondjuk fut 130FPS-el, vagy fut 25FPS-el!) DDDDDDD
 
Válasz írásához előbb jelentkezz be!
70. Juliska s_ott...
2016.06.01. 15:18
Értem már, intrinsics függvények. Most ezek szerintem tényleg nagyon hasznosak. Akkor a Doomban nehéz lesz verni a Polarisokat.

Szerintem a konzolszerű programozáson a hatékonyságot értik. Ilyen függvények jó alkalmazásával ugyanaz a hardver kétszeresére gyorsítható.
 
Válasz írásához előbb jelentkezz be!
69. Steven86 Resik...
2016.06.01. 15:20
Még anno, amikor láttam egy majd 2t méter átlójú 4K 600Hz-es tévét és Párizsról nyomott drón felvételt, és olyan kamhabi kontrasztot meg színeket vert a videóra, hogy kifolyt az agyam és majdnem behánytam... + az sem segített, hogy tele volt verve HDR-el... -_- :I
 
Válasz írásához előbb jelentkezz be!
68. Fzoltan Deriv...
2016.06.01. 15:20
Az eredeti mondat így hangzik: 2db RX 480 azonos teljesítményt nyújt AoS alatt, mint az 1080, kevesebb fogyasztás mellett.
 
Válasz írásához előbb jelentkezz be!
67. Steven86 Terro...
2016.06.01. 15:21
Nyugi! Ha neki elég a 25, hívjuk csézni
 
Válasz írásához előbb jelentkezz be!
66. Derivel Fzolt...
2016.06.01. 15:43
Az a kevesebb fogyasztás hogyan lehetséges, ha a 480-ak külön-külön is 150W-ot fogyasztanak, a 1080 pedig 180W-ot?
 
Válasz írásához előbb jelentkezz be!
65. som82
2016.06.01. 15:51
Nekem ez " Túl szép,hogy igaz legyen" kategória!
 
Válasz írásához előbb jelentkezz be!
2016.06.01. 15:54
"Az emberi szem 24 képkockától kezdve folyamatos mozgó képet lát. Tehát 30fps ilyen szempontból luxus a pillázódnak."

24 fölött bizonyos esetekben megközelítheti a valóságost. Attól az még közel sem lesz ugyanolyan, mint a valóságos, illetve, képernyő mérettől, jelenettől is függ hogy a 24 elég-e.

Csak egy példa arra, hogy nem elég: valami olyan sebességgel mozog a képernyődön, hogy egy képkocka alatt kimozog az előző helyzetéből. Mondjuk a méteres TV egyik sarkából a másikba vándorol fekete háttér előtt egy 10 pixeles fehér négyzet: nem folyamatos csíkot fogsz látni, hanem 5 centire egymástól négyzeteket. QED.
 
Válasz írásához előbb jelentkezz be!
63. Fzoltan Deriv...
2016.06.01. 15:59
Nem tudom, de tényleg így hangzott a mondat.
 
Válasz írásához előbb jelentkezz be!
62. Dom013
2016.06.01. 16:08
OFF tudtam hogy ennyi kommentet fog generálni /OFF
Nekem a következőt jelenti ez a kártya (előre is bocs mindenkitől aki csak azt vette ki a cikkből hogy 2 db kell belőle hogy befogja a 1080-at). Nekem az a lényeg hogy a 270x-emet ami 2 és fél évig kiszolgált erre tökéletesen le tudom cserélni és nem fog rámenni a gatyám, ha hozza tényleg egy 390/970 szintjét és megáll 75k magyar forintban akkor már el is adtak egy ilyet. Tápot sem kell cserélnem, FHD gamingre tökéletes az i5-öm mellé. Továbbá, ha jól olvastam, akkor ez nem a csúcskártyájuk hanem a 200 dolláros megoldás. 300-ért nem tudhatjuk még egyenlőre mit fogunk kapni, szóval hajrá AMD, csinálj konkurenciát a zöldeknek (nem vagyok fanboy, csak szeretem ha van versenytárs, mert az árakat kicsit stabilizálja)
 
Válasz írásához előbb jelentkezz be!
61. Raszputyin Riddi...
2016.06.01. 16:13
Két kártya = több hő és több zaj és jóval több macera, meg várakozás arra, hogy a következő beta driverben már javítják a fél éves játékokban jelentlező bugot, microstuttert, akármit.

Ha olyan nagyon megérné a kétkártyás rendszer, akkor miért nem gyárt az AMD két GPU-s középkategóriás cuccokat?

Szerintem mindent összevetve nem éri meg két kártyát venni, ha egy valamivel drágább is minimum ugyanúgy megoldja az adott teljesítményt. Legyen az 480 vagy GTX960.

Meg ez már milyen promózás. Ilyen alapon mondhatnák, hogy vegyél 280x-et, mert négy darab eléri a 1070 sebességét.
 
Válasz írásához előbb jelentkezz be!
60. Raszputyin Dom01...
2016.06.01. 16:13
Nem mi vettük le ezt a cikkből, hanem ez volt a fő érv az AMD részéről a kártyára.
 
Válasz írásához előbb jelentkezz be!
59. s_otto Julis...
2016.06.01. 16:15
Igen, ez az ugyanaz a hardver kétszeresére gyorsítható bejött a konzolon, még a fullhd 30 fps is nyögve nyelős. Szerintem ezt az utat egy PC játékos sem igényli.

De a lényeg nem ez - már megint megvan a mantra.
 
Válasz írásához előbb jelentkezz be!
58. Raszputyin Dom01...
2016.06.01. 16:16
Én pont utálom, ha valamiből már variálni kell, hogy mit vegyek, szeretem az egyértelmű dolgokat. Lehet, hogy nem korrekt, de én kedvelem a dominanciát CPU / VGA fronton, mert nem azt nézem minden új játék tesztben, hogy hú a francba, itt jobban teljesít a másik termék, miért nem azt vettem.
 
Válasz írásához előbb jelentkezz be!
57. Chrematori... BReal
2016.06.01. 16:23
Én is lestem 60 FPS est, nekem realisztikusabbnak tűnt, mert nem "rebegve" mozgott a jelenet, és ez tetszett. Nálam nem tűnt gyorsabbnak semmi, csak gördülékenyebbnek, bár kinél hogy
s_otto, valóban? Lesz egy olyan funkció, amit csak AMD használhat? Ejj, akkor kötelességem lesz AMD t venni, fenébe is
Viccet félre téve, AMD nél sem ShadowPlay, PhysX, GameWorks, VXGI, stb nincs. De most van 1 dolog, ami csak nekik szól, hát hurrá, örvendjenek
 
Válasz írásához előbb jelentkezz be!
56. Juliska s_ott...
2016.06.01. 16:33
Megkerestem azt a hírt. Benne voltak a linkek a függvényekről. Szerintem meg kellene kérdezni a Microsoftot, hogy ezek miért nem szabványok. Egy évtizedre visszamenőleg én nem tudok mondani ezeknél hasznosabb fejlesztéseket.
 
Válasz írásához előbb jelentkezz be!
55. Szefmester s_ott...
2016.06.01. 16:42
Azért az vágod remélem hogy a felbontás meg a képen megjelenő textúra és poligon mennyisége az nem függ össze? Simán tudnék mutatni olyan játékot ami fHD-n nem 30 hanem 300fps... Nem akarom védeni a konzolosokat, de ott már rég nem a felbontás miatt vannak a gondok.
 
Válasz írásához előbb jelentkezz be!
54. Riddick77 Raszp...
2016.06.01. 17:00
Nem mondtam,hogy két kártyás rendszert akarok!

Két gépbe 1-1 kártya. Egy 24" és egy 26" fullhd monitorhoz pont elég lesz szerintem a Polaris.
 
Válasz írásához előbb jelentkezz be!
53. s_otto Julis...
2016.06.01. 17:32
Én is megkerestem. A kutyát nem érdekli. 1-1
 
Válasz írásához előbb jelentkezz be!
52. HozeManuel fireb...
2016.06.01. 17:41
Szóval szerinted szégyen ha referenciának azt mondja a cég egy 200 dolláros VGA-ról hogy a teljesítménye fele annyi mint a konkurencia csúcs 600 dolláros kártyájának? Fanboy szagot érzek.
 
Válasz írásához előbb jelentkezz be!
51. HozeManuel Snoke...
2016.06.01. 17:45
Úgy látszik nem érted a szarkazmust. Próbáltam rávilágítani arra hogy otthoni felhasználás esetén nem sok értelme van az AMD többlet fogyasztását felhozni mert elenyésző többletet jelent és az a többlet nem feltétlenül elég arra hogy jobb nvidia kártyát vegyél belőle. Vagyis kb minden más szempont többet nyom a latban mint ekkora fogyasztás különbség. Hogy munkaállomásba mi a jobb arról nem volt szó csak te keverted bele feleslegesen.
 
Válasz írásához előbb jelentkezz be!
50. Bihus
2016.06.01. 18:33
Szerintem ha ez a 480-as tényleg ennyit fog tudni, azaz egy 970+ teljesítmény 200 dollárért, az teljesen fasza. A 970 300 dollár volt valamivel több, mint egy éve.

Az a baj megint ezzel, hogy ott a HA. AMD-nél lassan már gyököt kell vonni mindenből, amit ígérgetnek, remélem, most tényleg nem túloztak nagyot.

Gondolom a 300 dodó körüli AMD az a 490 vagy 490X lesz, ha ott meg 980 fölötti teljesítményt sikerülne elérniük, az szerintem már nagy fegyvertény lenne. 1070-et nem gondolom, hogy befogják, de az se lenne ám rossz, mert akkor az NV kénytelen lenne árat csökkenteni
 
Válasz írásához előbb jelentkezz be!
49. Phantomstr... HozeM...
2016.06.01. 18:34
A fogyasztás nem csak a villanyszámlán csapódik le. A múlt héten például játszottam durván másfél órát és megfigyeltem, ezalatt a másfél óra alatt közel 3 fokot melegedett a szoba. A hűtés is eléggé meghangosodott, ami mondjuk jobb hűtéssel (vagy fejhallgatóval) kezelhető, de a hőt attól még el kell vezetni a GPU-ról, és vajon hova megy? A szoba levegőjébe. Akkor is, ha fullextrás vízhűtéssel nyomod és akkor is, ha gyári referenciával.
 
Válasz írásához előbb jelentkezz be!
48. s_otto
2016.06.01. 18:38
Azért az remélem feltűnt valakinek, ha ezek a karik 90-100e környékén beesnek, és CF-ben elérik az 1080 teljesítményét (ami kizárt), akkor jól befűtenek a 250e forintos Fury-nak is. Mert az ráadásul kb 30-40%-al lassabb mint az 1080.

Szóval senki ne várjon ilyen teljesítményre - ha tényleg tudná amit egy 390, annyiért is adnák, jó párszor megmutatta az AMD is, ő sem szeretet szolgálat - lásd fury ár.
 
Válasz írásához előbb jelentkezz be!
47. HozeManuel Phant...
2016.06.01. 18:43
Természetesen igazad van de ha nem olvastad az eredetit minek szólsz bele? Ott csak arról volt szó hogy a villanyszámla miatt többe kerül üzemeltetni.
 
Válasz írásához előbb jelentkezz be!
46. Szefmester Phant...
2016.06.01. 19:07
Én télen többet játszom, meg többet terragenezek mert kevésbé fogok fázni éjjel. Lásd a pozitív oldalt is!
 
Válasz írásához előbb jelentkezz be!
45. sutyko_hop...
2016.06.01. 19:14
Az ar popec, a teljesitmeny is.
A fogyasztassal viszont nem vagyok kibekulve.
Ennek olyan 100 watt korul kene kajolni...
 
Válasz írásához előbb jelentkezz be!
44. BReal Dom01...
2016.06.01. 19:47
+1 Szívemből szóltál, ugyanilyen kártyát váltana. Nem sietek (most úgyis csak Overwatch és WoW megy, ahhoz meg elég), megvárom a 1060-at, és majd utána landol valamelyik.
 
Válasz írásához előbb jelentkezz be!
43. BReal s_ott...
2016.06.01. 19:55
200 dollár lesz. Az 80000 Ft. A 1080 FE 700 dollár, 260e volt itt Iponon. Ha most azzal számolok, akkor lehet nem lesz a kis Polaris, csak 74000 körül. Szóval nem 90, pláne nem 100e. Befűtenek a Furynak? Miért, a 1080 mit csinált a 980 Ti-vel? Amúgy akinek Furyja van, megkockáztatom, hogy ilyenből nem fog CF-et venni.
 
Válasz írásához előbb jelentkezz be!
42. Trivia Riddi...
2016.06.01. 19:59
Elég, ha van az emberben kompromisszumkészség. Én pont ezért jöttem le a konzolokról (PS 1-2-3), mert a PS4 nem hozta azt, amit kellett volna a PS3 után. Inkább fizetek, de nem akarok popup és framerate ingadozást meg sok recét a multiplatform címeknél (exkluzívokban mindig AAA volt a PS, azokkal nem volt baj).

Most is onnan indulok ki, hogy ha egy tuning 970 már bajban van az ultra FHD-val, akkor mindenképpen egy +40% erő kell a közeljövőben. Persze a középmezőnybe jó a Polaris, de szerintem a 970 némiképpen átrendezte ezt is, hiszen "népkártya" lett, így aki váltana, az nem fog egy ugyanolyan vagy alig jobb terméket választani.

Értem én, hogy az AMD-nek minimális lett a mozgástere, és ha olcsón adják a kártyáikat, még több profittól esnek el így tartaniuk kell egy bizonyos árat, szóval nem lennék most a CEO helyében.
 
Válasz írásához előbb jelentkezz be!
41. BReal Trivi...
2016.06.01. 20:01
Látod, csak ezen a fórumon van 2 ember (Dom013 és én), aki egy 270x-et váltana erre a kártyára. És ezen kívül vannak más fórumok is. És ez csak Magyarország. Ennek a kártyának bőven megvan a létjogosultsága. Amúgy mi az az ultra FHD?
 
Válasz írásához előbb jelentkezz be!
40. Gunther Fzolt...
2016.06.01. 20:01
OFF
Ezt azoknak akik szerint az SLI marginálisan gyengébb mint a CF, már akkor akartam linkelni amikor az új SLI híd alá kommenteltek olyanokat hogy az AMD több gpu-s rendszere híd nélkül jobb természetesen tesztek nélkül.
teszt1
teszt2
 
Válasz írásához előbb jelentkezz be!
39. BReal Gunth...
2016.06.01. 20:13
És a Pro Duo CF-ként működik? Az oké, hogy 2 Nano van összeépítve, de pl. ha van egy játék, ami nem támogatja a CF-et, akkor ennél a kártyánál leesik a ~ felére a teljesítmény?
 
Válasz írásához előbb jelentkezz be!
38. Bihus Trivi...
2016.06.01. 20:35
"a 970 némiképpen átrendezte ezt is, hiszen "népkártya" lett, így aki váltana, az nem fog egy ugyanolyan vagy alig jobb terméket választani."

DE, ha nem 100 ezerért akar kártyát venni, hanem 60-70-ért.

Mint pl. én. Simán benne van a pakliban ez is, bár az 1060-at várom nagyon. 1070 nekem túl drága.
 
Válasz írásához előbb jelentkezz be!
37. Gunther BReal
2016.06.01. 20:41
A 2 gpu-s kártyák minden esetben SLI vagy CF-ként működnek és ha nincs támogatás csak 1 GPU megy, de újabb AAA játékoknál szinte mindig van támogatás.
Még régen a 980SLI-vel csak 1-2 olyan játékba futottam bele ami nem támogatta.
 
Válasz írásához előbb jelentkezz be!
36. Asagrim Gunth...
2016.06.01. 20:51
Hűha, ezzel mostaztán nagyon bebizonyítottad, hogy a kétkártyás SLI jobb mint a CF, mikor eleve két erősebb kártya volt SLI-be kötve!

Ja, bocs, itt a teszted (ebből ki is derül, hogy a marginálisan jobb CF valamelyest behozta a 2 FuryX hátrányát az első linkeden látható teszteknél):

https://youtu.be/_wNtJ_JXc3I?t=388
 
Válasz írásához előbb jelentkezz be!
35. Chrematori... BReal
2016.06.01. 20:58
Asszem belső CF és SLI kapcsolatuk van, ugyanaz mint a kétkártyás rendszereknél, csak itt egy nyákon van a 2 GPU, de ugyanúgy reagálnak a játékokra, mint a többkártyás rendszerek. Titan Z is kb így volt. Jó kártya, erős kártya, de nem mindig
 
Válasz írásához előbb jelentkezz be!
34. Gunther Asagr...
2016.06.01. 21:15

Egyre gyakrabban olvastam itt azt hogy a CF jobb mint az SLI csak az a baj hogy ez játékokban nem mutatkozik meg, lehet hogy a 980Ti alapból erősebb mint a Fury X de ezek vannak egy kategóriában gyengébb vga-król meg nem igazán van több gpu-s teszt.

Találtam egy 970-390 2 gpu-s tesztet de itt is legtöbb helyen a 970SLI nyert.
 
Válasz írásához előbb jelentkezz be!
33. Kajafun
2016.06.01. 21:29
Ez a fickó... Istenem!
Mint aki kancsal. Fontos ember, de öltöny és farmergatya... És az a gaz meg mi a rák az öltönyön???
Ashes of Singularity-ben kettő kártya hozza a GTX1080 szintet minimum? Aha, ez mekkora megtévesztés! Vagyis, csak ebben az egy játékban, ne gondoljon senki rosszra, mert csak ebben az egyben fogja, valamiért véletlen, enyi! Asszem, még most se fogom lecserélni az R9 290OC-t. Még bizonyítaniuk kell!
 
Válasz írásához előbb jelentkezz be!
32. s_otto
2016.06.01. 21:38
Nekem kb 5 éve csak sli-s rendszerem volt/van. Akik itt írogatnak hogy mennyivel jobb a CF azok nagy részének szerintem sosem volt két kártyás rendszerük. Nos a CF-ről én sem tudok nyilatkozni, de itt van valaki, aki tud, neki sokszor 2-3 két kártyás gépre elég vga-ja van otthon:

[LINK]

Nem az a baj hogy véleményetek van, hanem az hogy tapasztalat nincs mögötte.



Nem tudom ki miért panaszkodik az sli-re, én játszom mindennel, régebbi és újabb játékokkal, no problem.
 
Válasz írásához előbb jelentkezz be!
31. Trivia Bihus
2016.06.01. 21:40
2-3 évre levetítve drága a +30ezer...? Mert ha havonta kellene kártyát cserélni megértem ezt, de 2+ éves viszonylatban...
 
Válasz írásához előbb jelentkezz be!
30. Trivia BReal
2016.06.01. 21:44
Nagyon jó, hogy egy papíron bejelentett, nulla real life infót felmutató, valószínűleg egy kamukártyát a nép felé mutató kép alapján már ezt venné sok ember a fórumokjon, ez ellen nincs érvem... Bizonyára az AMD is ezek alapján gondolta (tévesen), hogy van létjogosultsága a 3xx sorozatnak és a Fury-knak.

Bocsi, ultra beállításokkal 1080p akart lenni az ultra FHD.
 
Válasz írásához előbb jelentkezz be!
29. BReal s_ott...
2016.06.01. 21:46
Tehát te úgy beszélsz erről, hogy CF rendszered nem volt, csak SLI. Oké. Ehhez nehéz bármit is hozzáfűzni. Illetve egy olyan emberre hivatkozol, akinek VOLT CF rendszere (hogy milyen régi, azt nem írja, csak hogy volt), és ebből kell kiindulni a mostani szériáknál? Epic, komolyan.
Trivia: Én pont leszarom, hogy mennyien vettek 300-at, vagy Furyt. Mellesleg miért is kéne szégyenkeznie ezeknek a kártyáknak a 900-as megfelelőjével szemben?
 
Válasz írásához előbb jelentkezz be!
28. R.Soma s_ott...
2016.06.01. 21:51
Az esetek döntő többségében teljesen jó az SLI, de vannak játékok, amiket nem bírnak rá megírni, ez tény és való.
 
Válasz írásához előbb jelentkezz be!
27. BReal R.Som...
2016.06.01. 21:55
Ilyet ne írj neki, úgyse hiszi el.
 
Válasz írásához előbb jelentkezz be!
26. Ch00ler
2016.06.01. 22:10
Ahogy nezem, korabban kellett volna jonnom. Mert most mar nem olvasom el a 192 hozzaszolast, az is biztos

Az AMD-nel csak belengettek valamit a 1080 elleneben, meg ha ez a gyarkolatban valoszinuleg totalisan fals informacio. Az Ashes of Singularity egyszeruen nem mervado az osszehasonlitasban. De valamit be kellett dobni a marketingnek is, hogy ne menjen mar annyira az nvidia szekere
Szerintem varjuk meg a junius 29-et, mielott nagyon el kezdunk almodozni arrol, hogy CF-ben hozza az 1080-as teljesitmenyt.

Ettol fuggetlenul ez meg lehet egy jo kis kartya ebben a szegmensben. Az nvidianak lepnie kell most erre is valamit, van ra 4 hetuk.
 
Válasz írásához előbb jelentkezz be!
25. Asagrim Gunth...
2016.06.01. 22:18
Én videómban egy 980Ti előnye nagyobb egy Fury X-szel szemben mint a te videódban két 980Ti-nek két Fury X-szel szemben.

Következtetés? CF-ben jobban skálázódik a teljesítmény.

s_otto

Teccik tudni mit jelent az a szó hogy "marginálisan"? Picit.
 
Válasz írásához előbb jelentkezz be!
24. ThePoweR BReal
2016.06.01. 22:36
Majdnem kétszer annyit esznek. Teljesítmény és az árazás oké, a fogyasztás nem stimmel.
 
Válasz írásához előbb jelentkezz be!
23. Chrematori... Ch00l...
2016.06.01. 22:50
Nyugodtan olvasd el, elég érdekes
Mellesleg most lehet k*csög leszek, de bár egymás torkát harapdálná a két cég, és mire a vásárláshoz érnék, szépen lekúsznának az árak
Mivel mindkettőt a pénz érdekli, egyiket sem kell sajnálni, hadd egyék egymást
 
Válasz írásához előbb jelentkezz be!
22. Gunther Asagr...
2016.06.01. 22:52
BF4-ben 1440p-n a te videódban 11.2fps különbség van az én videómban 18.44 ha jobban skálázódna kevesebb eltérésnek kellene lennie a 2 gpu-s tesztnél mint 11.2 de itt még nagyobb az eltérés vagyis jobban skálázódott az SLI, de UHD-n már kisebb az eltérés a 2gpu-s rendszernél mint az 1 gpu-nál vagyis UHD-n már jobban skálázódott a CF mint az SLI.. így leírva elég bonyolultra sikerült.
Következtetés: van ahol az SLI skálázódik jobban van ahol a CF.
Én egyiket se mondanám jobbnak a másiknál de az tény hogy az SLI-nek jobb supportja van.
 
Válasz írásához előbb jelentkezz be!
21. gibdj Ch00l...
2016.06.01. 22:57
Csak a szokásos és legfőképp unalmas szövegek, ugyan azoktól az emberektől mint mindig. Ha szánakozni akarsz egy jót, akkor olvasd végig, nekem jót tett.
 
Válasz írásához előbb jelentkezz be!
20. thestock
2016.06.01. 23:34
Ahhoz képest hogy elsőnek kommenteltem reggel most több mint 200 hsz-nél tartunk.Várható volt. Pár kommenttel sikerült egy budapest TV-s távgyógyítós, jósdás műsor szintjére süllyedni
Én nem értem mire jó ez a spekulálós hangulatkeltés... a cikkben megírt pár info alapján ez egy jó kártya lesz. Persze egy gtx 1080 jobb,viszont nem érdemes összehasonlítani. Ahova árban és teljesítményben kerül ez a kártya esélyes hogy tarolni fog. Ha tényleg tudni fogja ezt,és nem változik a jelenlegi kínálat valószínű hogy beruházok egyre, FHD-ra szerintem elég lesz.
5 évre veszünk gtx 1080-at? bátor kijelentés tekintettel arra hogy egy videókártyáról van szó
 
Válasz írásához előbb jelentkezz be!
19. ingyom007
2016.06.02. 01:44
PC > Konzol
 
Válasz írásához előbb jelentkezz be!
18. RaimiHS
2016.06.02. 09:11
Ha siettek még meglehet a 300. poszt. Én is segítek 207...
 
Válasz írásához előbb jelentkezz be!
17. Raszputyin
2016.06.02. 10:15
Ashes 480 demo közelebbről.

http://www.fudzilla.com/news/graphics/40808-amd-radeon-rx-480-crossfire-rendering-differently-vs-gtx-1080
 
Válasz írásához előbb jelentkezz be!
16. BReal ThePo...
2016.06.02. 10:28
Igen, csak azt vedd hozzá, hogy nyilván minimális fejlesztési költséget kellett beleölniük tekintve, hogy az már egy előző generációs megoldás volt. Azért a teljesítménye emelkedett kb. ugyanolyan fogyasztás mellett úgy, hogy a chipen gondolom sokat nem változtattak. Utána jött a Fury, az máris kozmetikázta a felső kategóriás kártyáik fogyasztás/teljesítmény mutatójukat.
 
Válasz írásához előbb jelentkezz be!
15. BReal Gunth...
2016.06.02. 10:30
Ezen nincs mit meglepődni, tekintve, hogy az AMD-knek jobban fekszik a magasabb felbontás. Ahogy nő a felbontás, arányaiban jobban közelít (vagy ha játéka válogatja, húz el) az NV-s párjától. a legtöbb játékban.

Raszputyin: Tehát akkor mégsem igaz, amit tegnap írt valaki, hogy kisebb részletességre volt állítva az AMD kártyája. Amúgy érdekes, ott a grafikonon kevesebb, mint 500 dollár szerepel, akkor az nekem kártyánként 250-re jön ki, nem 200-ra.
 
Válasz írásához előbb jelentkezz be!
14. Raszputyin BReal
2016.06.02. 10:56
Én nem vonok le konzekvenciát, procedurálisan generált textúrák meg efféle, nincs stabil kiindulópont és ne mtudjuk a beállításokat sem. Csak mint érdekességet linkeltem.
 
Válasz írásához előbb jelentkezz be!
13. Fzoltan Kajaf...
2016.06.02. 14:23
Mondom még egyszer: nagyobb teljesítményt nyújt 2 db RX 480, mint 1 db 1080, ráadásul a 2 db AMD kártya kevesebbet is fogyaszt.
Így szólt az eredeti leírás.
Mint kiderült, ez azért van, mert a 1080-t az AoS majdnem 100%-ra terheli az 1080-at, míg a 2 db RX 480-at 50-55%-ra.
De tényleg jó lenne, hogy ha az emberek nem csak write-only módban lennének, hanem olvasnának is egy kicsit.
 
Válasz írásához előbb jelentkezz be!
12. ChoSimba Fzolt...
2016.06.02. 14:28
Ha 2db RX480-at 50%-ra terhelsz, akkor az nem is igazán CF. Kétszer fél az egy egész.
Márpedig 1db 480 nem nyomhat le egy 1080-at.
Valamit nagyon csúnyán benéztek a srácok.
Vagy sz@r az AoS benchmark és rosszul jelzi ki.
Vagy sz@r az nvidia driver.
Vagy mindhárom.
 
Válasz írásához előbb jelentkezz be!
11. xcomman ChoSi...
2016.06.02. 14:39
Sz*r a minden!
 
Válasz írásához előbb jelentkezz be!
10. Terror ChoSi...
2016.06.02. 14:43
Vagy csak a szokásos AMD-féle prezentáció.
 
Válasz írásához előbb jelentkezz be!
2016.06.02. 14:59
A lényeg, hogy a 1080-asé remekül sikerült.
 
Válasz írásához előbb jelentkezz be!
8. Fzoltan ChoSi...
2016.06.02. 15:20
Most ne menjünk bele a GPU-k lélektanába, de az 50%-os leterheltség nem jelenti azt, hogy tud ennél többet a kártya.
 
Válasz írásához előbb jelentkezz be!
7. Fzoltan Terro...
2016.06.02. 15:22
Aki abból a képből kiveszi, hogy az 2500K, az hazudik. Ez nem a CSI, hogy ránagyítok és élesítek. Mellesleg a linkelt videó nem is létezik.
Ettől függetlenül biztos, hogy a 980X nem annyi pontot csinál, mint amennyit ott írnak.
 
Válasz írásához előbb jelentkezz be!
6. ChoSimba Fzolt...
2016.06.02. 16:00
LOL, az a kép fake.
Keressetek rá a youtube-on, fent van az eredeti.
Össze vissza cserélgetik a procikat benne, az igaz, de csak a legelső tesztnél mutatnak 980X-et. Utána 2500K, meg 2600K van. Valaki összeollózta a zöld oldalról.
 
Válasz írásához előbb jelentkezz be!
5. Chrematori...
2016.06.02. 17:54
Emberek ne egyétek már meg egymást, hogy így nVidia meg úgy AMD, várjunk már néhány tesztet okés? Aztán mindenki olyat vesz amilyet akar, ha pedig nem akar semmilyet, akkor kár kötekedni
 
Válasz írásához előbb jelentkezz be!
4. Asagrim Chrem...
2016.06.02. 18:29
Bárcsak ilyen egyszerű lenne, akkor rám se lenne itt semmi szükség.
 
Válasz írásához előbb jelentkezz be!
3. Terror ChoSi...
2016.06.02. 18:51
Nem fake. A saját szememmel láttam a videót, és itt az Iponon is röhögtünk rajta. Youtube-on már nincs nincs fent az eredeti, a jelenleg fent lévő verzió leírásában ott a magyarázat, hogy azért távolították el az eredeti videót, mert egyes termékek megnevezése "téves" volt.
 
Válasz írásához előbb jelentkezz be!
2. Szebko
2016.06.04. 11:13
én vagyok itt az egyetlen aki szerint közröhej ami itt megy? Elmenni 1 videókártya bemutató hirétől arra hogy mennyi fpst lát a szem és mi a különbség intel i5 és i7 között.... :'DDD
Amúgymeg nem túnik fel sokaknak, hogy itt 1 KÖZÉPKATEGÓRIÁS kártyát hasonlitanak a jelenlegi CSÚCSKATEGÓRIÁHOZ?? Persze AotS-en ami amd pártibb játék meg minden de ha más játékokban is legalább meg tudja közeliteni CFben az 1080-at (ebbe valaki bele fog kötni szóval mondjuk úgy hogy pár fps-es különbséggel megy az 1070-hez képest) akkor már nagyon is jó kártyának mondható. Főleg mivel 2 belőle jóval olcsóbb.... De ez majd úgyis kiderül független tesztekból meg minden addig meg tök felesleges ezen vitatkozni (szvsz). Akinek nincs meg a keret az 1080/70re ez is bőven elég lesz nemhiszem hogy azért kéne fikázni valakit mert nem akar annyit költeni rá amennyi.
 
Válasz írásához előbb jelentkezz be!
1. Jakeluhrs Kajaf...
2016.06.05. 22:58
+1, én is pont ezeket akartam írni

Szépnek szép amit ígérgetnek, aztán nehogy pofára esés legyen a vége mint ahogy náluk lenni szokott.
 
Válasz írásához előbb jelentkezz be!