iPon Hírek

Az AMD már Moore törvényének végéről beszél

Dátum | 2013. 04. 05.
Szerző | J.o.k.e.r
Csoport | FŐ EGYSÉG

Az AMD egyik szakembere, John Gustafson, aki vezető fejlesztőmérnökként különböző grafikai termékeken dolgozik a vállalat berkein belül, meglehetősen érdekes interjút adott a The Inquirer munkatársának. Mr. Gustafson szerint Moore törvénye a jövőben lassulni fog, ugyanis a friss gyártástechnológiák kifejlesztésével kapcsolatos költségek miatt már nem tartható a törvényben tartható ütemterv, legalábbis úgy nem, hogy az megérje a cégek többségének. A Moore törvény, ami eredetileg nem törvény, hanem csak egy érdekes megfigyelés volt Mint ismeretes Gordon E. Moore, aki az Intel egyik alapító tagja, 1965-ben egy érdekes összefüggést figyelt meg - innen ered a Moore törvény. Moore szerint a félvezetőiparban kétévenként megduplázódik az egy chipre eső tranzisztorok száma, ami az elmúlt 50 év során így is volt. Sokan tévesen 18 hónapos megkétszereződést emlegetnek, ám Moore többször is kijelentette, hogy ő ilyen számot sosem mondott, eredeti kijelentésében két évről beszélt. A megfigyelés később önbeteljesítő jóslattá vált, ugyanis az egyes vállalatok Moore kijelentése alapján tényleg úgy alakították fejlesztéseiket, hogy valóban bekövetkezzen a kétévenkénti tranzisztorszám-duplázódás. Ennek azért van jelentősége, mert a fejlettebb gyártástechnológia segítségével több tranzisztor fér el egy ugyanakkora szilícium lapkán, ami összességében nagyobb teljesítményt eredményez, de a fejlettebb gyártástechnológia ezzel együtt az energiahatékonyság javításában, illetve a chipek képességeinek bővítésében is fontos szerepet játszik. Változóban a korábbi gyakorlat, legalábbis az AMD-nél Az AMD szakembere szerint a Moore törvényben lefektetett kétévenkénti tranzisztorszám-duplázódás az elkövetkező idők során egyre inkább lassulni fog, ugyanis a gyártástechnológia-váltással kapcsolatos fejlesztési- és egyéb költségek egyre magasabbra rúgnak. Eddig a chipgyártók és a szerződéses félvezető-gyártók mind-mind alkalmazkodtak Moore törvényéhez, azaz 18-24 havonta újabb és újabb gyártástechnológiákat vezettek be, amelyek javították a chipek teljesítményét és energiahatékonyságát, de emellett az előállítási költségek csökkentéséhez is hozzájárultak. Az elmúlt időszakban a helyzet egyértelműen változni látszik, ugyanis az új gyártástechnológiák bevezetése a kutatással és fejlesztéssel kapcsolatos költségek, illetve az új, rendkívül költséges gyártósorok megépítése miatt egyre drágább mókává vált. Az Intelnél a jelek szerint kitartanak az eddigi gyakorlat mellett Az Intel háza táján egyelőre nem tűnik úgy, hogy a korábbi gyakorlat változna: a vállalat kétévente új gyártástechnológiát vezet be, új termékekkel pedig évente jelentkezik, így remekül bizonyítja, hogy Moore törvénye pénzügyileg teljesen életképes, legalábbis nekik. A világ legnagyobb processzorgyártója maximálisan hisz abban, hogy az új gyártástechnológiák bevezetésével még több funkcionalitás építhető a processzorokba, méghozzá úgy, hogy előállítási költségeik ezzel egy időben viszonylag alacsonyan maradnak.

Persze az Intel ebben a tekintetben igen jó helyzetben van, hiszen egyike azoknak a vállalatoknak, amelyek olyan sok chipet értékesítenek, hogy az ebből származó bevétel fedezi a fejlesztési és egyéb költségeket. A vállalatok többségének az új gyártástechnológiára történő átállás dollár tíz-, illetve százmilliókba kerül, amelynek eredményeként a chipek többségénél a gyártástechnológia-váltásból származó előállítási-költség csökkenés egyre kevésbé fontos. Az AMD a gyártástechnológiákban rejlő lehetőségek maximális kiaknázására hajt Éppen ezért az AMD-nél jelenleg úgy vélik, a jövőben több időt telik majd el a gyártástechnológia-váltások között, azaz Moore törvénye egyre inkább érvényét vesztheti. Az AMD szakembere szerint akkor, ha az adott chip túl kevés tranzisztort tartalmaz, tranzisztoronkénti előállítási költsége túl magas lesz, míg ha túl sok tranzisztorral rendelkezik, akkor szintén túl drága lesz az előállítása. Éppen ezért jelenleg az a legfontosabb, hogy a vállalat minden gyártástechnológia esetében megtalálja azt az ideális tranzisztorsűrűséget (sweet spot), amely minden tekintetben a legjobb választásnak minősül, így ugyanis maximálisan kiaknázhatóak az adott gyártástechnológia által elérhető pénzügyi előnyök. Az AMD a 28 nm-ről 20 nm-re történő gyártástechnológia-váltás esetében úgy számol, hogy az átállás hosszabb időt vesz majd igénybe, mint ahogy azt Moore törvénye alapján várhatnánk - pont a fentiekben tárgyalt okok miatt. Mr. Gustafson szerint éppen most vagyunk annak a folyamatnak a kezdetén, amely Moore törvényének végéhez vezet. A félvezetőipar egyéb szereplői máshogy látják a helyzetet A félvezetőipar egyéb szereplői szerint Moore törvénye továbbra is meghatározó szerepet tölt majd be az ipar növekedésében, azaz továbbra is a fejlődés hajtómotorjaként tekinthetünk rá. A mobil chipek és a szuperszámítógép-fürtöket tápláló processzorok esetében egyre növekszik a teljesítményigény, így a tranzisztorok számát, azaz a chipek teljesítményét és funkcionalitásukat tovább kell növelni, méghozzá úgy, hogy ez nem okoz fogyasztáscsökkenést. A modern SoC egységek is dinamikusan fejlődnek mind teljesítmény, mind pedig funkcionalitás tekintetében, a felhasználói igények pedig egyre inkább növekednek, így az irány adott, a fejlődés nem állhat meg.
Új hozzászólás írásához előbb jelentkezz be!

Eddigi hozzászólások

50. Terror
2013.04.05. 14:03
Magyarul nincs pénz gyártástechnológiát fejleszteni, és ezt olyan magyarosan sikerként kommunikálják.
 
Válasz írásához előbb jelentkezz be!
49. Juliska
2013.04.05. 14:07
Kicsit lemaradtak. Az NVIDIA ezt már két éve megírta egy tanulmányban.
 
Válasz írásához előbb jelentkezz be!
48. Ihi
2013.04.05. 14:32
Az elmúlt 5-10 évben ezt évente elsütötte valamelyik cég fejlesztője/vezetője. Aztán azóta sem tűnik úgy, hogy lenne változás.
 
Válasz írásához előbb jelentkezz be!
47. atti2010 Ihi
2013.04.05. 14:37
Pedig hamarosan igazuk lehet, egyszer eljön az a pont mikor le kell váltani a szilíciumot.
 
Válasz írásához előbb jelentkezz be!
46. gargantu
2013.04.05. 14:40
Nincs ebben semmi meglepő. Az "idő" és egy másik mennyiség között exponenciális jellegű összefüggés csak korlátozott ideig állhat fenn (még akkor is, ha a Föld teljes anyagkészletét fel lehetne használni). Hasonló okok miatt a sakk feltalálója a mai napig is hiába várja a jutalmát: az első kockára egy szem gabonát, majd a továbbiakra mindig az előző dupláját.
 
Válasz írásához előbb jelentkezz be!
45. Tutu7030
2013.04.05. 14:45
John Gustafson.
 
Válasz írásához előbb jelentkezz be!
44. tibaimp
2013.04.05. 15:03
Korábbi hír volt, hogy az ibm ha jól emlékszem 0,09 nm-es csíkszélességet vizsgálta és ott már komoly gondok adódtak. Az Intel jövőre hozza a 0,14-et, szóval igaz lehet majd kb. 2018-ra, persze addig még sok víz lefolyik a Dunán

a szomszéd nője....fasza
 
Válasz írásához előbb jelentkezz be!
43. Cooley
2013.04.05. 15:29
tibaimp: 0.09nm? Az beteg lenne, jó lesz az 9 és 14nm-nek is.
 
Válasz írásához előbb jelentkezz be!
42. Stark
2013.04.05. 15:31
Azért az AMD mindig elég jól a "jövőbe lát".
Ez is az egyik "bajuk", hogy a jövőre terveznek, nem a mára.

Pl annak idején ők rakták bele először a CPU-ba a memória vezérlőt, most már enélkül meg sem lennének a CPU-k.
Utána ott volt a 64 bites CPU, szintén annak idején sok vizet nem zavart, most viszont alap dolog, meg sem lennénk nélküle.
Aztán mióta mondogatják már a "Future is Fusion" dumát, és nagyon úgy néz ki hogy az is beválik, ha az APU-kat nézzük.

Szóval nagyon jól tudnak előre tervezni, érdemes odafigyelni rá mit mondanak.
 
Válasz írásához előbb jelentkezz be!
41. MrFox
2013.04.05. 15:32
Ezt a fejlődést fizettetik meg általában az újabb-drágább-de-szarabb VGA-k behozásával. Ez a HD7790 is egy vicc, ma megrendeltem egy vtx-3d HD7850-est, ameddig lehet kapni (mert ugye a GPU gyártása leállt).
 
Válasz írásához előbb jelentkezz be!
40. Balucsek
2013.04.05. 15:36
Milyen 0,14 nm-ről beszélsz már jövőre??? az inkább 14nm a 0,09nm pedig még picit odébb van, jelenleg max erősen kísérleti stádiumok már lehetnek, és a gondokat nem csodálom, hisz ott már 6-7 atom szélességről beszélünk ha jól rémlik.
 
Válasz írásához előbb jelentkezz be!
39. Stark MrFox
2013.04.05. 15:37
Miért lenne vicc a 7790? A jobb fajta 650Ti-k árában megy, azokat meg lenyomja.
Az 1GB-os 7850-et meg az AMD-nek nem érte meg gyártani, ezért vonják ki, mert mindenki azt vette a drágább 2 GB-os helyett. Maguk alatt meg nem vágják a fát.
 
Válasz írásához előbb jelentkezz be!
38. Cooley
2013.04.05. 15:43
MrFox: A GPU-k gyártása nem állt le, csak 1GB-os kártyáké.
 
Válasz írásához előbb jelentkezz be!
37. atti2010 MrFox
2013.04.05. 15:52
Egyszerűen nem érdemes 1GB kártyát venni manapság úgy hogy nem volt rossz döntés, a GPU gyártása meg nem állt le.
 
Válasz írásához előbb jelentkezz be!
36. sks7891
2013.04.05. 16:00
"Sokan tévesen 18 hónapos megkétszereződést emlegetnek, ám Moore többször is kijelentette, hogy ő ilyen számot sosem mondott, eredeti kijelentésében két évről beszélt."

Micsoda!??? Akkor nekem évekig hazudtak a suliban.
 
Válasz írásához előbb jelentkezz be!
35. MrFox
2013.04.05. 16:20
Cooley: leállt az egész 7850 vonal, az eddig legyártott GPU-kat nem adják 1GB kártyákhoz már a partnereknek. 2Gb verzió meg addig lesz, míg van maradék GPU.

 
Válasz írásához előbb jelentkezz be!
34. MrFox
2013.04.05. 16:22
Stark: nem az a baj, hogy azt vették, hanem az, hogy mellette eladhatatlan a 128bites memória / ára miatt vicc 7790, ami ráadásul alapból majdnem a maximumon jár, ezért minimálisan húzható.
 
Válasz írásához előbb jelentkezz be!
33. j.panzer
2013.04.05. 16:40
Hát, ha az Intel tudja tartani a Moore törvényt, akkor az AMD-nek lesz vége, nem a törvénynek.

Már így is a béka hátsója alatt vannak az eladási mutatóik, köszönhetően az elavult gyártástechnológiával való viaskodásnak.

R.I.P. AMD, szerettünk.

Amúgy én pont nem bánnám, ha lassulna a fejlesztési ütem, mégis csak jobb lenne, ha nem kéne 1,5 évente új VGA-t, 3 évente meg új PC-t vennem. Jó lesz az 10 évente is.
Odáig még jusson el a gyártástechnológia, hogy legyenek a procik passzívan hűtöttek, mert már unom, hogy az egyetlen mozgó alkatrész a gépemen a ventilátor, viszont utána már nem érdekel, ha pénzt spórolnak nekem.
 
Válasz írásához előbb jelentkezz be!
32. Profeta051...
2013.04.05. 17:14
Ne beszéljetek hülyeségeket. Az 1Gb-s HD7850 állt le, a 2GB-s továbbra is kapható lesz, és gyártják is.

http://prohardver.hu/hir/eltunik_1_gb_radeon_hd_7850.html
 
Válasz írásához előbb jelentkezz be!
31. atti2010 MrFox
2013.04.05. 17:17
hogy mellette eladhatatlan a 128bites memória

Ilyen memóriáról még nem hallottam.
 
Válasz írásához előbb jelentkezz be!
30. jozsefm
2013.04.05. 17:20
Az intel se tudja tartani. Hiába csökken a csíkszélesség, és rakható egységnyi területre egy több tranzisztor, bekapcsolni nem lehet őket, nézd meg a 32-22re váltott LGA2011-es procikról kiadott előzetes információkat, azonos magszám és TDP mellett +100-200MHz frekvencianövekedés. Ja és két év telt el az előd megjelenése óta. Nesze neked duplázás. A megjelenéskor majd megint levetetik innen az eredeti nem elég fényes teszteket, aztán lehet fotoshoppolni az excel oszlopokat, hogy kijöjjön a megrendelt 15%.
 
Válasz írásához előbb jelentkezz be!
29. atti2010 jozse...
2013.04.05. 17:26
Arról nem is beszélve hogy az egy helyre besűrített egységnyi tranzisztor miatt az Ivy is igen forrófejűre sikerült, ha tovább csökken a csíkszelesség ezt a hőt valahogyan el kell vezetni, a másik dolog hogy az Intel 14 -nek mondott csíkszelessége az valójában 20 nm lehet.
 
Válasz írásához előbb jelentkezz be!
28. Gpety
2013.04.05. 18:50
Azért erre nem volt nehéz rájönni, minél lejjebb mennek a csíkszélességgel, annál drágább és időigényesebb továbblépni. Ez független az AMD-től, Intel-től, Nvidia-tól stb. Az AMD-től már csak azért is, mert ők nem gyártanak, ergó a gyártásfejlesztés sem az ő elsődleges dolguk. Arra ott vannak a bérgyártók, mint a TSMC, GlobalFoundrues stb, ezt nekik kell megoldani.
Amúgy meg az, hogy XY észrevesz valamit, amiről azt sejti, hogy a jövőben meg fogja állni a helyét, azt elég érdekes dolog törvénynek nevezni...
By the way... A Core2-k 2006-ban indultak 65nm-ról, ~6 évvel később járunk az Iyv-val 22nm-nél. Tehát ha csak a csíkszélességet nézzük, akkor 2008-ra jó lett volna 32nm-nél, 2010-re 16nm-nél, mostanra pedig 8nm-nél járni. Persze a törvénynek titulált megfigyelés nem kifejezetten a csíkszélesség csökkenésére vonatkozik, de szükséges velejárója.
 
Válasz írásához előbb jelentkezz be!
27. jozsefm Gpety
2013.04.05. 19:10
Sőt, ugy CPU mint GPU tekintetben mindig a gyártástechnológia volt a gond, úgy a Brazos mint az FX esetében proci téren, de még nagyobb volt a baj GPU téren ahol a rendkívül sikeres 5870 után, 6-os széria nem is tudott 40nm alá menni, a törölt csíkszélesség váltás miatt, és vissza kellett butítani, a TSMC késlekedéséből eredően, de mondhatjuk a 7970-et is, az is milyen lett az első kiadásban? Arról nem beszélve, hogy az 5870-hez képest kb. a 7970 boost hozza a duplázást, ami ugye messze nem két év! Arról nem is beszélve hogy közben azért volt két GPU generáció,meg ugye nézzük a lapka méretét meg a fogyasztást, ami ugyancsak közel egy 5870CF! Gondolom ezek után abban is megállapodhatunk,hogy a gyártástechnológia váltás jó esetben is 50%-os érdemmel bír ebben a teljesítmény duplázásban!
 
Válasz írásához előbb jelentkezz be!
26. sanyix
2013.04.05. 20:28
"Magyarul nincs pénz gyártástechnológiát fejleszteni, és ezt olyan magyarosan sikerként kommunikálják."

Kár hogy ez már nem is nekik kell fejleszteni... merthogy évek óta nincs gyáruk.
Max azért mondják mert kicsit fel fognak szaladni a gyártási költségek, ha kopp van...
 
Válasz írásához előbb jelentkezz be!
25. Humbuk
2013.04.05. 21:59
Kicsit azt érzem, hogy újra "feltalálták a spanyol viaszt".
Mindenki tudja, hogy a végtelenségig nem tudnak menni ezzel a gondolkodásmóddal és egy időután elérnek egy határértéket, mely után nem lesz érdemes a csíkszélességgel foglalkozni.

Személélet váltás kell és technológiai, és talán a Moore törvény is életképes marad. A poén az egészben az, hogy a gyártók alkalmazkodtak a törvényhez és nem a törvény a gyártáshoz.

Ha minden igaz 2018-ra már más technológia is előtérbe kerülhet, ezért még talán meglepetés is lehet.
 
Válasz írásához előbb jelentkezz be!
24. budspencer
2013.04.05. 22:30
Szerintem gyártsanak kőbaltát. Így nem kell alkalmazkodni gyors fejlesztésekhez. Már most felállítom azt a törvényt, hogy a kőbalták 100.000 évenként legalább egyszer roppant változásokon mennek át.
 
Válasz írásához előbb jelentkezz be!
23. tibaimp
2013.04.05. 22:30
Cooley: úgy-úgy csak 14 nm és 9 nm, elnéztem pár nullával
 
Válasz írásához előbb jelentkezz be!
22. Reinkz
2013.04.05. 22:57
Előző kommentekben felmerült a hd7790, kérdem én miért lenne vicc?,mert 128bites? nézzetek végig hány olyan kártya van ami 128bit létére lehozz egy régebbi 256 biteset hát nem egy, szépek ezek "tájékoztató számok" memo,gpu órajele,vagy hogy hány bites az adatsín ,stb de ezek csak "tájékoztató jellegűek" ami igazán számít az az architectura.(igen gyárilag szét van húzva főleg a memo nyilván nem véletlenül de ott is van a 7850 farában de egy régebbi példa pl 6850 ami 7770 szintjén van.

u.I: nyilván nem véletlen 128bites mert ha 256 lenne simán 7850 fölött lenne
 
Válasz írásához előbb jelentkezz be!
21. shabbarule...
2013.04.05. 23:57
józsef m.:

"Az intel se tudja tartani. Hiába csökken a csíkszélesség, és rakható egységnyi területre egy több tranzisztor, bekapcsolni nem lehet őket, ..."

Az hogy a HEDT piaci szegmensben nem növelik jelentősen a teljesítményt csak üzletpolitikai döntés, semmi köze nincs a gyártástechnológia lehetőségeihez. Ugyanaz a processzor a Xeon szegmensben 32nm-en Sandy Bridge-EP 8 magos, 22nm-en Ivy Bridge-EP esetén 12 magos, Haswell-EP esetén 14/16(?) magos. Szóval egy 32->22nm tick-tock váltás során a magok számossága duplázódik és vele a tranzisztor büdzsé is. Ráadásul Haswell esetén a chip belső SIMD kapacitása is duplázódik(AVX2), mind integer mind floating point teljesítmény esetén.
 
Válasz írásához előbb jelentkezz be!
20. CyberPunk6...
2013.04.06. 00:48
Most a párhuzamosítás a divat, ami bizonyos területeken még rengeteg lehetőséget tartogat, hiszen ott még nagyon messze vagyunk a határoktól. Viszont az egymásra épülő feladatok sorozatánál évek óta alig van fejlődés és előrelépés. Szinte pár százalék.

Most majd ki fogja magát fújni ez a sokmagos csoda, és utána ez lesz a mindennapi dolgok limitje. Addigra ki kellene találni valamit. De azt sem tartom kizártnak, hogy a közeljövőben egyszer kénytelenek lesznek meglépni egy architektúraváltást.
 
Válasz írásához előbb jelentkezz be!
19. CyberPunk6... shabb...
2013.04.06. 00:51
ezek mind párhuzamos számítási képességek. Ez jó, elmehetünk addig amikor minden feladatnak saját külön magja lesz, de ott hova tovább? A problémát nem a magok sokszorozása jelenti. Arra már képesek vagyunk és jó sok magig még hatékony is. Akár mindennek lehet saját processzormagja. De ez nem képes egymásra épülő adatokkal dolgozni.
 
Válasz írásához előbb jelentkezz be!
18. Asagrim Cyber...
2013.04.06. 01:02
A párhuzamosítás már a nyolcvanas évek végétől téma, és konkrét cél ...
 
Válasz írásához előbb jelentkezz be!
17. CyberPunk6... Asagr...
2013.04.06. 01:22
Bizonyos szinten igen, de a több fizikai mag azért lényegesen nagyobb hatékonysággal működik, mint amikor csak a csőbe dobálja be és részegységenként meg a leosztás. Ami ráadásul most a többmagosnál is így működik a magokon belül.

De egy ideje nem nagyon növekszik a feldolgozás sebessége, csak egyszerre többet dolgozunk fel. Ez viszont nem működik mindenhol. Ezért nem olyan egyszerű, mint ahogy fenn írta a srác, hogy csak rádobunk még pár magot. Mert vannak dolgok amik ugyanolyan magok esetében 1 magon pontosan ugyanolyan gyorsak, mint 100 magon. A magok bővítése nem kihívás, az intel is csak azért szórakozik a sokadik generáció óta a 4 maggal, mert lényegesen olcsóbb legyártani, és nagyobb rajta a haszon.

Ezért lenne fontos javítani az órajelen és a hőleadáson. Magyarul a gyártástechnológián. Az asztali vonal egyik legnagyobb hátránya, az ami az egészet életben tartja, mégpedig a visszafele kompatibilitás. De előbb utóbb rá fognak kényszerülni a váltásra.

Az intel egyszer megpróbálta, de az AMD keresztbe tett, pedig akkor még nem volt más, konkurens architektúra a piacon. Most már sokkal veszélyesebb a dolog, mert akár el is tűnhetnek.
 
Válasz írásához előbb jelentkezz be!
16. Asagrim Cyber...
2013.04.06. 01:55
Egyetértek, de azért kissé túlzásnak vélem hogy egy Intel eltűnhet ha megpróbálna valami új x86 architektúrát kiadni. Vagy úgy gondolod hogy magát az x86-ot kell továbbgondolni?
 
Válasz írásához előbb jelentkezz be!
15. jozsefm shabb...
2013.04.06. 09:13
Igen,de milyen órajelen, és rendszer alatt? Ha azt asztali környezetben próbálja meg x86 alatt akkor az egyszálas teljesítménynek lőttek, a saját kommersz kategóriás i5-ös procijai jobban teljesítenének. Szó sincs itt üzleti megfontolásról, ez a pillanatnyi lehetőségeik vége.
Ahogy lejjeb is feszegetik itt már maga a kompatibilis környezet is gát, mert azért a párhuzamosítás se ad mindenre megoldást.
 
Válasz írásához előbb jelentkezz be!
14. Humbuk
2013.04.06. 12:36
Érdekes, hogy itt csak hardveres szinten közelítitek meg a dolgot. Holott a probléma lehet, hogy nem is a hardverekkel van, hanem a szoftverekkel. Természetesen tisztában vagyok vele, hogy szoftveresen megoldani a dolgokat nehezebb és főleg lassabb feladat, de mi van akkor ha a szoftverek maguk is problémát jelentenek?

Ezt akkor figyelhetjük meg, amikor egy program szépen elfut konzolon, a nála jóval erősebb pc-n meg éppen tűrhető. Még optimalizálás után is.
Én amondó vagyok, hogy az operációs rendszereket és ott is a hardver kezelést kellene újragondolni, mert a hardverek teljesítménye jóval nagyobb fejlődésen van túl. Persze nem tudok érdemben nyilatkozni a program nyelvekről mert csak a C#-t ismerem, de a fent említett megfigyelésre alapozva, belátható, hogy a mai pc-kben sokkal több tartalék van, mint amelyet a kapitalizmus nyomásának hatására elénk tárnak.
 
Válasz írásához előbb jelentkezz be!
13. piter
2013.04.06. 12:36
A gpu teren valtottak de a cpu meg mindig 32nm!Evekkel le vannak maradva!
 
Válasz írásához előbb jelentkezz be!
12. kiskoller Humbu...
2013.04.06. 13:19
Viszont e téren is hatalmas a fejlődés. Nézd meg hogyan működik egy GCC például (C fordító)
A fél programot átírja tényleges fordítás előtt hogy optimalizáljon (átszerkeszti a ciklusokat, elágazásokat, tömbökkel variál stb stb) végeredményként egy sokkal gyorsabb programot kapva.

Ha fognád a legelső GCC-t (vagy Inteles C fordítót) ráküldenél egy programot hogy nosza fordíts, majd ugyanezt eljátszanád a legfrissebbel, meglepődnél mennyit gyorsulna a program.


De maguk a programnyelveknek is fejlődniük kell. Nézzetek meg egykét új programnyelvet: Mindegyik sokkal magasabb szintű mint egy C például. Lassan ott tartunk hogy folyékony beszéddel kódolunk programot. Emiatt persze ezek a programnyelvek lasabbak, mint ha egy hozzáértő ír C-ben valamit, de ahogy fejlődnek ezek a nyelvek (és a compilerek) úgy minden ilyen program gyorsabb lehet.

Ahogy senki sem ír ma már Assembly-ben teljes programot, úgy pár év(tized) múlva senki sem fog C-ben.
 
Válasz írásához előbb jelentkezz be!
11. CyberPunk6... Asagr...
2013.04.06. 13:28
Úgy értem, hogy az intel az x86-ból él, és ha váltani kell, akkor meszűnik a kompatibilitás és rögtön eltűnik a monopol helyzet. Ráadásul az látszik, hogy ők foggal körömmel próbálnak ehhez ragaszkodni, miközben mindenki más pedig próbál elszakadni (arm magok a jövőben amd cpukon például). A tabletek is másra építenek és ez ad teret az újaknak, hogy ott nincs mindent elsöprő x86 jelenlét. Ha pedig az x86 a végéhez ér, akkor egyértelmű, hogy nem egy vadiúj még támogatás nélküli platform lesz a befutó, amire még nincs semmi. Hanem egy létező alulról már támogatott rendszer, amire már van sok dolog és működik.

Nem véletlenül vállalja az MS a metrot, tudták, hogy ez lesz belőle, de meg KELLETT lépni. Előbb utóbb el fogunk oda jutni, amikor a tablet, a notebook és a pc egy készülék lesz, attól függően, hogy érintünk, billentyűzünk, esetleg külső dokkolóban külső monitorral használjuk. Itt pedig az x86 minden igyekezete ellenére nem működik, mert zabál. Azonos teljesítmény mellett is.
Az egyetemen is volt erről projekt, és bizony azonos teljesítményen (multiprocesszoros rendszer, tehát nem ugyanannyi darab, hanem ugyanakkora számítási teljesítmény) 30%-al is magasabb a fogyasztás...
 
Válasz írásához előbb jelentkezz be!
10. CyberPunk6... kisko...
2013.04.06. 13:29
Az egyetemisták írnak teljes programokat assemblyben, csak a megfelelő tanárt kell kifogni

Amúgy a magasabb szintű nyelvek lehet, hogy könnyebbek és ez ma már tudjuk számítási teljesítménnyel ellensúlyozni. Sőt, gazdaságilag is előnyösebb és többen képesek rá. De szerintem nem jó irány, hogy a nagy számítási kapacitás miatt erőteljesen mozdulnak a programok az optimalizáltság felől a gányolás irányába. Mert úgyis bírja a vas. Természeti erőforrásokat nézve igenis probléma.
A folyékony beszéddel való programozás manapság már lehet gondot okozna az átlag embernek is sajnos... De ez egy másik történet.
 
Válasz írásához előbb jelentkezz be!
9. jozsefm Cyber...
2013.04.06. 13:56
Igen ezt én is látom, bár egyenlőre még borzongok...
 
Válasz írásához előbb jelentkezz be!
8. kleinguru
2013.04.06. 15:01
Gpetinek jelezném, hogy a csíkszélesség nem igazán a felére esik. Területi összefüggés miatt az előző csíkszélesség ~0.7 szeresére változik, tehát 32-->22 és nem 32-->16.
 
Válasz írásához előbb jelentkezz be!
7. thedevelop...
2013.04.06. 15:25
Az alacsony szintű nyelvek soha nem tűnnek majd el, hiszen ezek állnak a legközelebb a hardware-ekhez.
 
Válasz írásához előbb jelentkezz be!
6. raiden
2013.04.06. 17:02
Úgy érzem eljött a pillanat, amikor jósolnunk kell egy újabb világvége-időpontot D
 
Válasz írásához előbb jelentkezz be!
5. zuldker
2013.04.06. 22:02
És akkor a Skynet tudatára ébred, és bekövetkezvén a vég.....
 
Válasz írásához előbb jelentkezz be!
4. MZperX75
2013.04.08. 08:04
Azt sem tessék elfelejti,hogy hiába a csíkszélesség csökkenés a tranzisztor bekapcsolási árami szinti alig változik.
Persze csökken,de nem a csíkcsökkentés ütemével.(tehát fogyasztása annyit nem csökken)

Bár az első Intel 32nm I7-920-as 2.66Ghz-en 130W-ot evett Ivy 22nm 77W GPU-val együtt.

Bár itt nem csak a technológia változott. és a sebesség sem nőtt 50%-ot bár megközelíti.




 
Válasz írásához előbb jelentkezz be!
3. shabbarule...
2013.04.08. 14:55
MZperX75:

Pont hogy a fogyasztás tudott igen jelentősen csökkenni azonos teljesítmény szint mellett, de fordítva is igaz, azonos fogyasztás szint mellett jelentős teljesítmény növekedés is volt és mindez a gyártástechnológia fejlődésének és a chip architektúra fejlődésének volt köszönhető.

Először az i7-920 nem 32nm-es, hanem 45nm-es proci úgy 4.5 év távlatából. A másik a 130W az egy TDP keret, nem pedig fogyasztás. Az összes HEDT procit egyetlen TDP keret alá volt/van besorolva. Xeon esetén ugyanezen specifikációval bíró proci a 95W TDP keretbe volt besorolva.

2008 végén ultramobil fronton egy Core2 Duo SU9400-as proci volt a csúcs(2 mag, 1.4Ghz, akkor még nem volt turbo órajel), de nem volt mainstream termék, csak igen drága $2000 feletti subnotebook-okban volt megtalálható. Három chipből állt, a CPU 10W TDP-vel, az északi híd 7W TDP(GMA4500-as IGP), a déli híd 3W TDP-vel bírt. Összesen tehát 20W TDP.

5 évvel később idén ősszel egy Haswell alapú ultrabook már sokkal mainstreamebb, szélesebb kör számára elérhető termék. Három chip helyett csak egy van, így helytakarékosabb kialakítást nyújt, a TDP-je pedig 15W. Habár ugyanúgy 2 magos, mint a Core2 Duo, de 2 mag mellett a turbo órajel felmehet 3 Ghz-ig. A SIMD-je 256 bites AVX2, a Core2 128 bites SSE-jével szemben. IPC teljesítménye is sokat javult két tick-tock alatt. Egy jól optimalizált AVX2-es kód mellett 5-6x nagyobb CPU és 10x-nél is jobb IGP teljesítményt nyújt 20W helyett 15W TDP keretből.

És ez a jól optimalizált AVX2-es teljesítmény felér egy 5 évvel korábbi prémium kategóriás desktop rendszer teljesítményéhez. Pedig annak 130W TDP kerete volt a CPU-ra, 27W TDP kerete az északi hídra és 5W TDP kerete a déli hídra. És még IGP sem volt benne. De egy 5 évvel korábbi közép kategóriás diszkrét GPU teljesítményt egy Haswell IGP elérheti és annak a diszkrét GPU-nak is volt egy jelentősebb TDP kerete. Szóval 5 éve egy komolyabb desktop rendszer, sok komponensből, jelentősebb 200W körüli TDP kerettel ma már összehozható egy chipbe integrálva, alacsony TDP kerettel, hordozható ultrabook méretben.
 
Válasz írásához előbb jelentkezz be!
2. shabbarule...
2013.04.08. 15:31
MZperX75:

Még annyit érdemes hozzátenni hogy 2005-ben 65nm-en volt utoljára Intelnek desktop gyártástechnológiája, ami még a desktop rendszerek teljesíményének maximalizálására volt hangolva. Ott még a 95W TDP-s procikra volt kihegyezve az architektúra, a gyártási kihozatal harang görbéje azokra a procikra volt optimalizálva. E mellett volt még egy mobil gyártástechnológia kvázi ennek gyári underclock-ja volt az alacsonyabb fogyasztású mobil termékekre hangolva.

Aztán 45nm-től eltűnt a desktop vonal, a mobil lett a fő irány és annak helyére bejött egy új SoC gyártástechnológia. Ekkor már nem a 95W TDP-s desktop procik adták a gyártási harang görbe csúcsát, hanem a 35-45W TDP körüli mobil termékek. A desktop és szerver termékek kvázi ezen mobil gyártástechnológián gyártott, gyárilag overclockolt változatai.

22nm-es Haswell-től pedig már a tervezésnél a 15W TDP keretű procikra koncentráltak, ez adja a gyártási harang görbe csúcsát, itt a legjobb a kihozatal, itt lehet leginkább teljesítményre optimalizálni. Ebből persze következik hogy a gyárilag overclockot 84W TDP-s desktop termékeknél sokkal kisebb arányú teljesítmény növekedés érhető el, hisz az optimalizáció maximuma már nem oda összpontosul, hanem az üzletileg fontosabb, a piac egyre nagyobb részét adó alacsony fogyasztású termék palettára.

A 45nm-es HKMG és a 22nm-es TriGate után 10nm-en menetrend szerint megint új tranzisztor technológia érkezik, nagy valószínűséggel III-V félvezetős Quantum Well FET. Ez megint komolyan lentebb nyomhatja a feszültséget és azzal együtt a fogyasztást. Nagy valószínűséggel a mobil gyártástechnológia ezzel együtt fog eltűnni, ahogy 45-en eltűnt a desktop vonal. Helyette lesz majd egy magas és alacsony teljesítményre optimalizált SoC gyártástechnológia páros, utóbbi épülhet pl. az Intel által már demonstrált Near Threshold Voltage technológiára.

10nm HP SoC gyártás mellett már elérhető lesz a 3-4 Ghz közötti frekvencia tartomány, így akár a mai felső mobil és desktop rendszerek teljesítménye hozható lesz egy alacsonyabb fogyasztási keret mellett. Az optimalizáció maximuma viszont a 10W környéki termékekre fog összpontosulni. Az alacsony fogyasztású SoC termékeknél meg 1-2W környékére.
 
Válasz írásához előbb jelentkezz be!
1. jozsefm
2013.04.08. 17:45
"Először az i7-920 nem 32nm-es, hanem 45nm-es proci úgy 4.5 év távlatából. A másik a 130W az egy TDP keret, nem pedig fogyasztás. Az összes HEDT procit egyetlen TDP keret alá volt/van besorolva. Xeon esetén ugyanezen specifikációval bíró proci a 95W TDP keretbe volt besorolva."

Annyiban pontosítanám ,hogy az LGA-1366 mostani megfelelője asztaliban az LGA-2011, illetve a 920-nak ezen a platformon kb. az Intel® Core™ i7-3820 Processor ami 32nm-en ugyanúgy 130W TDP, IGP nélkül, illetve a hasonló haswell is ugyanennyi lesz 22nm-en

gyártási kihozatal harang görbéje azokra a procikra volt optimalizá-ció ide vagy oda ez pr-osan jobban hangzik, de ettől még mindaz, hogy itt nem is lehetséges már a továbblépés a hagyományos módon, még tökéletesen igaz.
Bár azt nyilván látják intelnél is, hogy piaci keresleti harang görbe se ezekre a termékekre van kihegyezve, és nem is fektetnek már túl nagy energiákat bele.
 
Válasz írásához előbb jelentkezz be!