iPon Hírek

Intel Larrabee: nagy lesz és drága?

Dátum | 2009. 04. 15.
Szerző | J.o.k.e.r
Csoport | FŐ EGYSÉG

Az Intel sokmagos terméke, azaz közismertebb nevén a Larrabee már egy ideje készülget. A gyártót a termék miatt a egyik riválisa, az Nvidia bírálta: mondván a chip csak papíron létezik. A múlt hét folyamán az IDF alkalmával az Intel egyik munkatársa ennek az ellenkezőjét bizonyította: akkoriban egy 300 mm-es szilícium ostya került bemutatásra, amely tele volt Larrabee magokkal.

Most újabb információk láttak napvilágot, melyek nagyrészt a kép alapján elindult számolgatások eredményei. Az IDF-en bemutatott 300 mm-es szilícium ostyán összesen 64 darab Larrabee mag volt jelen, amelyek egyenként nagyjából 600 négyzetmilliméteres felülettel bírnak. Az Intel párhuzamos számítások elvégzésére képes chipje nagyjából 1,65 és 1,75 milliárd tranzisztort tartalmazhatnak, ami ~300 millióval több, mint amennyi az Nvidia GT200-as grafikus processzorában jelen van.

64 Larrabee mag a 300 mm-es Si ostyán.
A források szerint az első Larrabee chipek 45 nm-es High-K Hafnium technológiával készülnek majd, ám egy évvel később a gyártó már át fog térni a 32 nm-es csíkszélesség alkalmazására. A fenti tranzisztor számot nagyjából alátámasztja az az összehasonlítás is, hogy a Bloomfield mag, amely a Core i7-es processzorokban található, 263 négyzetmilliméteres felülettel bír és 731 millió tranzisztort tartalmaz, így a 600 négyzetmilliméteres felülethez arányaiban tényleg passzol az 1,7 milliárd körüli tranzisztor szám.

Új hozzászólás írásához előbb jelentkezz be!

Eddigi hozzászólások

15. Svindler
2009.04.15. 13:50
VISSZA A HÍRHEZ
 
Válasz írásához előbb jelentkezz be!
14. tomboy1986
2009.04.15. 14:02
Büszkék lehetnek magukra...
 
Válasz írásához előbb jelentkezz be!
13. Gpety
2009.04.15. 15:16
Nekem elejétől fogva kicsit furcsa volt ez a larrabee. Lehet, hogy sok mindenre jó lesz, de a grafikai számításokban egyenlőre nem hinném, hogy valami hú de nagy forradalmat hozna. Egyrészt jó mert x86, másrészt szerintem egy fogyatéskosság, hisz az Intel a GPU-khoz nem nagyon ért, így hát megpróbálták arról az oldalról megfogni a dolgot, amihez értenek, az x86 felől. Minden esetre kíváncsi leszek, hogy a gyakorlatban hogyan is muzsikálnak majd, de elég szkeptius vagyok.
 
Válasz írásához előbb jelentkezz be!
12. homeware
2009.04.15. 15:40
Elfelejthetnék már az x86-ot... eljárt felette az idő és kész, ideje lenne végleg x64-re váltani.
 
Válasz írásához előbb jelentkezz be!
11. imi993
2009.04.15. 16:44
vissza térnek a régi nagy gépek
 
Válasz írásához előbb jelentkezz be!
10. ossyni
2009.04.15. 16:51
digitális pizza?
 
Válasz írásához előbb jelentkezz be!
9. CsorvaGep
2009.04.15. 17:58
Hát nekem aztán teljesen m1 csak adjon valaki egy hibás ostyát
 
Válasz írásához előbb jelentkezz be!
8. pluto
2009.04.15. 18:45
Imi993, jó helyen kapisgálsz, már a 45 nm-es Wolfdale-k is ezzel a gonddal "küszködnek". Jobb kupak kell rá, nem aluminum, hanem pl. réz, mint ami volt is az első Pentiumokon, és a Cyrix processzorok nagyrészén. Ennek én pedig semmi értelmét nem látom. Miért jobb is ez mint egy integrált megoldás? Hát semmiben. Sztem ez nem lesz egy középkategóriás GPU közelében sem teljesítményben, elég körűlnézni az Intel jeleneli VGA kinálatát. Egy 16 MB-os Voodoo közelében vannak.
 
Válasz írásához előbb jelentkezz be!
7. Mikeee
2009.04.15. 19:19
igen az intel hiába rak kismillió tranzisztort egybe ha nem ért hozzá. emlékszem tavaly/tavalyelőtt az ati/amd is avval villogott, hogy sokkal több tranzisztor volt a gpujában, de mégsem volt még a közelében sem az nvidia kártyáinak. ha már ennyi tranzisztort összezsúfoltak akkor inkább használják cpu-nak és ne gpu-nak
 
Válasz írásához előbb jelentkezz be!
6. Tyrel
2009.04.15. 21:24
Valamit biztos még nem tudunk... Úgy értem, valamire biztos nagyon jó lehet ez az architektúra, ha az intel ennyire sok erőforrást áldoz rá, már nagyon régóta fejlesztik... Az ok hogy sok a pénzük de azért az ablakon ők se dobálják ki poénból, valamit biztos látnak benne...
Csak hát kérdés hogy mi az?...
 
Válasz írásához előbb jelentkezz be!
5. Parano1d
2009.04.16. 08:12
Én még azt sem mondanám, hogy nincs konkurenciája, mert ha belegondolunk az AMD Fusion project is valami hasonló elképzelés. Csak éppen a ma igényeire alakítva. Ugyanúgy integrált megoldás x86;x64;és hardveres grafikus gyorsításhoz.
 
Válasz írásához előbb jelentkezz be!
4. d311c
2009.04.16. 08:34
Azért az Intelnek nem ismeretlen a DSP ipar, úgyhogy ha lerak jópárszáz mm2 plusz chip területre tranzisztorokat, akkor nem az a valószínű, hogy kizárólag az olajradiátorok kiváltására készülnek. Mégha nem is sikerül olyan optimálisra, mint az utóbbi idők ATI chipjei, esetleg még az NVidia szintjét sem érik el, akkor is hatalmas számítási teljesítmény kell meglapuljon ekkora felületen.
Nagy kérdés lesz az energiasűrűség, és emiatt a hőelvezetés kérdése, de maximum a frekvencia és feszültség csökkentésével megoldják. Ha ütőképes megoldás, akkor nem számít annyira.

Előnye lehet a külön GPU-val szemben, hogy sokkal energiatakarékosabb lehet 2D-ben. Hártány, ha nem tesznek kellően nagy és gyors sideport memóriát a videófeldolgozáshoz, mert az az egész halála lehet. Valószínű, hogy esetleg a nagy felület jó része cache, hogy gyengébb memória alrendszerrel is jól fusson.
 
Válasz írásához előbb jelentkezz be!
3. Parano1d
2009.04.16. 13:31
Az igaz, bár igazából nekem sem sok elképzelésem van róla, hogy konkrétan mire szánja az intel ezt a procit. Kicsit az az érzése az embernek, hogy bármire jó, de igazán semmire sem lesz az. Egy viszont biztos, hogy drága lesz, és ez azért nagy hátrány. és a brutál tranzisztorszám miatt, relatíve alacsony órajelen fog üzemelni, emiatt a rosszul párhuzamosítható feladatoknál lassú lesz. (szerintem)
 
Válasz írásához előbb jelentkezz be!
2. Stormrage
2009.04.17. 12:18
Szerintem meg még egyikünk sem használt ilyen eszközt és egyikünknek sincsenek tapasztalatai, így kár lenne már előre lehúzni, vagy agyondícsérni ezt az új fejleményt, elég ha kellő kíváncsisággal várjuk, hogy a piac melyik szegmensét célozzák meg vele.

Mert akárhogy is lesz, egy biztos, hogy cpu+gpu-t kapunk, aztmondják, hogy drága lesz, na de mihez képest?

Mert ha önmagában drága, pl egy core2-höz képest, nem azt jelenti, hogy core2+ati/nvidia kombinációhoz képest is drága, egyikünk sem ismeri az új chip képességeit, nem tudjuk, hogy milyen grafikus meghajtó kiváltására lesz alkalmas (lehet egy átlagfelhasználó vagy egy középkategóriás gpu szintjén tud teljesíteni, de ezzel az emberek 90%-nak az igényeit ki is tudja elégíteni).
 
Válasz írásához előbb jelentkezz be!
1. Mikeee
2009.04.17. 13:43
oliba: lehet egy picit el vagyok tájolva, mert nem igen halottam még erről a Larrabee micsodáról. én azt gondoltam, hogy valami gpu lesz. az viszont úgy tudom igaz, hogy korábban még a 3xxx sorozat esetén több tranzisztor meg shader meg minden volt az ati/amd kártyákban, és gyorsabbak mégsem voltak az nvidia-nál. de lehet én tévedek

akinek van kedve felvilágosíthat hogy mi is pontosan az a larrabee
 
Válasz írásához előbb jelentkezz be!