iPon Hírek

Intel: késik a Larrabee

Dátum | 2009. 12. 06.
Szerző | Gabriel
Csoport | FŐ EGYSÉG

Bejelentette az Intel, hogy technikai okok miatt csúszni fog a várva-várt Larrabbee; először csak egy szoftverfejlesztő platformot adnak majd ki hozzá "a jövő év során".

A sokmagos chipet többször is késleltették; már májusban utaltak rá, hogy a 2009 végi érkezés kútba eshet, és 2010 első felére csúszhat át. Ennek a pontos okairól azonban sem akkor, sem most nem nyilatkoztak túl részletesen.

Ezúttal is alapvetően csak annyit közöltek, hogy a késés szimplán annak tudható be, hogy nem állnak még úgy a fejlesztéssel, ahogy szeretnék. Emellett bejelentették a fent említett fejlesztői készlet érkezését is, hogy jó előre lehessen építeni a platformra.

A CNET egyik elemzője a bejelentéshez csak annyit fűzött hozzá, hogy a chip nyilván nem teljesít olyan jól, mint kéne, és még dolgoznak, hogy magasabb órajeleket érhessenek el. Persze az igazságot csak az Intel tudja.

Új hozzászólás írásához előbb jelentkezz be!

Eddigi hozzászólások

27. gabest
2009.12.06. 21:25
Ez se fért ki a gyárkapun.
 
Válasz írásához előbb jelentkezz be!
26. mtrx220
2009.12.06. 21:29
szerintem a gond itt inkább az hogy az intel egyszerűen nem hagy elég időt a termékei kifutására a piacon. plusz még jött a válság is ugyebár.
gondolom osztottak, szoroztak és rájöttek hogy jobb egy kicsit még késleltetni, hogy a legnagyobb hasznot hozhassa.
 
Válasz írásához előbb jelentkezz be!
25. gab78
2009.12.06. 21:54
Szerintem itt több gond is van!

Egyrészt a fogyasztás, amit nem tudnak kordában tartani és hát az energiatakarékosság ma nagy divat, aztán ott a méret, nem gyártható olcsón, ami az asztali szegmensben - hiszen ide is szánják részben - szükséges lenne, különben esélytelen, és hát ott van az a tény, hogy ilyet még sokan nem láttak, senki semmit nem fejlesztett rá, így jól teljesíteni rendkívül nehéz! Ezt láthatjuk az ATI esetében is, mikor mindenki nVre fejleszt jó esetben is csak helytállni képes, aztán amikor jön egy javítás, hirtelen megugrik a teljesítmény! Lásd pl NFS Shift, Patch 2! De a kedvükért nem fog mindenki nekiállni patcheket barkácsolni, amikor abból már nem igan van nekik plusz pénzük! No de a jövőbeni fejleszésekre legalább lesz esélye a fejlesztőknek, hiszen ha nem is lesz elérhető mindenkinek néhány 100darabbal a fejlesztések megindulhatnak! Már csak az Intelnek kell összekapnia magát hogy csökkentse a fogyasztást - drasztikusan - no meg hogy kicsit a méreten is, ha másképp nem gyártástechnológia váltással!
 
Válasz írásához előbb jelentkezz be!
24. oliba
2009.12.06. 22:59
Itt arról van szó, hogy túl drágán gyártható a nagy magméret miatt és mindent emulálnia kell, nincsenek benne fix funkciós cuccok, mint pl textúrázás és az emulálás sokkal lassabb így, mint egy fix funkciós egység, így a teljestménye meg se közelíti egy Cypress vga-ét, miközbe előállítása ennek a duplája. Ennyi probléma van csak vele
 
Válasz írásához előbb jelentkezz be!
23. Svindler
2009.12.07. 00:16
Errm, azért illik figyelembe venni, hogy ez itt nem egy GPU, az elsődleges célja nem a játék. Itt keményen a HPC szegmens a cél. Az, hogy mellette jó lesz játékra majd pár generáció múlva lesz az igazi, ha egyszer eljutunk a teljesen szoftveres pipe-ig megint
 
Válasz írásához előbb jelentkezz be!
22. Forcecaste...
2009.12.07. 00:37
Az eredeti sajtóközleményben az szerepelt, hogy a Larrabee consumer változatának vége, tehát asztali verzió nem lesz. Helyette development platformként fog megjelenni.
 
Válasz írásához előbb jelentkezz be!
21. oliba
2009.12.07. 01:07
Svindler: ja csak jelenleg vga-két mit ért az ember Ameddig így gondolják az emberek, addig sokan nem fogják megvenni ezt a cuccot és ezért elkezdeni gyártani pénzpazarlás. Monnyuk valaki megteheti, hogy néha szórja
 
Válasz írásához előbb jelentkezz be!
20. rini
2009.12.07. 12:34
Azt nem értem, hogy miért gondolja mindenki azt, hogy ha valaki belevág egy fejlesztésbe az sikeres is lesz. Az Intelnek volt egy ötlete és pénze, hogy megvalósítsa ezt. Belevágott de nem úgy sikerült ahogy szerették volna. Ez bármelyik cégnél előfordul a fejlesztések terén főleg úgy, hogy nagyot merészelt álmodni és olyan utakon járt ahol még előtte senki. Nekik most nem sikerült. Ettől függetlenül a fejlesztésnek biztos, hogy vannak hozadékai is a fejlesztés-kutatás terén, amelyeket a későbbi termékek fejlesztésénél kamatoztatni lehet. Lehet egy olyan hibába futottak bele amelyet még mások nem tapasztaltak, de bárkinél jelentkezhet aki ilyen megoldás fejlesztésével akar majd jelentkezni a piacon.Addig jegelni kell a fejlesztés többi vonalát amíg a problémára megoldást nem találnak. Emlékezzetek az AMD natív négymagosai is rendelkeztek egy ilyen hibával amely az Intelnél is problémaként jelent meg a natív négymagos fejlesztések folyamán. A hiba ma is megvan de jelentősen csökkentették annak előfordulási lehetőségét.
 
Válasz írásához előbb jelentkezz be!
19. leviske
2009.12.07. 13:34
És azzal mi a helyzet, hogy állítólag 2012 végére csúszik, mert ezt a generációt egy az egyben kaszálják?

Mondjuk ezek után nagyon kíváncsi leszek az nVIDIA következő lépésére. Szvsz, ha van egy kis eszük, akkor a Tegra/ION mellett a Tesla rendszereket nagyon elkezdik nyomni, hogy a "G3" Larrabbe-nek nehezebb dolga legyen. Mert ha a Ők kapnak pofont az Inteltől, már nem lesz annyira könnyű felállni X86 licenc nélkül.
 
Válasz írásához előbb jelentkezz be!
18. Parano1d
2009.12.07. 14:14
Szerintem már eleve a Larrabee ötlete is halva született. Mert ez egy olyan GPGPU, ami elvben bármire használható, de gyakorlatban semmire sem igazán, mert nem célhardver. További probléma vele, hogy várhatóan nagyon drága is az előállítása. Grafikai processzorként alig van olyan program ami profitálna a masszív többszálúságból, és az Ati/Nv termékei ne támogatnák. Hagyományos processzorként, pedig nem nagyon van olyan program, ami profitálna a sok feldolgozóegységből.
 
Válasz írásához előbb jelentkezz be!
17. arkman
2009.12.07. 15:03
Larrabee (És hasonló megoldások) a jövő, ez tény. (Most nem a nagyon közeli jövő 1-2év, hanem kicsit hosszabb távon.) Általános felhasználásra szánt többmagos feldolgozó egység. Még a megvalósítással gondok vannak, de mire kijavítják a hibáit, és finomítják nagyon is versenyképes lesz. (Mindegyik gyártó ilyenre törekedik, lásd nvidia Fermi, és az AMD is elkezdte már a Fusionnel, csak az Intelnek majdnem a semmiből kell feléptenie a sajátját.)
 
Válasz írásához előbb jelentkezz be!
16. leviske arkma...
2009.12.07. 16:31
Azért a Fusion-t és a Fermit nem kéne összehasonlítani. A Fusion az a dolog, ami miatt az nVIDIA rákényszerült a Fermi fejlesztésére és a GeForce termékvonal Tegra/ION/Tesla termékvonalra cserélésére.
 
Válasz írásához előbb jelentkezz be!
15. rini
2009.12.07. 18:01
Nem a Fusion miatt kellett az nV-nek a többi termékvonal hanem az x86 miatt. Ha az nV rendelkezne az x86 licencel az AMD a hajára kenhetné a Fusiont. Az, hogy az nV otthagyja ezt a piacot arról az x86 licenc hiánya és más nagyobb haszonnal kecsegtető piacok tehetnek.
 
Válasz írásához előbb jelentkezz be!
14. leviske rini
2009.12.07. 18:25
Nem, az Intel a hajára kenhetné, hogy nem ad az nVIDIA-nak X86 licencet, ha nem dönt az AMD és az Intel maga is úgy, hogy a CPU-t és GPU-t érdemes összeolvasztani.

Tehát bizony, az nVIDIA a Fusionféle architektúrák terjedése végett búcsúzhat lassacskán a desktoptól.
 
Válasz írásához előbb jelentkezz be!
13. rini
2009.12.07. 20:24
Akkor nem azt kellett volna írnod, hogy a Fusion miatt száll ki ebből a bizniszből, hanem azért mert nem rendelkezik azokkal az esélyekkel (x86 licenc) mint a többi gyártó. Ebben az esetben mind a három a hajára kenheti bár az Intel jobban mivel ő rendelkezik a licencel. Biztos emlékszel, hogy az S3-hoz be is próbálkozott az nV de nem járt sikerrel . Tehát megpróbálkozott a piacon maradni de ez nem lehetséges (legalábbis számára értelmes áron). Akkor mi a francnak fejlesszen komolyan egy olyan piacra ahol tudja, hogy nincs jövője. Igaza van, hogy más piacra dolgozik és újabb piacokat keres magának valamint még megpróbál a régi piacról hasznot hajtani amíg ezek a platformok le nem fedik az egész szegmenst és tud profitot termelni. A cikkre visszatérve azért még kaphat az AMD Fusionja is a fejére mert ő is belefuthat egy ilyen pofonba mint most az Intel. Ezek a pofonok minden kutatás-fejlesztés-gyártás felett ott lebegnek.
 
Válasz írásához előbb jelentkezz be!
12. Parano1d
2009.12.07. 22:07
Sőt tulajdonképpen már bele is futott, mivel a fusiont régebb óta fejlesztik, mint a Larrabee-t, még sincs látható eredménye. Véleményem szerint nagyon sok víz le fog még folyni a dunán, amíg otthoni használatra el fog terjedni ez a dolog (nem 1-2 év) inkább 5-10 ha ugyan el fog egyáltalán. Jelenleg, egy processzor+Vga teljesítménye messze fellülmulja ezeket a próbálkozásokat, és olcsóbb is. Ha az OpenCL kiforrja magát, és terjedni kezd, akkor még sötétebb jövőnek nézhetnek elébe ezek a projektek.
 
Válasz írásához előbb jelentkezz be!
11. leviske rini
2009.12.08. 00:37
Azért nem fogok többoldalas magyarázatot írni egy-egy hozzászólásomhoz, csakhogy ne köthessenek bele. Ha még egyszer elolvasod amit írtam, akkor Te magad is röhögni fogsz azon, amit most javasoltál nekem.

Azt meg azt hiszem senki nem vitatta, hogy igaza van-e, hogy más piacokat keres, de az akkor is tény, hogy erre nem kényszerül rá, ha az AMD és az Intel nem szorítja ki nagyon keményen. Az is tény, hogy a levesébe az AMD köpött bele, mikor felvásárolta az ATi-t és ezzel egy olyan tőkét biztosított a Radeonok háta mögé, hogy akármennyire is veszteséget termelt sokáig a Radeonok fejlesztése, mégsem tudta kinyírni a piacról az nVIDIA az ATi-t. (Végül ugye ez ki is fizetődött...)

Az meg, hogy belefuthat a Fusion-el az AMD ugyan abba, mint az Intel a Larrabee-vel, az elég nevetséges, ugye tudod? A Fusion és a Larrabee közel nem ugyan az. A Larrabee egy GPGPU, a Fusion meg egy APU. A Larrabee egy járatlan út, e mellé az Intel grafika terén tapasztalatlan, nem meglepő, hogy hasalgatnak folyamatosan. És akkor még ott van az is, hogy jóval meg akarták előzni a korát, ami a R600-at tekintve is veszélyes üzem, még hogy ha azt nézzük, hogy ők nem 2, hanem 5 évvel akartak előrébb ugrani ami már magában is öngyilkosság... Ellenben az AMD a Fusionnel egy nagyon egyszerű dolgot csinál, egy CPU-t és egy GPU-t összeturmixol egy lapkára. Ebben mi lenne annyira bonyolult, vagy veszélyes? 2010-ről 2011-re is csak azért lett valószínűleg tolva, mert 32nm-en, TSMC nélkül akartak gyártatni.

A Larrabeeféle irányba az AMD valószínűleg a 2012 felé megjelenő új Radeon architektúrával indul el, viszont a több tapasztalat miatt kétlem, hogy buknának akkorát, mint az Intel, főként, hogy a kedves Intel meg is mutatta, hogy mit és hogyan nem szabad csinálni. E mellé jön az is, hogy az R600 óta nincs sok dolguk a Radeon GPU-kon dolgozó mérnököknek (az R600>RV670>RV770>Cypress nem valószínű, hogy túl sok mérnököt és időt felemésztett volna), így még túl nagy időbeli lemaradásban sincsenek az Inteltől (ha a Larrabee Gen.3 fejlesztési idejét vesszük alapul, és miért ne azt vennénk, miután elméletben a nulláról kezdte újra az Intel).

Parano1d: Hát azt nagyon Őszintén kétlem, hogy régebb óta fejlesztik, miután a Larrabee következő, 3. generációját, ami jó eséllyel 2012-ben jelenik meg, azt vagy 3 éve fejlesztik, ebből fakadóan ezt a generációt már jóval 2006 előtt elkezdték fejleszteni. A Fusion-t meg esélytelen, hogy 2006-ban elkezdték volna fejleszteni, hiszen hozzá azért nem ártott az ATi fejlesztő gárdája is. Valószínűleg valamikor 2007 elején kezdhették meg a tervezést úgy rendesen. Honnan gondoltad, hogy hamarabb kezdték el fejleszteni a Fusion-t, mint a Larrabee-t?
 
Válasz írásához előbb jelentkezz be!
10. Parano1d
2009.12.08. 08:05
Te honnan veszed, hogy 2006 előtt kezdték fejleszteni a Larrabeet? 2007-ben jelentették be mindkettőt. Nem állítom, hogy nem kezdték el előbb fejleszteni, de én a Fusionról hallottam előbb. Olyan nagy különbség szerintem nincs köztük időben akárhogyis.
A fő probléma ezekkel szerintem, hogyha komolyabb teljesítményt akarnak kicsiholni belölle, akkor brutális magmérettel/tranzisztorszámmal kell rendelkeznie, lévén két feladatot lát el egyszerre. És azt az Nvidia is tapasztalata saját kárán ezek legyártása nagyon drága. Egyszerűen az Ár/teljesítmény aránya nem túl jó. Ezért nem érzem életképesnek ezeket a projekteket.
 
Válasz írásához előbb jelentkezz be!
9. Joachim21
2009.12.08. 08:41
Pedig a jelek egyérteéműek. NV kiszáll a desktop piacról szép lassan.

Ráadásul NV piaci részesedése sem úgy alakul, ahogy azt itt valaki felvázolta. Kár kardoskodni az NV multi mellett, főleg hogy egy különösen szemét vezetőkkel megáldott cégről beszélünk, másrészt meg a riválisai sem jobbak.
 
Válasz írásához előbb jelentkezz be!
8. rini
2009.12.08. 13:36
Leviske - Ezzel most azt mondtad, hogy az AMD nem fejlesztett semmit az ég világon az R600 óta, csak belepakolták a kötelezőt (10.1és 11)valamint megdupláztak benne mindent. Akkor nem értem, milyen jogon mondjátok az nV-re, hogy nem fejleszt semmit. Ezek szerint akkor az AMD sem fejlesztett semmit. Nagyon ironikus így utólag bevallani ezt. A fájdalmas az, hogy igazad van mert tényleg ez történt az R600 óta mint az nV-nél is. Az nV-nél meg még idejönnek a 10.1 hiánya és még pluszba az átnevezések is.

A másik, hogy az ATI igenis vesztett az nV-vel szemben, tehát a 8000-as sorozat elvégezte a dolgát és ennek köszönhetően az ATI mint cég megszűnt létezni. Most már csak AMD létezik és ezt a nevet csak marketingként használják a régi idők emlékére. A mai kártyák nem az ATI termékei hanem az AMD termékeinek sorát bővítik.

Az "AMD belefuthat-e abba a hibába" azt nem tudom, mint ahogy te sem tudhatod ezt biztosra a kijelentésed ellenére. Bármi elképzelhető. Akár az is,hogy igen de az is, hogy nem. Számba vetted, hogy amikor összekötik a processzor magokat akkor egy azonos felépítésű egységgel kötik össze így "könnyen" megoldható feladat. A grafikus magok teljesen más félépítésűek mint ezek a magok, más kivezetések léteznek. Hogyan viselkedik majd a processzor a grafikus mag hatására és fordítva. Hogyan reagálnak a cache-ek vagy a memória modulok egymásra egy összetokozott processzornál. Millió apró probléma léphet fel és ez mind befolyásolja majd ezeket a fejlesztéseket. Én csak egy-két leküzdendő dolgot írtam ide de van sok más is. Ez például azt is jelenti, hogy akkor lehet búcsúzni az AM3 tokozástól is.

Amikor az AMD elindul abba az irányba (2012)ahogy mondod akkor nem futhat bele abba a hibába mert az Intel megmutatta, hogyan nem kell csinálni? Semmit nem mutatott csak azt, hogy nem sikerült nekik elkészíteni. Majd ha átadja az AMD-nek a kutatási eredményeket akkor mondhatod ezt. Ezt az utat csak és kizárólag magának az AMD-nek kell megtenni, mert ezt az eredményt biztos nem kapja meg az Inteltől, ugyanis nagyon sok pénzt ér.
 
Válasz írásához előbb jelentkezz be!
7. leviske Paran...
2009.12.08. 14:12
Miért? Szerinted mikor kezdték el? Minden valószínűség szerint az első Larrabee projektek hatására kényszerült az AMD megvenni az ATi-t, az Intel meg ekkor döbbenhetett rá, hogy az első generációk nem lesznek túl jók magméret/teljesítmény szempontjából, ezért kezdték nulláról a 3. generációt.

Amúgy meg több száz mérnök had tudja már jobban, hogy mire van szüksége a piacnak. Az, hogy a jelenlegi DX alapú játékoknak nem ilyen felépítésű videokártyára van szükségük, attól még a későbbiekben, a szoftverrender beköszöntével egyre inkább erre lesz szükség. Az AMD is kénytelen lesz ebbe az irányba elindítani a Radeonok fejlesztését.

Egyébként igyekezzünk nem keverni, a Larrabee-nek általános gyorsító feladatot kell majd ellátnia, nem a Fusionféle APU feladatokat. A Fusion meg abból kiindulva, hogy egy 32nm-en gyártott Redwood és Deneb(vagy Propus) párosból fog állni, nem lesz nagyobb, mint egy GT200, de talán még a Cypress mérete alá is sikerül beugrani... nem lesz ez akkora, mint a Larrabee. És mint már írtam, nem is olyan bonyolult a felépítése, hogy bármi miatt bukhassanak. AZ Intel a saját, Fusion szerű APU-ját már a jövő negyedévben bemutatja, csak abban egy harmatgyenge GPU kap helyet, a Fusion architektúrájú AMD Llano-ban meg már egy jóval komolyabb lesz, amivel már játszani is lehet majd.

hun: Valami borzasztó mód el vagy tévedve. Nem a HD5000-esek és nem is a HD4000-esek megjelenése óta szajkózzuk páran, hogy az nVIDIA kiszáll a desktop GPU szegmensből.

Az IGP-s alaplapokat és az APU-kat meg azért nem kellene összehasonlítani, mert IGP-k terén semmi érdek nem fűződött ahhoz, hogy a diszkrét GPU-k eltűnjenek, ellenben a platformosodás megkezdődésével mind az AMD-nek, mind az Intel-nek érdeke, hogy az emberek platform gépeket vegyenek. Arról nem is beszélve, hogy a szoftverrenderes játékok visszatértével az APU felépítés lesz az elvárható.

Tény, hogy ez nem fog egyik percről a másikra végbemenni, de jövőre az Intel kiszorítja az nVIDIA IGP megoldásait, aztán jövő év végén az AMD elkezdi kiszorítani az alsó-középkategóriából. Talán mondanom sem kell, hogy a belépőszint és az alsó-középkategória hozza a legtöbb pénzt, így az nVIDIA-nak ez elég nagy érvágás lesz. Talán mondanom sem kell, hogy minden valószínűség szerin 2011 végén már az AMD valószínűleg elég kemény középkategóriás diszkrét videokártyákat is tud majd helyettesíteni az APU-jaival, valószínűleg akkor már az Intellel egyetemben.

Felső kategóriában még nyugodtan maradhat az nVIDIA, a gond csak az, hogy az emuláció miatt magméret/teljesítmény egyre inkább le fog maradni, így valószínűleg már addigra ki fog szállni, mire már csak a felső kategóriás videokártyákat nem tudják helyettesíteni APU-val.

Bár természetesen nézhetjük úgyis,ahogy a sok nVIDIA fan látja: hogy az nVIDIA mérnökei hülyék és 3 éven keresztül nem sikerült a DX10-nek és a DX11-nek megfelelő architektúrát összedobniuk, ahhoz képest, hogy a 8000-es széria előtt folyton ők vezették be az új DX fejlesztéseket. A Fermi sem lesz nagy durranás DX11 alatt, de ezt majd mindenki saját szemmel...

"Igen jól olvassátok, az amd toldja-foldja az R600-as lapkáját, már sokadjára."
TE JÓ ÉG! EGEK URA! Ezt nem is tudtam, világosíts fel, mit tudsz még mester?
A Microsoft a XBOX végett a kezük alá dolgozik, hogy a játékok fejlesztése szempontjából egyre közelebb kerüljön az XBOX és a Windows. A DX10.1 és a 11 mondhatni az AMD kedvére lett megszabva, így indokuk nem nagyon volt rá, hogy architektúrát váltsanak.

De most mondok egy megdöbbentőt. Ha az előző kijelentésed számodra eddig újdonság volt, akkor ez biztos szíven üt: Az nVIDIA sem fejlesztett a G80 óta! A GT200 csak egy, a desktopon rosszul elsült toldozgatás/foldozgatás eredménye! Sőt! Most is toldozgatnák Ők is tovább a G80-at, ha az Intel nem fenyeget azzal a veszéllyel, hogy agyoncsapja őket a HPC piacon a Larrabee-vel. A Fermi egy olyan lépés volt, amire eleve az egész fejlesztőgárdát el kellett szipkázni (ezért kapott cancel-t a GT212 és a GT214, a két GPU amik meglétével kevésbé volnának nagy pácban), hogy időben odadörgölhessék az Intel orra alá, aki erre visszavonulót fújjon egy időre.

Amúgy meg magasról szrnék bele, hogy az nVIDIA kivonul-e, vagy sem. Nem kapok pénzt az AMD-től, ha nagyobb lesz a hasznuk. És arról sem vagyok meggyőződve, hogy azzal mindenki jól fog járni, ha a diszkrét GPU és CPU-kat leváltják az APU-k, miután ennyivel csökken a variálhatóság és ezeket összeadva a már most bevezetett kétfoglalatos rendszerrel, nem feltétlen lesz jó/jobb világ.

rini: Hagyjuk ezt a vitát, olyan dolgokkal jössz elő, amiket 600 éve leírtam. Olvass vissza, mert unalmas, hogy mindent 100x kell leírnom.

Hogy hogy oldják meg a Fusion-ben a dolgokat, az az Ő dolguk, szerencsére nem te vagy a mérnökgárda vezetője, így 100%, hogy Ők már akkor tudták, hogy mi, hogy fog reagálni az összeolvadásra, mikor elkezdték tervezni.

Az meg, hogy búcsúznak* az AM3-tól... OMFG! Komoly? Talán jön a kétfoglalatos rendszer, ahogy az Intelnél és erről magyarázok már mióta??? Jó lenne, nem próbálnál kioktatni ilyen újdonságokkal.

*Csak a gyengébbek kedvéért újra leírom:
Felső kategória a későbbiekben: AM3(+) > AM4(+) > etc, tehát marad az a rendszer, mint amit az AM2-vel bevezettek
Közép és alsó kategória a későbbiekben: FM1 > és ugye az a rendszer ugyancsak, amit az AM2-vel bevezettek, bár az sem teljesen kizárt, hogy még az FM1 is kompatibilis lesz az AM2/+/AM3 foglalatokkal, csak nem lehet majd ezekben kihasználni az integrált GPU-t.
 
Válasz írásához előbb jelentkezz be!
6. Parano1d
2009.12.08. 15:04
Akkor itt van egy kis véleménykülönbség, szerintem a dx10-es GPU-k , hatására kezdte el fejleszteni a larrabee-t az intel, mivel egyre több funkciót képesek ellátni ezek a GPGPU-k, és nem a larrabee miatt vásárolta fel az ATI-t az AMD. Én legalábbis semmiféle forrást nem találtam a neten, hogy 2006 előtt létezett volna bármiféle Larrabee-projekt. Nem is lett volna értelme amúgy, mivel az első dx10-es videókártyák 2006 végén jelentek meg, és akkor kezdték csak pedzegetni, hogy esetleg másra is lehetne használni ezeket a kártyákat, nem csak 3D-re. És emlékszem az Intel azzal harangozta be a cuccot, hogy "előtenyomul a GPU-k és a CPU-k ütközési pontjára"
 
Válasz írásához előbb jelentkezz be!
5. leviske Paran...
2009.12.08. 15:39
Ha akkor döbbentek volna rá, hogy mire lehet még használni egy GPU-t, akkor mire bárki reagált volna, az nVIDIA mindenkibe belepofozta volna a CUDA támogatását.

A platformosodás, az APU-k bevezetése, a GPGPU-k felé vett irány már valószínűleg 2006 előtt eldőlt... 2006/2007 táján inkább az nVIDIA kaphatott észbe, hogy a G80-al elkezdett irány felejtős és valószínűleg akkor jött B tervként a Fermi.
 
Válasz írásához előbb jelentkezz be!
4. Parano1d
2009.12.08. 16:06
Ahoz képest egy kezemen meg tudom számolni, mennyi sok mindenre lehet használni manapság a GPU-kat aminek értelme is van. Nem volt Larrabee hidd már el nekem nincs semmi nyoma, hogy létezett volna. a google legalábbis nem talált semmit. 2007 Aprilisában jelentették be.
 
Válasz írásához előbb jelentkezz be!
3. leviske Paran...
2009.12.08. 16:23
Jesszus. Jó, szerintem ezt hagyjuk...
 
Válasz írásához előbb jelentkezz be!
2. Parano1d
2009.12.08. 16:39
Nem állítom, hogy nincs igazad, tudom, hogy jobban képben vagy a témával kapcsolatban (nálam tuti) Amúgy azt hiszem a fusionnak akkor is meg kellet volna már jelenni, végülis azt is már minimum 2.5-3 éve fejlesztik, főleg, hogy azt mondod nem olyan bonyorult dolog, mint a Larrabee
 
Válasz írásához előbb jelentkezz be!
1. leviske Paran...
2009.12.08. 18:17
Ahhoz, hogy a Fusion megtudjon jelenni és mellé biztosítani tudják, hogy megfelelő haszon lesz rajta, kellett a 32nm-es gyártástechnológia (ez ugye minimum 2010Q3-at feltételez). Mivel nem a TSMC-vel akarnak gyártatni, hanem a GF-zal, kénytelenek voltak tolni a megjelenést 2011Q1-re.
 
Válasz írásához előbb jelentkezz be!