iPon Hírek

Speciális Fujitsu processzor mélytanuláshoz

Dátum | 2017. 07. 20.
Szerző | J.o.k.e.r
Csoport | FŐ EGYSÉG

A mélytanulásra és a mesterséges intelligenciára szinte minden fontosabb IT vállalat odafigyel, ezek ugyanis jövőformáló technológiák, amelyekre egyre több és több szolgáltatás, illetve technológia épül majd. Érthető hát, hogy az Nvidia, az AMD, az Intel és a Google is készített már olyan gyorsítókártyákat, illetve gyorsítóchipeket, amelyek segítenek a terület dinamikus fejlődésében, most azonban egy újabb szereplővel bővül a paletta, ugyanis a Fujitsu vezetése is ráébredt: érdemes a gyorsan növekvő piac szegmensére koncentrálni, ugyanis remek bevételforrás lesz az elkövetkező évek során.
A szerverek és szuperszámítógép-fürtök piacán, illetve a PC piacon is tevékenykedő japán gyártó egy speciális célhardver készítését tűzte ki célul, amely a Deep Learning Unit nevet viseli. A DLU a várakozások szerint mintegy tízszeres javulást hozhat a konkurens megoldásokhoz képest teljesítmény/watt arány terén, ami nagyon jól hangzik, azt viszont nem tisztázták a Fujitsu szakemberei, hogy ez a növekmény tréning módban, vagy inferencing, azaz következtetésen alapuló munkafolyamatok alkalmával jelentkezik-e. De persze akármelyikről is van szó, ígéretesnek tűnik a DLU.
Maga a DLU chip egyébként egy tömbnyi Deep Learning Processing Unit-ból áll, amelyek között nagyteljesítményű összeköttetés teremt kapcsolatot. Ebben a tömbben minden esetben helyet foglal egy „master” státuszú mag, amely a DPU egységek menedzseléséről gondoskodik, valamint a DPU egységek és a lapkán elhelyezett vezérlő között is hidat képez. A rendszer natívan támogatja az FP16-os, FP32-es, INT16-os és INT8-as adattípusokat. A lapkák egyszerű futószalaggal rendelkeznek, így a hardver komplexitása csökkenthető, valamint a lapkán található hálózat is egyszerűbb lehet, amely az egyes DPU egységek közötti összeköttetést biztosítja.
A DPU egységeket tömörítő DLU chip egy teljesen új utasításkészlet-architektúra (ISA) köré épül, amit kifejezetten a mélytanuláshoz fejlesztettek ki. Minden egyes DPU egységben 16 mélytanulás-feldolgozó elem foglal helyet (DPE), amelyek 8 SIMD egységből és egy nagy, szoftveresen vezérelhető regiszter fájlból állnak, így egyetlen DPU összesen 128 SIMD egységet foghat munkára. A DLU tokozásán belül HBM2-es fedélzeti memória is helyet kap majd, így memória-sávszélesség terén nem igazán lesz hiány.
Az új rendszer a Fujitsu szabadalmaztatott Tofu interconnect technológiájának köszönhetően kiválóan skálázható, így az igényeknek megfelelő konfigurációk építhetőek. A tervek szerint az első generációs DLU chipek társprocesszorként működnek majd a különböző szerverekben – valahogy úgy, ahogy az Nvidia Tesla alapú gyorsítói. A következő, azaz a második generációtól kezdve viszont a processzorba integrálja a gyártó a DLU lapkát. Mivel a Fujitsu a SPARC architektúra köré épít processzorokat, így szinte teljesen biztos, hogy ezekbe a központi egységekbe integrálódik majd a DLU. Az első generációs chippel szerelt rendszereket még a 2018-as pénzügyi év vége előtt megépítik, azaz 2019 márciusáig mindenképpen elkészül, arról viszont egyelőre nincs hír, hogy a második generációs, processzorba integrált modellek pontosan mikor érkeznek.
Új hozzászólás írásához előbb jelentkezz be!