prosessorer

Nnp, dlboost og keem bay, nye Intel-brikker for blant annet nevrale nettverk

Innholdsfortegnelse:

Anonim

Intel kunngjorde ny dedikert maskinvare på AI Summit-arrangementet den 12. november borte fra massemarkedet, NNP, DLBoost og Keem Bay. Disse produktene er uten tvil kulminasjonen på mer enn tre års arbeid siden oppkjøpet av Movidius og Nervana i andre halvdel av 2016 og etableringen av deres AI Products Group, ledet av Naveen Rao, medgründer av Nervana.

NNP, DLBoost og Keem Bay, nye Intel-brikker for AI og nevrale nettverk

Rao bemerket at Intel allerede er en stor aktør i AI-sektoren og at AI-inntektene i 2019 vil overstige 3, 5 milliarder dollar, opp fra mer enn 1 milliard dollar i 2017. Intel har allerede annen maskinvare for alle. OpenVINO-fronter for IOt, Agilex FPGAs, Ice Lake på PC, DLBoost fra Cascade Lake, og enda lenger, dens fremtidige diskrete grafikk.

Prosessorer: DLBoost

Intel demonstrerte kompatibiliteten med bfloat16 ved Cooper Lake 56-core som vil være ute neste år som en del av sin DLBoost-serie av AI-funksjoner i prosessorene sine. Bfloat16 er et numerisk format som oppnår en presisjon som ligner den for det enkeltpresisjonsflytpunktet (FP32) i AI-trening.

Intel ga ikke et estimat av ytelsesforbedringen, men den opplyste at Cooper Lake er 30 ganger raskere enn Skylake-SP for slutninger. På PC-siden inneholder Ice Lake de samme DLBoost AVX-512_VNNI-instruksjonene som også er i Cascade Lake.

Movidius: Keem Bay VPU

Som en del av strategien mot kunstig intelligens, som smartkameraer, roboter, droner og VR / AR, kjøpte Intel Movidius i 2016. Movidius kaller sine laveffektbrikker "visjonsbehandlingsenheter" (VPU). De har muligheter for bildesignbehandling (ISP), maskinvareakseleratorer, MIPS-prosessorer og 128-bits programmerbare vektorprosessorer (VLIW) som du kaller SHAVE-kjerner.

Besøk vår guide for de beste prosessorene på markedet

Intel har nå detaljert hva den kaller 'Gen 3' Intel Movidius VPU-kodenavnet Keem Bay. I følge Intel har den en inferensytelse som er mer enn 10 ganger høyere enn Myriad X og bruker samme mengde energi.

Nervana Neural Network Processors (NNP)

Intel har NNP-er for både trening og dypt nevralt nettverk. Intels NNP-I for inferens er basert på to Ice Lake Sunny Cove kjerner og tolv ICE akseleratorkjerner. Intel hevder det vil levere god ytelse per watt og beregne tetthet. I sin M.2-formfaktor er den i stand til 50 TOPS ved 12W, som tilsvarer 4.8TOPS / W, som tidligere kunngjort. Intel avslørte at formfaktoren til PCIe-kortet bruker 75W og produserer opptil 170 TOPS (med INT8-presisjon).

Intel gjentok sin høye nær-lineære skaleringseffektivitet på 95% for 32 kort, sammenlignet med 73% for Nvidia.

Intel har utarbeidet et bredt utvalg av brikker for alle fronter, AI, 5G, nevrale nettverk, autonom kjøring osv., I et marked som i år genererte inntekter anslått til 10 milliarder dollar. Vi vil holde deg informert.

Tomshardware font

prosessorer

Redaktørens valg

Back to top button