Nnp, dlboost og keem bay, nye Intel-brikker for blant annet nevrale nettverk

Innholdsfortegnelse:
- NNP, DLBoost og Keem Bay, nye Intel-brikker for AI og nevrale nettverk
- Prosessorer: DLBoost
- Movidius: Keem Bay VPU
- Nervana Neural Network Processors (NNP)
Intel kunngjorde ny dedikert maskinvare på AI Summit-arrangementet den 12. november borte fra massemarkedet, NNP, DLBoost og Keem Bay. Disse produktene er uten tvil kulminasjonen på mer enn tre års arbeid siden oppkjøpet av Movidius og Nervana i andre halvdel av 2016 og etableringen av deres AI Products Group, ledet av Naveen Rao, medgründer av Nervana.
NNP, DLBoost og Keem Bay, nye Intel-brikker for AI og nevrale nettverk
Rao bemerket at Intel allerede er en stor aktør i AI-sektoren og at AI-inntektene i 2019 vil overstige 3, 5 milliarder dollar, opp fra mer enn 1 milliard dollar i 2017. Intel har allerede annen maskinvare for alle. OpenVINO-fronter for IOt, Agilex FPGAs, Ice Lake på PC, DLBoost fra Cascade Lake, og enda lenger, dens fremtidige diskrete grafikk.
Prosessorer: DLBoost
Intel demonstrerte kompatibiliteten med bfloat16 ved Cooper Lake 56-core som vil være ute neste år som en del av sin DLBoost-serie av AI-funksjoner i prosessorene sine. Bfloat16 er et numerisk format som oppnår en presisjon som ligner den for det enkeltpresisjonsflytpunktet (FP32) i AI-trening.
Intel ga ikke et estimat av ytelsesforbedringen, men den opplyste at Cooper Lake er 30 ganger raskere enn Skylake-SP for slutninger. På PC-siden inneholder Ice Lake de samme DLBoost AVX-512_VNNI-instruksjonene som også er i Cascade Lake.
Movidius: Keem Bay VPU
Som en del av strategien mot kunstig intelligens, som smartkameraer, roboter, droner og VR / AR, kjøpte Intel Movidius i 2016. Movidius kaller sine laveffektbrikker "visjonsbehandlingsenheter" (VPU). De har muligheter for bildesignbehandling (ISP), maskinvareakseleratorer, MIPS-prosessorer og 128-bits programmerbare vektorprosessorer (VLIW) som du kaller SHAVE-kjerner.
Besøk vår guide for de beste prosessorene på markedet
Intel har nå detaljert hva den kaller 'Gen 3' Intel Movidius VPU-kodenavnet Keem Bay. I følge Intel har den en inferensytelse som er mer enn 10 ganger høyere enn Myriad X og bruker samme mengde energi.
Nervana Neural Network Processors (NNP)
Intel har NNP-er for både trening og dypt nevralt nettverk. Intels NNP-I for inferens er basert på to Ice Lake Sunny Cove kjerner og tolv ICE akseleratorkjerner. Intel hevder det vil levere god ytelse per watt og beregne tetthet. I sin M.2-formfaktor er den i stand til 50 TOPS ved 12W, som tilsvarer 4.8TOPS / W, som tidligere kunngjort. Intel avslørte at formfaktoren til PCIe-kortet bruker 75W og produserer opptil 170 TOPS (med INT8-presisjon).
Intel gjentok sin høye nær-lineære skaleringseffektivitet på 95% for 32 kort, sammenlignet med 73% for Nvidia.
Intel har utarbeidet et bredt utvalg av brikker for alle fronter, AI, 5G, nevrale nettverk, autonom kjøring osv., I et marked som i år genererte inntekter anslått til 10 milliarder dollar. Vi vil holde deg informert.
Tomshardware font7nm finfet-produksjonsprosess for tsmc er valgt av blant annet brikkeprodusenter

TSMCs 7nm FinFET-produksjonsprosess har fått bestillinger på produksjon av AI-kapabel SoC fra et stort antall selskaper med base i Kina.
Nye detaljer om blant annet muligheter til samsung exynos 9820

Samsung Exynos 9820 har selskapets fjerde generasjon av tilpassede CPUer, et 2 Gbps LTE-modem og en oppgradert NPU.
Tsmc begynner å sende euv n7 +, blant annet chips blant kundene

TSMC kunngjorde i dag at N7 + -prosessen vil bli markedsført i store mengder, og selskapet har allerede kunder, inkludert AMD.