Nvidia kunngjør tesla p40 og tesla p4 for kunstig intelligens

Innholdsfortegnelse:
- Nvidia Tesla P40 og Tesla P4 tilbyr enorme fremskritt innen kunstig intelligens
- Ny TensorRT- og NVIDIA DeepStream SDK-programvare for maksimal ytelse
Nvidia har kunngjort sine nye Tesla P40- og Tesla P4- grafikkort basert på Pascal- arkitekturen sammen med ny programvare som lover et enormt fremskritt i effektivitet og hastighet innen det krevende feltet kunstig intelligens.
Nvidia Tesla P40 og Tesla P4 tilbyr enorme fremskritt innen kunstig intelligens
Mange moderne kunstig intelligens (AI) tjenester som stemmeassistanse, spamfiltre og innholdsanbefalingstjenester opplever en enorm vekst i kompleksitet, som krever 10 ganger større datakraft enn for bare et år siden. I denne situasjonen er ikke dagens CPUer i stand til å tilby nok strøm, slik at GPU i økende grad tar sentrum.
Vi anbefaler at du leser innstillingene for virtual reality.
De nye Nvidia Tesla P40- og Tesla P4- kortene er spesielt designet for å tilby maksimal ytelse i kunstige intelligensscenarier som tale-, bilde- eller tekstgjenkjenning for å svare så raskt som mulig. Disse nye kortene er basert på Pascal-arkitekturen med 8-bits instruksjoner (INT8) og er i stand til å tilby 45x ytelsen til de kraftigste CPU-ene og 4x ytelsen til forrige generasjons GPU-er. Tesla P4 har et startforbruk på bare 50W for å være 40 ganger mer effektivt i sitt arbeid enn en CPU, en server med bare ett av disse kortene kan erstatte opptil 13 CPU-baserte servere for video-inferensoppgaver, noe som betyr 8 ganger sparing i totale kostnader.
For sin del tilbyr Tesla P40 maksimal ytelse i dype læringsscenarier med sine imponerende 47 tera-operasjoner per sekund (TOPS), en server med åtte av disse kortene kan erstatte opptil 140 CPU-baserte servere, som oversetter sparer over 650 000 dollar i serveranskaffelseskostnader.
Ny TensorRT- og NVIDIA DeepStream SDK-programvare for maksimal ytelse
Ved siden av Tesla Tesla P4 og P40 har sluppet to nye programvare NVIDIA og NVIDIA DeepStream TensorRT SDK å akselerere operasjoner slutning kunstig intelligens.
TensorRT er et bibliotek opprettet for å optimalisere dype læringsmodeller for å kunne gi en umiddelbar respons i de mest komplekse nettverkssituasjonene. Maksimerer effektiviteten og ytelsen til dyp læring med sine 16-biters og 32-biters operasjoner, pluss 8-biters presisjonsoperasjoner.
Vi anbefaler innlegget vårt om de beste grafikkortene for spillere.
På sin side tilbyr NVIDIA DeepStream SDK kraften fra en hel server til samtidig å avkode og analysere opptil 93 strømmer av HD-video i sanntid, et gjennombrudd sammenlignet med de 7 strømmer som en server med to prosessorer kan behandle. Dette representerer et enormt fremskritt innen kunstig intelligens ved å tillate videoforståelsesoperasjoner for autonome kjøresystemer, interaktive roboter, innholdsfiltre og dyp læring, blant andre.
specs | Tesla P4 | Tesla P40 |
Enkeltpresisjon FLOPS * | 5.5 | 12 |
INT8 TOPPER * (Tera-operasjoner per sekund) | 22 | 47 |
CUDA-kjerner | 2560 | 3840 |
minne | 8GB | 24GB |
Minne båndbredde | 192 GB / s | 346GB / s |
makt | 50 watt (eller høyere) | 250 watt |
Kilde: videocardz
Nvidia jetson tx1, nvidia blir med på kunstig intelligens

Nvidia slutter seg til sektoren for kunstig intelligens og presenterer sitt Nvidia Jetson TX1-brett med store muligheter innen robotikk
Tesla jobber med egne chips for kunstig intelligens

Tesla jobber med egne chips for kunstig intelligens. Finn ut mer om selskapets beslutning om å utvikle sin egen AI.
Tesla-motorer og amd går sammen om kunstig intelligens

Tesla Motors har inngått en allianse med AMD for å utvikle en ny tilpasset SoC med fokus på kunstig intelligens.