maskinvare

Qnap introduserer Mustang Range Calculator Accelerator Cards

Innholdsfortegnelse:

Anonim

QNAP avduket i dag to beregningsakseleratorkort designet for dyp læring inferens av AI. I denne nye serien er Mustang-V100 (basert på VPU) og Mustang-F100 (basert på FPGA). Brukere kan installere disse PCIe-baserte akseleratorkortene på en Intelo-basert server / PC på en merket NAS.

QNAP introduserer Mustang Range Calculator Accelerator Cards

Disse Mustang-V100- og Mustang-F100-akseleratorkortene er optimalisert for OpenVINO-arkitekturen og kan utvide arbeidsmengden til Intel-maskinvare med maksimal ytelse. De kan også brukes med OpenVINO Workflow Consolidation Tool.

Nye akseleratorkort

Både Mustang-V100 og Mustang-F100 tilbyr billige akselerasjonsløsninger for AI-inferens. De jobber også med OpenVINO verktøysett for å optimalisere arbeidsmengder for inferens for bildeklassifisering og datamaskinvisjon. OpenVINO verktøysett hjelper til med å fremskynde utviklingen av høyytelsesdatasyn og dyp læring i visjonsapplikasjoner. Inkluderer modelloptimerer og inferensmotor.

Ettersom QNAP NAS utvikler seg for å støtte et bredere utvalg av applikasjoner, er kombinasjonen av stor lagring og PCIe-utvidbarhet fordelaktig for bruk i AI. OpenVINO Workflow Consolidation Tool (OWCT) er utviklet. Bruker Intels OpenVINO felles verktøysteknologi. Når den brukes med OWCT, tilbyr den Intel-baserte NAS en ideell inferensserverløsning for å hjelpe organisasjoner i rask opprettelse av inferenssystemer. AI-utviklere kan distribuere formede modeller på en NAS for slutning og installere enten Mustang-V100-kortet eller Mustang-F100-kortet.

QNAP NAS støtter nå Mustang-V100 og Mustang-F100-kort med den nyeste versjonen av operativsystemet QTS 4.4.0. For å se NAS-modellene som støtter QTS 4.4.0, kan du gå til www.qnap.com. For å laste ned og installere OWCT-applikasjonen for QNAP NAS, må du gå inn i App Center.

maskinvare

Redaktørens valg

Back to top button