Android

▷ Intel xeon 【all informasjon】

Innholdsfortegnelse:

Anonim

Blant den enorme katalogen med Intel kan vi finne Intel Xeon-prosessorer, som er de minst kjente av brukerne for ikke å være fokusert på innenlandsk sektor. I denne artikkelen forklarer vi hva disse prosessorene er, og hva er forskjellene med de innenlandske.

Innholdsindeks

Hva er Intel Xeon?

Xeon er et merke x86-mikroprosessorer designet, produsert og markedsført av Intel, rettet mot arbeidsstasjon, server og innebygde systemmarkeder. Intel Xeon-prosessorer ble introdusert i juni 1998. Xeon-prosessorer er basert på den samme arkitekturen som normale stasjonære CPU-er, men har noen avanserte funksjoner som ECC-minnestøtte, større antall kjerner, støtte for store mengder RAM., økt hurtigminne og mer tilbud om pålitelighet, tilgjengelighet og brukervennlighetsfunksjoner i bedriften, som er ansvarlig for å håndtere unntak fra maskinvare gjennom Machine Check-arkitekturen. De er ofte i stand til trygt å fortsette utførelsen der en vanlig prosessor ikke kan på grunn av deres ekstra RAS-egenskaper, avhengig av typen og alvorlighetsgraden av unntaket for maskinverifisering. Noen er også kompatible med multi-socket-systemer med 2, 4 eller 8 stikkontakter ved å bruke Quick Path Interconnect-bussen.

Vi anbefaler å lese innlegget vårt om AMD Ryzen - De beste prosessorene produsert av AMD

Noen mangler som gjør Xeon-prosessorer uegnet for de fleste forbruker-PC-er inkluderer lavere frekvenser for samme pris, siden servere kjører flere oppgaver parallelt enn stasjonære maskiner, kjernetellinger er viktigere enn frekvensene til se, vanligvis fraværet av et integrert GPU-system, og mangel på støtte for overklokking. Til tross for disse ulempene har Xeon-prosessorer alltid vært populære blant stasjonære brukere, hovedsakelig spillere og ekstreme brukere, hovedsakelig på grunn av høyere kjernetellpotensial, og et mer attraktivt pris / ytelsesforhold enn Core i7 når det gjelder av den totale datakraften til alle kjerner. De fleste Intel Xeon-prosessorer mangler en integrert GPU, noe som betyr at systemer som er bygd med disse prosessorene krever enten et diskret grafikkort eller en separat GPU hvis skjermutgang er ønsket.

Intel Xeon er en annen produktlinje enn Intel Xeon Phi, som går under det samme navnet. Den første generasjonen Xeon Phi er en helt annen type enhet som er mer sammenlignbar med et grafikkort, ettersom den er designet for et PCI Express-spor og er ment å brukes som en multi-core koprocessor, for eksempel Nvidia Tesla. I andre generasjon ble Xeon Phi en hovedprosessor mer lik Xeon. Den passer til den samme kontakten som en Xeon-prosessor og er kompatibel med x86; sammenlignet med Xeon, understreker imidlertid Xeon Phis designpunkt flere kjerner med høyere minnebåndbredde.

Hva er Intel Xeon skalerbar?

Store endringer pågår i selskapets datasenter. Mange organisasjoner gjennomgår en omfattende transformasjon basert på online data og tjenester, og utnytter disse dataene til kraftige kunstige intelligens- og analyseprogrammer som kan gjøre om til ideer som endrer virksomheten, og deretter implementerer verktøy og tjenester som får disse ideene til å fungere.. Dette krever en ny type server- og nettverksinfrastruktur, optimalisert for kunstig intelligens, analyse, massive datasett med mer, drevet av en revolusjonerende ny CPU. Det er der Intels Xeon Scalable- linje kommer inn.

Intel Xeon Scalable representerer muligens den største trinnendringen på tjue år med Xeon CPU. Det er ikke bare en raskere Xeon eller Xeon med flere kjerner, men en familie av prosessorer designet rundt en synergi mellom databehandlings-, nettverks- og lagringsfunksjoner, og gir nye funksjoner og ytelsesforbedringer til alle tre.

Mens Xeon Scalable tilbyr en 1, 6x gjennomsnittlig ytelsesøkning i forhold til tidligere generasjon Xeon-CPUer, går fordelene utover standardene for å dekke reelle optimaliseringer for analyse, sikkerhet, AI og bildebehandling. Det er mer krefter for å kjøre høykvalitetskomplekser. Når det gjelder datasenteret, er det en seier på alle måter.

Kanskje den største og mest åpenbare endringen er erstatningen av den gamle ringbaserte Xeon-arkitekturen, der alle prosessorkjernene ble koblet sammen via en enkelt ring, med en ny netting eller netting-arkitektur. Dette justerer kjernene pluss tilknyttet hurtigbuffer, RAM og I / O, i rader og kolonner som kobles sammen i hvert veikryss, slik at data kan bevege seg mer effektivt fra en kjerne til en annen.

Hvis du forestiller deg det i form av et vegtransportsystem, var den gamle Xeon-arkitekturen som en høyhastighetssirkulær, der data som beveger seg fra en kjerne til en annen skulle bevege seg rundt ringen. Den nye nettarkitekturen er mer som et motorveisnett, bare en som lar trafikken flyte med maksimal punkt-til-punkt-hastighet uten overbelastning. Dette optimaliserer ytelsen på multetrådede oppgaver der forskjellige kjerner kan dele data og minne, samtidig som energieffektiviteten økes. I den mest grunnleggende forstand er det et arkitekturformål som er opprettet for å flytte store datamengder rundt en prosessor som kan ha opptil 28 kjerner. Videre er det en struktur som utvides mer effektivt, enten vi snakker om flere prosessorer eller nye prosessorer med enda flere kjerner senere.

Hvis nettarkitekturen handler om å flytte data mer effektivt, prøver de nye AVX-512 instruksjonene å optimalisere måten de behandles på. Med utgangspunkt i arbeidet Intel startet med sine første SIMD-utvidelser i 1996, tillater AVX-512 at enda flere dataelementer kan behandles samtidig enn med neste generasjon AVX2, og dobler bredden på hver post og legger til to til for å forbedre ytelsen. AVX-512 tillater dobbelt så mange flytende punktoperasjoner per sekund per klokkesyklus, og kan behandle dobbelt så mange dataelementer som AVX2 kunne ha i samme klokkesyklus.

Bedre ennå, disse nye instruksjonene er spesielt designet for å akselerere ytelsen i komplekse, datakrevende arbeidsmengder som vitenskapelig simulering, økonomisk analyse, dyp læring, bilde-, lyd- og videobehandling og kryptografi.. Dette hjelper en Xeon skalerbar prosessor med å håndtere HPC-oppgaver mer enn 1, 6 ganger raskere enn forrige generasjonsekvivalent, eller akselerere kunstig intelligens og dyp læringsoperasjoner med 2, 2 ganger.

AVX-512 hjelper deg også med lagring, påskynde viktige funksjoner som deduplisering, kryptering, komprimering og dekompresjon, slik at du kan utnytte ressursene dine mer effektivt og styrke sikkerheten til lokale og private skytjenester.

Slik sett fungerer AVX-512 hånd i hånd med Intel QuickAssist (Intel QAT) -teknologi. QAT muliggjør maskinvareakselerasjon for datakryptering, autentisering og komprimering og dekompresjon, noe som øker ytelsen og effektiviteten til prosesser som stiller høye krav til dagens nettverksinfrastruktur, og som bare øker når du implementerer flere tjenester og digitale verktøy.

Brukt i forbindelse med Software Defined Infrastructure (SDI), kan QAT hjelpe deg med å gjenopprette tapte CPU-sykluser brukt på sikkerhets-, komprimerings- og dekompresjonsoppgaver, slik at de er tilgjengelige for beregningsintensive oppgaver som gir virkelig verdi til selskap. Fordi en QAT-aktivert CPU kan håndtere høyhastighets komprimering og dekompresjon, nesten gratis, kan applikasjoner jobbe med komprimert data. Dette har ikke bare et mindre lagringsfotavtrykk, men krever mindre tid å overføre fra en applikasjon eller et system til et annet.

Intel Xeon skalerbare prosessorer integreres med Intels chipsett i C620-serien for å lage en plattform for balansert ytelse over hele systemet. Intel Ethernet-tilkobling med iWARP RDMA er innebygd, og tilbyr 4x10GbE-kommunikasjon med lav latens. Plattformen tilbyr 48 linjer PCIe 3.0-tilkobling per CPU, med 6 kanaler med DDR4 RAM per CPU med støttekapasiteter på opptil 768 GB ved 1, 5 TB per CPU og hastigheter på opptil 2666MHz.

Lagring får den samme sjenerøse behandlingen. Det er plass til opptil 14 SATA3-stasjoner og 10 USB3.1-porter, for ikke å nevne CPUs innebygde virtuelle NMMe RAID-kontroll. Støtte for neste generasjons Intel Optane- teknologi øker lagringsytelsen ytterligere, med dramatiske positive effekter på databasen og analytiske arbeidsmengder i minnet. Og med Intel Xeon Scalable, kommer Intels Omni-Path-stoffstøtte innebygd uten behov for et diskret grensesnittkort. Som et resultat er Xeon skalerbare prosessorer klare for applikasjoner med høy båndbredde og lav latens i HPC-klynger.

Med Xeon Scalable har Intel levert en serie prosessorer som tilfredsstiller behovene til neste generasjons datasentre, men hva betyr all denne teknologien i praksis? For det første servere som kan håndtere større analytisk arbeidsmengde i høyere hastigheter, og få raskere innsikt fra større datasett. Intel Xeon Scalable har også lagrings- og beregningskapasitet for avanserte applikasjoner for dyp læring og maskinlæring, slik at systemer kan trene på timer, ikke dager, eller "utlede" betydningen av nye data med større hastighet og nøyaktighet ved behandle bilder, tale eller tekst.

Potensialet for database-og analytiske applikasjoner i hukommelsen, for eksempel SAP HANA, er enormt, med ytelser opptil 1, 59 ganger høyere når du kjører arbeidsmengder i neste generasjon Xeon. Når bedriften din er avhengig av å samle informasjon fra enorme datasett med sanntidskilder, kan det være nok til å gi deg et konkurransefortrinn.

Xeon Scalable har ytelse og minne og systembåndbredde for å være vert for større og mer komplekse HPC-applikasjoner, og finner løsninger for mer komplekse forretnings-, vitenskapelige og tekniske problemer. Det kan tilby raskere og høyere kvalitet videokoding mens du streamer video til flere kunder.

En økning i virtualiseringskapasitet kan tillate organisasjoner å kjøre fire ganger flere virtuelle maskiner på en Xeon Scalable-server enn på et neste generasjonssystem. Med nesten null overhead for komprimering, dekompresjon og kryptering av data i ro, kan bedrifter bruke lagringene sine mer effektivt, samtidig som de styrker sikkerheten på samme tid. Dette handler ikke bare om benchmarks, det handler om teknologi som forvandler måten datasenteret fungerer, og på den måten også virksomheten din.

Hva er ECC-minne?

ECC er en metode for å oppdage og deretter rette opp enbits minnefeil. En enkeltbits minnefeil er en datafeil i produksjonen eller produksjonen av serveren, og tilstedeværelsen av feil kan ha stor innvirkning på serverens ytelse. Det er to typer enkeltbits minnefeil: harde feil og myke feil. Fysiske feil er forårsaket av fysiske faktorer, for eksempel overdreven temperaturvariasjon, stressstress eller fysisk stress som oppstår på minnebits.

Myke feil oppstår når data skrives eller leses annerledes enn opprinnelig ment, for eksempel variasjoner i hovedkortets spenning, kosmiske stråler eller radioaktivt forfall som kan føre til at biter i minnet kommer tilbake volatile. Fordi bitene beholder sin programmerte verdi i form av en elektrisk ladning, kan denne type forstyrrelser endre belastningen på minnebiten og forårsake en feil. På servere er det flere steder hvor det kan oppstå feil: i lagringsenheten, i CPU-kjernen, gjennom en nettverkstilkobling, og i forskjellige typer minne.

For arbeidsstasjoner og servere der feil, datakorrupsjon og / eller systemfeil må unngås for enhver pris, for eksempel i finanssektoren, er ECC-minne ofte det valgte minnet. Slik fungerer ECC-minnet. Ved databehandling blir data mottatt og overført gjennom biter, den minste dataenheten i en datamaskin, som uttrykkes i binær kode ved bruk av en eller null.

Når bitene er gruppert sammen, oppretter de binær kode, eller "ord", som er dataenheter som blir dirigert og beveger seg mellom minne og CPU. For eksempel er en 8-biters binær kode 10110001. Med ECC-minne er det en ekstra ECC-bit, som er kjent som en paritetsbit. Denne ekstra paritetsbiten får den binære koden til å lese 101100010, der den siste null er paritetsbiten og brukes til å identifisere minnefeil. Hvis summen av alle 1'ene i en kodelinje er et jevnt tall (ikke inkludert paritetsbiten), kalles koden linjen jevn paritet. Feilfri kode har alltid jevn paritet. Paritet har imidlertid to begrensninger: Den er bare i stand til å oppdage rare antall feil (1, 3, 5, etc.) og lar jevn antall feil passere (2, 4, 6, etc.). Paritet kan heller ikke rette feil, det kan bare oppdage dem. Det er her ECC-minne kommer inn.

ECC-minne bruker paritetsbiter for å lagre kryptert kode når du skriver data til minne, og ECC-kode lagres samtidig. Når dataene leses, sammenlignes den lagrede ECC-koden med ECC-koden som ble generert da dataene ble lest. Hvis koden som ble lest ikke samsvarer med den lagrede koden, blir den dekryptert av paritetsbitsene for å bestemme hvilken bit som var feil, så blir denne biten rettet umiddelbart. Når data blir behandlet, skanner ECC-minnet kontinuerlig kode med en spesiell algoritme for å oppdage og korrigere enbits minnefeil.

I oppdragskritiske næringer som finanssektoren, kan ECC-minne utgjøre en stor forskjell. Se for deg at du redigerer informasjonen på en konfidensiell kundekonto og deretter utveksler denne informasjonen med andre finansinstitusjoner. Når du sender dataene, la oss si at et binært siffer er vendt av en slags elektrisk forstyrrelse. ECC-serverminne hjelper til med å bevare integriteten til dine data, forhindrer datakorrupsjon og forhindrer systemkrasj og feil.

Vi anbefaler å lese:

Dette avslutter artikkelen vår om Intel Xeon og alt du trenger å vite om disse nye prosessorene, husk å dele den på sosiale medier slik at den kan hjelpe flere brukere som trenger det.

Android

Redaktørens valg

Back to top button