Grafikkort - alt du trenger å vite

Innholdsfortegnelse:
- Grafikkortet og spilltiden
- Hvorfor skille GPU og CPU
- Hva gjør CPU-en
- Og hva gjør GPU
- Hva CPU og GPU gjør sammen
- Hva er en APU?
- Litt historie
- Hopp til kort med rik grafikk
- PCI-sporet ankommer og med det revolusjonen
- PCI Express-bussen og gjeldende grafikkort
- Deler og maskinvare til grafikkort
- Hvor kraftig er et grafikkort
- Test benchmarks for grafikkort
- Størrelse betyr noe ... og kjøleribben også
- Personlige kort
- Hvordan er GPU eller grafikkort på en bærbar PC
- Hvilken CPU monterer jeg i henhold til grafikkortet mitt
- Billig multimedia og kontorutstyr
- Generelt utstyr og lite spill
- Datamaskin med grafikkort for mellom- og høysegment
- Entusiastisk spill- og designteam
- Konklusjon om grafikkortet og våre anbefalte modeller
I en epoke med spilldatamaskiner har grafikkortet fått like mye eller nesten mer betydning enn CPU-en. Faktisk unngår mange brukere å kjøpe kraftige CPU-er for å investere penger i denne viktige komponenten som er ansvarlig for å behandle alt som har med teksturer og grafikk å gjøre. Men hvor mye vet du om denne maskinvaren? Vel, her forklarer vi alt, eller noe mindre alt vi anser som viktigste.
Innholdsindeks
Grafikkortet og spilltiden
Uten tvil er det mest brukte uttrykket å referere til GPU-er for et grafikkort, selv om det ikke er nøyaktig det samme, og vi vil forklare det. En GPU- eller grafikkbehandlingsenhet er i utgangspunktet en prosessor bygd for å håndtere grafikk. Begrepet høres tydeligvis veldig ut som CPU, så det er viktig å skille mellom de to elementene.
Når vi snakker om et grafikkort, snakker vi virkelig om den fysiske komponenten. Dette er bygget fra en PCB uavhengig av hovedkortet og utstyrt med en kontakt, normalt PCI-Express, som den vil være koblet til hovedkortet med. På denne PCB-en har vi GPU-en installert, og også grafikkminnet eller VRAM sammen med komponenter som VRM, tilkoblingsporter og kjøleribben med viftene.
Spilling ville ikke eksistert hvis det ikke var for grafikkort, spesielt hvis vi snakker om datamaskiner eller PC-er. I begynnelsen vil alle vite at datamaskiner ikke hadde et grafisk grensesnitt, vi hadde bare en svart skjerm med ledetekst for å legge inn kommandoer. Disse grunnleggende funksjonene er langt fra nå i spilltiden, der vi har utstyr med et perfekt grafisk grensesnitt og i enorme oppløsninger som lar oss håndtere miljøer og karakterer nesten som om det var det virkelige livet.
Hvorfor skille GPU og CPU
For å snakke om proprietære grafikkort, må vi først vite hva de bringer oss og hvorfor de er så viktige i dag. I dag kunne vi ikke tenke oss en spilldatamaskin uten en fysisk separat CPU og GPU.
Hva gjør CPU-en
Her har vi det ganske enkelt, fordi vi alle kan få et inntrykk av hva mikroprosessoren gjør på en datamaskin. Det er den sentrale behandlingsenheten, gjennom hvilken alle instruksjonene som genereres av programmene og en stor del av dem som blir sendt av periferiutstyret og brukeren selv, går gjennom. Programmene er dannet av en rekke instruksjoner som vil bli utført for å generere et svar basert på en inngangsstimulering, det kan være et enkelt klikk, en kommando eller selve operativsystemet.
Nå kommer en detalj som vi må huske når vi ser hva GPU er. CPU består av kjerner, og vi kan si en stor størrelse. Hver av dem er i stand til å utføre en instruksjon etter den andre, jo flere kjerner, siden flere instruksjoner kan utføres på samme tid. Det er mange typer programmer på en PC, og mange typer instruksjoner som er veldig komplekse og delt inn i flere trinn. Men sannheten er at et program ikke genererer et stort antall av disse instruksjonene parallelt. Hvordan sikrer vi at CPUen "forstår" noe program vi installerer? Det vi trenger er få kjerner, veldig komplekse, og som er veldig raske for å utføre instruksjonene raskt, så vi vil merke at programmet er flytende og svarer til det vi ber om det.
Disse grunnleggende instruksjonene er redusert til matematiske operasjoner med heltall, logiske operasjoner og også noen flytende punktoperasjoner. De siste er de mest kompliserte siden de er veldig store reelle tall som må representeres i mer kompakte elementer ved bruk av vitenskapelig notasjon. Støtte CPU er RAM, rask lagring som sparer løpende programmer og instruksjonene deres for å sende dem over en 64-biters buss til CPU.
Og hva gjør GPU
Nettopp GPU er nært knyttet til disse flytende punktoperasjonene som vi har snakket om tidligere. Faktisk bruker en grafikkprosessor praktisk talt all sin tid på å utføre denne typen operasjoner, siden de har mye å gjøre med grafiske instruksjoner. Av denne grunn kalles det ofte en matematisk koprocessor, faktisk er det en i CPU, men mye enklere enn GPU.
Hva er et spill laget av? Vel, i utgangspunktet pikselbevegelsen takket være en grafikkmotor. Det er ikke noe mer enn et program fokusert på å etterligne et digitalt miljø eller en verden der vi beveger oss som om det var vårt eget. I disse programmene har de fleste instruksjonene å gjøre med piksler og deres bevegelse til å danne strukturer. Disse strukturene har igjen farge, 3D-volum og fysiske egenskaper ved lysrefleksjon. Alt dette er i utgangspunktet flytende punktoperasjoner med matriser og geometrier som må gjøres samtidig.
Derfor har en GPU ikke 4 eller 6 kjerner, men tusenvis av dem, for å utføre alle disse spesifikke operasjonene parallelt om og om igjen. Visst, disse kjernene er ikke så "smarte" som CPU-kjernene, men de kan utføre mye mer operasjoner av denne typen på en gang. GPU har også sitt eget minne, GRAM, som er mye raskere enn vanlig RAM. Den har en mye større buss, mellom 128 og 256 biter for å sende mye mer instruksjoner til GPU.
I videoen som vi forlater deg knyttet, emulerer mytejegerne driften av en CPU og en GPU og når det gjelder antall kjerner når det gjelder å male et bilde.
youtu.be/-P28LKWTzrI
Hva CPU og GPU gjør sammen
På dette tidspunktet har du kanskje allerede trodd at CPU-spill også påvirker den endelige ytelsen til spillet og dets FPS. Det er klart, og det er mange instruksjoner som er CPU-ansvaret.
CPU-en er ansvarlig for å sende data i form av vertices til GPU, slik at den "forstår" hvilke fysiske transformasjoner (bevegelser) den må gjøre til strukturene. Dette kalles Vertex Shader eller bevegelsesfysikk. Etter dette innhenter GPU informasjon om hvilke av disse toppunktene som vil være synlige, noe som gjør den såkalte pikselklippingen ved rasterisering. Når vi allerede kjenner formen og dens bevegelse, og det er på tide å bruke strukturene, i Full HD, UHD eller en hvilken som helst oppløsning, og de tilhørende effektene, vil det være Pixel Shader- prosessen .
Av samme grunn, jo mer kraft CPU har, jo mer toppunktinstruksjoner kan den sende til GPU, og jo bedre vil den låse den. Så den viktigste forskjellen mellom disse to elementene ligger i spesialiseringsnivået og graden av parallellitet i behandlingen for GPU.
Hva er en APU?
Vi har allerede sett hva en GPU er og dens funksjon på en PC, og forholdet til prosessoren. Men det er ikke det eneste eksisterende elementet som er i stand til å håndtere 3D-grafikk, og det er derfor vi har APU eller Accelerated Processor Unit.
Dette begrepet ble oppfunnet av AMD for å navngi prosessorer med en GPU integrert i samme pakke. Faktisk betyr dette at i selve prosessoren har vi en brikke eller bedre sagt, et brikkesett som består av flere kjerner som er i stand til å jobbe med 3D-grafikk på samme måte som et grafikkort gjør. Faktisk har mange av dagens prosessorer denne typen prosessorer, kalt IGP (Integrated Graphics Processor) i seg selv.
Men selvfølgelig, i forkant kan vi ikke sammenligne ytelsen til et grafikkort med tusenvis av interne kjerner med en IGP integrert i selve CPU-en. Så prosesseringskapasiteten er fortsatt mye lavere, når det gjelder brutto kraft. Til dette legger vi til det faktum at du ikke har et dedikert minne så raskt som GDDR på grafikkortene, og det er nok med en del av RAM-minnet til grafisk styring.
Vi kaller uavhengige grafikkort dedikerte grafikkort, mens vi kaller IGP interne grafikkort. Intel Core ix-prosessorene har nesten alle en integrert GPU kalt Intel HD / UHD Graphics, bortsett fra modellene med "F" på slutten. AMD gjør det samme med noen av sine CPU-er, nærmere bestemt Ryzen of G-serien og Athlon, med grafikk kalt Radeon RX Vega 11 og Radeon Vega 8.
Litt historie
Langt er de gamle tekstbaserte datamaskinene som vi har nå, men hvis noe har vært til stede i alle aldre, er ønsket om å skape stadig mer detaljerte virtuelle verdener for å fordype oss inne.
I det første generelle forbrukerutstyret med Intel 4004, 8008 og firmaprosessorer hadde vi allerede grafikkort, eller noe lignende. Disse var bare begrenset til å tolke koden og vise den på en skjerm i form av ren tekst på rundt 40 eller 80 kolonner, og selvfølgelig i svart / hvitt. Det første grafikkortet ble faktisk kalt MDA (Monocrome Data Adapter). Den hadde sin egen RAM på ikke mindre enn 4 KB, for å gi perfekt grafikk i form av ren tekst på 80 × 25 kolonner.
Etter dette kom CGA (Color Graphics Adapter) grafikkort, i 1981 begynte IBM å markedsføre det første farg grafikkortet. Den var i stand til å gjengi 4 farger samtidig fra en intern 16 palett i en oppløsning på 320 × 200. I tekstmodus var det i stand til å heve oppløsningen til 80 × 25 kolonner eller det som er lik 640 × 200.
Vi fortsetter fremover, med HGC eller Hercules grafikkort, løfter navnet! Et monokrom kort som hevet oppløsningen til 720 × 348 og var i stand til å jobbe sammen med en CGA for å ha opptil to forskjellige videoutganger.
Hopp til kort med rik grafikk
Eller rettere EGA, Enharced Graphics Adapter som ble opprettet i 1984. Dette var det første grafikkortet i seg selv, som var i stand til å jobbe med 16 farger og oppløsninger opp til 720 × 540 for ATI Technologies- modeller, høres det kjent ut, ikke sant?
I 1987 produseres en ny oppløsning, og ISA- videokontakten blir forlatt for å ta i bruk VGA (Video Graphics Array) -porten, også kalt Sub15-D, en analog seriell port som har vært brukt til nylig for CRT-er og til og med paneler. TFT. De nye grafikkortene hevet fargepaletten til 256, og VRAM-minnet til 256 KB. På dette tidspunktet begynte dataspill å utvikle seg med mye mer kompleksitet.
Det var i 1989 da grafikkort sluttet å bruke fargepaletter og begynte å bruke fargedybde. Med VESA-standarden som forbindelse til hovedkortet, ble bussen utvidet til 32 biter, slik at de allerede var i stand til å jobbe med flere millioner farger og oppløsninger opp til 1024x768p takket være skjermene med SuperVGA-porten. Kort så ikoniske som ATI Match 32 eller Match 64 med 64-bits grensesnitt var blant tidenes beste.
PCI-sporet ankommer og med det revolusjonen
VESA-standarden var en hel buss, så i 1993 utviklet den seg til PCI-standarden, den vi har i dag med sine forskjellige generasjoner. Denne tillot oss mindre kort, og mange produsenter ble med på festen som Creative, Matrox, 3dfx med Voodoo og Voodoo 2, og en Nvidia med sine første RIVA TNT og TNT2 modeller utgitt i 1998. På den tiden dukket de første spesifikke bibliotekene for 3D-akselerasjon opp, som DirectX av Microsoft og OpenGL av Silicon Graphics.
Snart ble PCI-bussen for liten, med kort som var i stand til å adressere 16 biter og 3D-grafikk med en oppløsning på 800x600p, så AGP (Advanced Graphics Port) -bussen ble opprettet. Denne bussen hadde et 32-bits PCI-lignende grensesnitt, men økte sin buss med 8 ekstra kanaler for å kommunisere med RAM raskere. Bussen arbeidet med 66 MHz og 256 Mbps båndbredde, med opptil 8 versjoner (AGP x8) som nådde opp til 2, 1 GB / s, og som i 2004 ville bli erstattet av PCIe-bussen.
Her har vi allerede veldig godt etablert de to flotte 3D-grafikkortselskapene som Nvidia og ATI. Et av de første kortene som markerte den nye epoken, var Nvidia GeForce 256, og implementerte T&L-teknologi (belysnings- og geometriberegninger). Deretter rangering over rivalene for å være den første 3D polygon grafikk akselerator og Direct3D kompatibel. Kort tid etter skulle ATI gi ut sin første Radeon, og dermed forme navnene på begge produsentene for sine grafikkort for spill som varer fram til i dag, selv etter kjøpet av ATI av AMD.
PCI Express-bussen og gjeldende grafikkort
Og til slutt kommer vi til den nåværende epoken med grafikkort, da VGA-grensesnittet i 2004 ikke fungerte lenger og ble erstattet av PCI-Express. Denne nye bussen tillot overføringer på opptil 4 GB / s både opp og ned samtidig (250 MB x16 baner). Opprinnelig ville den være koblet til nordbroen på hovedkortet, og ville bruke en del av RAM for video, med navnet TurboCaché eller HyperMemory. Men senere med innbyggingen av nordbroen i selve CPUen, ville disse 16 PCIe-banene gå i direkte kommunikasjon med CPU.
Tiden for ATI Radeon HD og Nvidia GeForce begynte og ble de ledende eksponentene for spillgrafikkort for datamaskiner på markedet. Nvidia skulle snart ta ledelsen med en GeForce 6800 som støttet DirectX 9.0c kontra en ATI Radeon X850 Pro som lå litt bak. Etter dette fortsatte begge merkene å utvikle den enhetlige Shader-arkitekturen med sine Radeon HD 2000 og GeForce 8- serien. Faktisk var den kraftige Nvidia GeForce 8800 GTX et av de kraftigste kortene i sin generasjon, og til og med de som kom etter den, som Nvidias definitive sprang til overherredømme. I 2006 var det da AMD kjøpte ATI og kortene deres ble omdøpt til AMD Radeon.
Endelig står vi på kort som er kompatible med DirectX 12, Open GL 4.5 / 4.6- biblioteker, den første er Nvidia GTX 680 og AMD Radeon HD 7000. Påfølgende generasjoner har kommet fra de to produsentene, for Nvidia har vi Maxwell (GeForce 900), Pascal (GeForce 10) og Turing (Geforce 20) arkitekturer, mens AMD har Polaris (Radeon RX), GCN (Radeon Vega) og nå RDNA (Radeon RX 5000).
Deler og maskinvare til grafikkort
Vi kommer til å se hoveddelene på et grafikkort for å identifisere hvilke elementer og teknologier vi må vite når vi kjøper et. Selvfølgelig utvikler teknologien mye, slik at vi gradvis vil oppdatere det vi ser her.
Brikkesett eller GPU
Vi vet allerede ganske godt hva funksjonen til grafikkprosessoren til et kort er, men det vil være viktig å vite hva vi har inne. Det er kjernen i det, og inne finner vi et enormt antall kjerner som er ansvarlige for å utføre forskjellige funksjoner, spesielt i arkitekturen som Nvidia bruker. Inni finner vi de respektive kjernene og hurtigminnet som er tilknyttet brikken, som normalt har L1 og L2.
Inne i en Nvidia GPU finner vi CUDA- eller CUDA-kjernene, som så å si er ansvarlige for å utføre de generelle flytepunktberegningene. Disse kjernene i AMD-kort kalles Stream Processors. Samme antall på kort fra forskjellige produsenter betyr ikke den samme kapasiteten, siden disse vil avhenge av arkitekturen.
I tillegg har Nvidia også Tensor-kjerner og RT-kjerner. Disse kjernene er beregnet på prosessoren med mer komplekse instruksjoner om sanntids strålesporing, en av de viktigste egenskapene til produsentens nye generasjonskort.
GRAM-minne
GRAM-minnet har praktisk talt samme funksjon som RAM-minnet til datamaskinen vår, og lagrer teksturer og elementer som skal behandles i GPU. I tillegg finner vi veldig store kapasiteter, med mer enn 6 GB for tiden i nesten alle high-end grafikkort.
Det er et minne av DDR-type, akkurat som RAM, så den effektive frekvensen vil alltid være det dobbelte av klokkefrekvensen, noe du må huske på når det gjelder overklokking og spesifikasjonsdata. For øyeblikket bruker de fleste kort GDDR6-teknologi, hvis de hører DDR6, mens de i DDR4 er i vanlig RAM. Disse minnene er mye raskere enn DDR4, og når frekvenser på opptil 14 000 MHz (14 Gbps) effektivt med en klokke på 7000 MHz. I tillegg er bussbredden mye større, og noen ganger når de 384 biter på Nvidia topp rekkevidde.
Men det er fremdeles et andre minne som AMD har brukt til sin Radeon VII, for HBM2. Dette minnet har ikke hastigheter så høyt som GDDR6, men tilbyr oss i stedet en brutal bussbredde på opptil 2048 biter.
VRM og TDP
VRM er det ansvarlige elementet for å levere strøm til alle komponentene på grafikkortet, spesielt GPU og GRAM-minnet. Det består av de samme elementene som VRM på et hovedkort, med sine MOSFETS fungerer som likestrøm med likestrøm, DC- choker og kondensatorer. Tilsvarende er disse fasene delt inn i V_core og V-SoC, for GPU og minne.
På TDP-siden betyr det også nøyaktig det samme som på en CPU. Det handler ikke om strømmen som blir brukt av prosessoren, men kraften i form av varme som den genererer fungerende maksimal belastning.
For å få strøm på kortet trenger vi en strømkontakt. For øyeblikket brukes 6 + 2-pinners konfigurasjoner for kortene, siden selve PCIe-sporet bare er i stand til å levere maksimalt 75W, mens en GPU kan konsumere mer enn 200W.
Tilkoblingsgrensesnitt
Tilkoblingsgrensesnittet er måten å koble grafikkortet til hovedkortet. For øyeblikket fungerer absolutt alle dedikerte grafikkort via PCI-Express 3.0-bussen bortsett fra de nye AMD Radeon XR 5000-kortene, som er oppgradert til PCIe 4.0 Bus.
For praktiske formål vil vi ikke merke noen forskjell, siden datamengden som nå blir utvekslet på denne 16-linjebussen er mye mindre enn kapasiteten. Av nysgjerrighet er PCIe 3.0 x16 i stand til å bære 15, 8 GB / s opp og ned samtidig, mens PCIe 4.0 x16 dobler kapasiteten til 31, 5 GB / s. Snart vil alle GPU-er være PCIe 4.0, dette er åpenbart. Vi trenger ikke å bekymre deg for å ha et PCIe 4.0-kort og et 3.0-kort, siden standarden alltid tilbyr bakoverkompatibilitet.
Video-porter
Sist, men ikke minst, har vi videokontaktene, de som vi trenger for å koble skjermen eller skjermene våre og få tak i bildet. I det nåværende markedet har vi fire typer videotilkobling:
- HDMI: High-Definition Multimedia Interface er en kommunikasjonsstandard for ukomprimerte bilde- og lydmultimediaenheter. HDMI-versjonen vil påvirke bildekapasiteten som vi kan få fra grafikkortet. Den siste versjonen er HDMI 2.1, som tilbyr en maksimal oppløsning på 10K, og spiller 4K ved 120Hz og 8K på 60Hz. Mens versjon 2.0 tilbyr 4K @ 60Hz i 8 biter. DisplayPort: Det er også et serielt grensesnitt med ukomprimert lyd og bilde. Som tidligere vil versjonen av denne porten være veldig viktig, og vi trenger at den skal være minst 1, 4, siden denne versjonen har støtte for å spille innhold i 8K ved 60 Hz og i 4K ved 120 Hz med ikke mindre enn 30 biter. og i HDR. Uten tvil det beste i dag. USB-C: USB Type-C når flere og flere enheter på grunn av sin høye hastighet og integrering med grensesnitt som DisplayPort og Thunderbolt 3 ved 40 Gbps. Denne USB-en har DisplayPort alternativ modus, som er DisplayPort 1.3, med støtte for å vise bilder i 4K-oppløsning på 60 Hz. Tilsvarende er Thunderbolt 3 i stand til å spille innhold i UHD under de samme forhold. DVI: det er en usannsynlig kontakt å finne den i gjeldende skjermer, som er utviklingen av VGA til et digitalt HD-signal. Hvis vi kan unngå det, bedre enn bedre, er den mest utbredte DVI-DL.
Hvor kraftig er et grafikkort
For å referere til kraften til et grafikkort, er det nødvendig å kjenne til noen konsepter som vanligvis vises i spesifikasjonene og benchmarks. Dette vil være den beste måten å vite grundig grafikkortet vi ønsker å kjøpe, og også vite hvordan du kan sammenligne det med konkurransen.
FPS-rate
FPS er Framerate eller Frames per Second. Den måler hvor ofte skjermen viser bildene til en video, et spill eller hva som er representert på den. FPS har mye å gjøre med hvordan vi oppfatter bevegelse i et bilde. Jo mer FPS, jo mer flytende følelse av et bilde vil gi oss. Med en hastighet på 60 FPS eller høyere vil det menneskelige øyet under normale forhold sette pris på et fullstendig flytende bilde, noe som ville simulere virkeligheten.
Men selvfølgelig avhenger ikke alt av grafikkortet, siden oppdateringsfrekvensen på skjermen vil markere FPS-en som vi vil se. FPS er det samme som Hz, og hvis en skjerm er 50 Hz, vil spillet bli sett på maksimalt 60 FPS, selv om GPU er i stand til å spille det på 100 eller 200 FPS. For å vite hva som vil være den maksimale FPS-frekvensen som GPU vil kunne representere, må vi deaktivere vertikal synkronisering i spillalternativene.
Arkitektur av GPUen din
Før vi har sett at GPU-er har en viss antall fysiske kjerner, noe som kan føre til at vi tenker at jo mer, jo bedre ytelse vil det gi oss. Men dette er ikke akkurat slik, siden ytelsen vil variere med samme hastighet og de samme kjernene, som med CPU-arkitekturen. Vi kaller dette IPC eller instruksjoner per syklus.
Arkitekturen til grafikkort har utviklet seg over tid og har ganske enkelt spektakulære forestillinger. De er i stand til å støtte 4K-oppløsninger over 60Hz eller til og med 8K-oppløsninger. Men viktigst av alt er det den store evnen til å animere og gjengi teksturer med lys i sanntid, akkurat som våre øyne gjør i det virkelige liv.
For tiden har vi Nvidia med sin Turing-arkitektur, og bruker 12nm FinFET-transistorer for å bygge brikkesettene til den nye RTX. Denne arkitekturen har to differensielle elementer som til nå ikke fantes i forbrukerutstyr, Ray Tracing- evnen i sanntid og DLSS (Deep Learning Super Sampling). Den første funksjonen prøver å simulere hva som skjer i den virkelige verden, og beregner hvordan lys påvirker virtuelle objekter i sanntid. Det andre, det er en serie kunstige intelligensalgoritmer som kortet gjengir teksturer med en lavere oppløsning for å optimalisere ytelsen til spillet, det er som en slags antialiasing. Det ideelle er å kombinere DLSS og Ray Tracing.
På AMD-siden har den også gitt ut arkitektur, selv om det er sant at det sameksisterer med de umiddelbart tidligere for å ha et bredt spekter av kort som, selv om det er sant, ikke er på nivå med toppområdet til Nvidia. Med RDNA har AMD økt IPC-en for GPU-ene med 25% sammenlignet med CNG-arkitekturen, og dermed oppnådd 50% mer hastighet for hver watt som forbrukes.
Klokkefrekvens og turbomodus
Sammen med arkitekturen er to parametere veldig viktige for å se ytelsen til en GPU, som er de for dens basisklokkefrekvens og økningen i fabrikkturbo- eller overklokkemodus. Som med CPU-er, er GPU-er også i stand til å variere grafikkbehandlingsfrekvensen deres etter behov.
Hvis du ser, er frekvensene til grafikkort mye lavere enn prosessorene, og er rundt 1600-2000 MHz. Dette er fordi det større antall kjerner tilfører behovet for en høyere frekvens for å kontrollere TDP på kortet.
På dette tidspunktet vil det være viktig å vite at vi i markedet har referansemodeller og personlige kort. De første er modellene utgitt av produsentene selv, Nvidia og AMD. For det andre tar produsentene i utgangspunktet GPU-er og minner for å sette sammen sine egne med komponenter med høyere ytelse og kjøling. Saken er at klokkefrekvensen også endrer seg, og disse modellene har en tendens til å være raskere enn referansetypene.
TFLOPS
Sammen med klokkefrekvensen har vi FLOPS (flytende punktoperasjoner per sekund). Denne verdien måler de flytende punktoperasjonene som en prosessor er i stand til å utføre i løpet av ett sekund. Det er et tall som måler bruttokraften til GPU, og også til CPU-ene. For øyeblikket kan vi ikke bare snakke om FLOSP, fra TeraFLOPS eller TFLOPS.
Vi skal ikke være forvirret til å tro at flere TFLOPS vil bety at grafikkortet vårt er bedre. Dette er normalt tilfelle, fordi du burde være i stand til å bevege teksturer mer fritt. Men andre elementer som minnemengde, hastighet og GPU-arkitektur og cache vil utgjøre forskjellen.
TMU-er og ROP-er
Dette er termer som vil vises på alle grafikkort, og de gir oss en god ide om arbeidshastigheten til det samme.
TMU står for Texture Mapping Unit. Dette elementet er ansvarlig for dimensjonering, rotering og forvrengning av et bitmap-bilde for å plassere det i en 3D-modell som vil tjene som en tekstur. Med andre ord, det bruker et fargekart på et 3D-objekt som a priori vil være tomt. Jo mer TMU, jo høyere tekstureringsytelse, desto raskere vil pikslene fylles, og jo mer FPS får vi. Nåværende TMU-er inkluderer Texture Direction Units (TA) og Texture Filter Units (TF).
Nå henvender vi oss til å se ROP-ene eller rasterenhetene. Disse enhetene behandler tekstinformasjonen fra VRAM-minnet og utfører matrise- og vektoroperasjoner for å gi en endelig verdi til pikselen, som vil være dens dybde. Dette kalles rasterisering, og i utgangspunktet kontrollere antialiasing eller sammenslåing av de forskjellige pikselverdiene som ligger i minnet. DLSS er nettopp en utvikling av denne prosessen å generere
Mengde minne, båndbredde og bussbredde
Vi vet at det er flere typer teknologier for VRAM-minne, hvorav den mest brukte GDDR5 og GDDR6, med en hastighet på opptil 14 Gbps for sistnevnte. Som med RAM, jo mer minne er det mer pixel, tekst og tekstdata vi kan lagre. Dette har stor innflytelse på oppløsningen vi spiller, detaljnivået i verden og seeavstanden. For øyeblikket trenger et grafikkort minst 4 GB VRAM for å kunne jobbe med den nye generasjonsspillene på Full HD og høyere oppløsninger.
Minnebussbredden representerer antall biter som kan overføres i et ord eller instruksjon. Disse er mye lengre enn de som brukes av CPU-er, med lengder mellom 192 og 384 biter, la oss huske parallellen i prosessering.
Minne båndbredde er mengden informasjon som kan overføres per tidsenhet og måles i GB / s. Jo større bussbredde og desto større hukommelsesfrekvens, desto mer båndbredde vil vi ha, fordi jo større mengde informasjon som kan reise gjennom den. Det er akkurat som Internett.
API-kompatibilitet
Et API er i utgangspunktet et sett med biblioteker som brukes til å utvikle og jobbe med forskjellige applikasjoner. Det betyr applikasjonsprogrammering, og er virkemidlet som forskjellige applikasjoner kommuniserer med hverandre.
Hvis vi flytter til multimedia-verdenen, har vi også API-er som tillater drift og oppretting av spill og video. Den mest kjente av alle vil være DirectX, som er i sin 12. versjon siden 2014, og i de siste oppdateringene har den implementert Ray Tracing, programmerbare MSAA og virtual reality-evner. Open source-versjonen er OpenGL, som er versjon 4.5 og brukes også av mange spill. Endelig har vi Vulkan, en API som er spesielt utviklet for AMD (kildekoden var fra AMD og den ble overført til Khronos).
Overklokkingsevne
Før snakket vi om turbofrekvensen til GPU-ene, men det er også mulig å øke den over grensene ved å overklokke den. Denne praksisen prøver i utgangspunktet å finne mer FPS i spill, mer flyt for å forbedre responsen vår.
Overklokkekapasiteten til CPUene er rundt 100 eller 150 MHz, selv om noen er i stand til å støtte noe mer eller noe mindre, avhengig av deres arkitektur og maksimale frekvens.
Men det er også mulig å overlåse GDDR-minnene og også mye. Et gjennomsnittlig GDDR6-minne som arbeider på 7000 MHz, støtter opplastinger på opptil 900 og 1000 MHz, og oppnår dermed opptil 16 Gbps effektive. Det er faktisk elementet som øker FPS-hastigheten for spillet mest, med økninger på til og med 15 FPS.
Noen av de beste overklokkingsprogrammene er Evga Precision X1, MSI AfterBurner og AMD WattMan for Radeons. Selv om mange produsenter har sine egne, som AORUS, Fargerike, Asus, etc.
Test benchmarks for grafikkort
Benchmarks er stress- og ytelsestester som visse maskinvaretilskudd på vår PC gjennomgår for å evaluere og sammenligne ytelsen deres mot andre produkter på markedet. Selvfølgelig er det benchmarks for å evaluere ytelsen til grafikkort, og til og med grafikk-CPU-settet.
Disse testene viser nesten alltid en dimensjonsløs poengsum, det vil si at den bare kan kjøpes med de som er generert av det programmet. På motsatt side er FPS og for eksempel TFLOPS. De mest brukte programmene for benchmark for grafikkort er 3DMark, som har et stort antall forskjellige tester, PassMark, VRMark eller GeekBench. De har alle en egen statistikktabell for å kjøpe vår GPU med konkurransen.
Størrelse betyr noe… og kjøleribben også
Selvfølgelig betyr det noen venner, så før vi kjøper et grafikkort, er det minste vi kan gjøre å gå til spesifikasjonene og se hva det måler. Så la oss gå til chassiset vårt og måle hvilken plass vi har tilgjengelig for det.
Dedikerte grafikkort har veldig kraftige GPU-er med TDP på over 100W i dem alle. Dette betyr at de kommer til å bli ganske varme, faktisk enda varmere enn prosessorer. Av denne grunn har alle store varmeledd som opptar nesten hele elektronikk-kretskortet.
I markedet kan vi i utgangspunktet finne to typer heatsinks.
- Blåser: Denne typen kjøleribbe er for eksempel den som har referansemodellene AMD Radeon RX 5700 og 5700 XT eller den forrige Nvidia GTX 1000. En enkelt vifte suger vertikal luft og får den til å strømme gjennom den finnede kjøleribben. Disse heatsinks er veldig dårlige, fordi det tar lite luft og hastigheten på passering gjennom kjøleribben er lav. Aksial flyt: de er vifter i livet, som ligger loddrett i kjølebenken og skyver luft mot finnene som senere vil komme ut fra sidene. Den brukes i alle tilpassede modeller for å være den som gir best ytelse. Til og med flytende avkjøling: noen av toppmodellene har kjølevann som integrerer et flytende kjølesystem, for eksempel Asus Matrix RTX 2080 Ti.
Personlige kort
Vi kaller grafikkmodellene satt sammen av generiske maskinvareprodusenter som Asus, MSI, Gigabyte, etc. Disse kjøper direkte grafikkbrikkene og minnene fra hovedprodusenten, AMD eller Nvidia, og monterer dem deretter på en PCB laget av dem sammen med en kjølevæske også opprettet av dem.
Det gode med dette kortet er at de kommer overklokkede på fabrikken, med en høyere frekvens enn referansemodellene, slik at de vil yte litt mer. Kyleren er også bedre og VRM, og til og med mange har RGB. Den dårlige tingen er at de vanligvis er dyrere. Et annet positivt aspekt er at de tilbyr mange typer størrelser, for ATX, Micro ATX eller til og med ITX-chassis, med veldig små og kompakte kort.
Hvordan er GPU eller grafikkort på en bærbar PC
Sikkert på dette tidspunktet lurer vi på om en bærbar PC også kan ha et dedikert grafikkort, og sannheten er at den gjør det. I profesjonell gjennomgang analyserer vi faktisk et stort antall bærbare datamaskiner med en dedikert GPU.
I dette tilfellet vil det ikke bli installert på et utvidelseskort, men brikkesettet blir direkte loddet på den viktigste PCB-en på den bærbare datamaskinen og veldig nær CPU-en. Disse designene kalles vanligvis Max-Q fordi de ikke har en finnet kjølevare og har en bestemt region i grunnplaten for seg.
På dette området er den ubestridte kongen Nvidia, med sin RTX og GTX Max-Q. De er sjetonger som er optimalisert for bærbare datamaskiner, og som bruker 1/3 sammenlignet med stasjonære modeller, og bare ofrer 30% av ytelsen. Dette oppnås ved å redusere klokkefrekvensen, noen ganger ved å fjerne noen kjerner og bremse ned GRAM.
Hvilken CPU monterer jeg i henhold til grafikkortet mitt
For å spille, samt å gjøre alle slags oppgaver på datamaskinen vår, må vi alltid finne en balanse i komponentene våre for å unngå flaskehalser. Ved å redusere dette til spillverdenen og grafikkortene våre, må vi oppnå en balanse mellom GPU og CPU, slik at ingen av dem kommer til kort og de andre misbruker for mye. Pengene våre står på spill, og vi kan ikke kjøpe en RTX 2080 og installere dem med en Core i3-9300F.
Den sentrale prosessoren har en viktig rolle i arbeidet med grafikk slik vi allerede har sett i tidligere seksjoner. Så vi må sørge for at den har nok hastighet, kjerner og prosesseringstråder til å jobbe med fysikken og bevegelsen til spillet eller videoen og sende dem til grafikkortet så raskt som mulig.
I alle fall vil vi alltid ha muligheten til å endre grafikkinnstillingene for spillet for å redusere effekten av en CPU som er for treg for kravene. Når det gjelder GPU er det enkelt å kompensere for sin manglende ytelse, bare ved å senke oppløsningen vil vi oppnå gode resultater. Med CPU er det annerledes, siden selv om det er færre piksler, vil fysikken og bevegelsen forbli nesten den samme, og å senke kvaliteten på disse alternativene kan ha stor innflytelse på riktig spillopplevelse. Her er noen alternativer som påvirker CPU og andre på GPU:
De påvirker GPU | De påvirker CPU |
Generelt gjengivelsesalternativer | Generelt de fysiske alternativene |
antialiasing | Karakterbevegelse |
Ray Tracing | Elementer som vises på skjermen |
Tekstur | partikler |
flislegging | |
etterbehandling | |
oppløsning | |
Miljø okklusjon |
Når vi ser dette, kan vi lage en mer eller mindre generell balanse som klassifiserer utstyret i henhold til formålet de er bygget for. Dette vil gjøre det lettere å oppnå mer eller mindre balanserte spesifikasjoner.
Billig multimedia og kontorutstyr
Vi starter med det mest grunnleggende, eller i det minste det vi anser som mer grunnleggende bortsett fra mini-PC-er med Celeron. Angivelig, hvis vi var ute etter noe billig, ville det beste være å gå til AMDs Athlon-prosessorer eller Intels Pentium Gold. I begge tilfeller har vi integrert grafikk på godt nivå, som Radeon Vega i første omgang, eller UHD Graphics for Intel, som støtter høye oppløsninger og en anstendig ytelse i krevende oppgaver.
På dette feltet er det helt meningsløst å kjøpe et dedikert grafikkort. De er CPU-er med to kjerner som ikke kommer til å gi nok til å amortisere kostnadene for et kort. Dessuten vil den integrerte grafikken gi oss en ytelse som ligner på hva en dedikert GPU på 80-100 euro vil tilby.
Generelt utstyr og lite spill
Vi kan betrakte et generelt utstyr som et utstyr som vil reagere godt under mange forskjellige omstendigheter. For eksempel å surfe, jobbe på kontoret, gjøre små ting i design og til og med redigere videoer på amatørnivå og spille av og til i Full HD (vi kan ikke komme hit og be om mye mer).
På dette området vil 4-kjerne- og høyfrekvente Intel Core i3 skille seg ut, og spesielt AMD Ryzen 3 3200G og 5 3400G med integrert Radeon RX Vega 11-grafikk og en veldig justert pris. Disse Ryzen er i stand til å bevege et siste generasjons spill med verdighet i lav kvalitet og Full HD. Hvis vi vil ha noe litt bedre, la oss gå videre til neste.
Datamaskin med grafikkort for mellom- og høysegment
Men selvfølgelig, hvis vi ønsker mer, må vi gi ofre, og det er dette det er hvis vi ønsker å få en optimal spillopplevelse i Full HD eller 2K i høy kvalitet. I dette tilfellet er de kommenterte prosessorene fremdeles et flott alternativ for å være 6-kjerne, men vi kan gå opp til Ryzen 5 3600 og 3600X og Intel Core i5-9600K. Med disse vil det være verdt det å oppgradere til Nvidias RTX 2060/2070 Super og AMDs RX 5700/5700 XT.
Entusiastisk spill- og designteam
Her vil det være mange gjengivelsesoppgaver og spill som kjører med filtrene maksimalt, så vi trenger en CPU på minst 8 kjerner og et kraftig grafikkort. AMD Ryzen 2700X eller 3700X vil være et flott alternativ, eller Intel Core i7 8700K eller 9700F. Sammen med dem fortjener vi en Nvidia RTX 2070 Super eller en AMD Radeon RX 5700 XT.
Og hvis vi vil være misunnelsen fra vennene våre, la oss ta en RTX 2080 Super, la oss vente litt på Radeon 5800, og la oss få en AMD Ryzen 3900X eller en Intel Core i9-9900K. Threadrippers er ikke et mulig alternativ for øyeblikket, selv om Intel X og XE på LGA 2066-plattformen er og deres høye kostnader.
Konklusjon om grafikkortet og våre anbefalte modeller
Så langt kommer dette innlegget hvor vi forklarer tilstrekkelig detaljer om gjeldende status på grafikkort, samt litt av historien fra begynnelsen av dem. Det er et av de mest populære produktene i databehandlingsverdenen, siden en spill-PC sikkert vil utføre mye mer enn en konsoll.
Ekte spillere bruker datamaskiner for å spille, spesielt innen e-sport eller konkurrerende spill over hele verden. I dem, prøv alltid å oppnå maksimal mulig ytelse, øke FPS, redusere responstider og bruke komponenter designet for spill. Men ingenting ville være mulig uten grafikkort.
- Hvilket grafikkort kjøper jeg? De beste på markedet Beste grafikkort på markedet
Ting du trenger å vite om windows 10

Windows 10 har overrasket brukere med nyheter som ankomsten av den virtuelle assistenten til Cortana og en erstatning for Internet Explorer.
9 essensielle ting de trenger å vite om vr

Fra Profesionalreview kommer vi til å gi deg noen tips du trenger å vite før du går inn i VR-verdenen.
6 ting du trenger å vite om microsoft vr-briller

I denne artikkelen diskuterer vi de seks viktigste detaljene du må vite om Microsofts nye VR-virkelighetsbrille.