Nvidia g

Innholdsfortegnelse:
- Alt om Nvidia G-Sync HDR-teknologi
- Vanskene med å implementere G-Sync HDR og dets høye kostnader
- Nvidia G-Sync HDR forbedrer spillopplevelsen
4K-, G-Sync- og HDR-teknologier har revolusjonert måten vi leker med våre PC-er, selv om vi brukere har hatt en torn satt fast i ganske lang tid, siden det ikke var mulig å finne en skjerm som kombinerte alle disse teknologiene i et enkelt produkt. Noe som endelig har endret seg takket være G-Sync HDR og Nvidia-teknologien, dette er den nyeste teknologien for skjermer fra grafikkortgiganten, som setter spillopplevelsen på det nivået vi alltid har drømt om.
Innholdsindeks
Alt om Nvidia G-Sync HDR-teknologi
Fram til ankomsten av G-Sync HDR måtte brukere møte en tøff avgjørelse når de kjøpte en ny skjerm for å spille, siden det ikke var mulig å få tak i en enhet som hadde et høykvalitetspanel med 4K-oppløsning og stor flyt. spill levert av G-Sync. G-Sync HDR ble født for å avslutte dette problemet, fordi vi for første gang kan skaffe oss en skjerm med et 4K-panel av beste kvalitet, støtte for HDR og med G-Sync-teknologi.
Nvidia G-Sync ble født med det formål å løse et av de store problemene med PC-spill, grafikkortens manglende evne til å opprettholde et antall bilder per sekund, noe som faller sammen med oppdateringsfrekvensen på skjermen. Dette problemet fører til at grafikkortet og skjermen ikke er synkronisert, noe som resulterer i bildefeil kjent som Stutter (mikro stutter) og tearing (kutt i bildet).
Vi anbefaler å lese innlegget vårt om Hvordan velge en gamer monitor?
G-Sync er en teknologi som har ansvaret for å justere oppdateringsfrekvensen på skjermen til antall bilder per sekund som grafikkortet sender den, og oppnår dermed perfekt synkronisering. Dette resulterer i en veldig jevn spillopplevelse, uten stamming eller bildekutt. Neste trinn var å legge til HDR for å få den ultimate opplevelsen.
Vanskene med å implementere G-Sync HDR og dets høye kostnader
Det var ikke lett å lage denne G-Sync HDR-teknologien, for for å gjøre det mulig var det nødvendig å ty til Intel og en av FPGA- ene. Spesielt brukes en Intel Altera Arria 10 GX 480, en svært avansert og meget programmerbar prosessor som kan kodes for et bredt spekter av applikasjoner. Denne Intel Altera Arria 10 GX 480 ledsages av 3 GB DDR4 2400MHz minne produsert av Micron, en komponent som for tiden er veldig dyr. Alt dette betyr at implementeringen av G-Sync HDR ikke er billig i det hele tatt, siden det anslås at den tilfører omtrent en ekstra kostnad på $ 500 til den samme skjermen, men uten denne teknologien.
En annen vanskelighet med å implementere G-Sync HDR er relatert til båndbreddebegrensningen i DisplayPort 1.4 og HDMI 2.0b spesifikasjonene. Et 4K 144 Hz-bilde med HDR og G-Sync genererer et volum av informasjon som overskrider kapasiteten til disse standardene, og de er de mest avanserte som eksisterer. For å løse dette var det nødvendig å redusere Chroma-underampling fra 4: 4: 4 til 4: 2: 2. Dette medfører et lite tap av fargeløshet, selv om produsentene forsikrer at det er minimalt og fordelene oppveier langt fra denne lille ulempen. Hvis vi ikke vil lide dette tapet av Chroma-undersampling, må vi nøye oss med en oppdateringsfrekvens på 120 Hz.
Nvidia G-Sync HDR forbedrer spillopplevelsen
Nvidia har jobbet hardt med hovedmonitorprodusentene for å optimalisere denne teknologien maksimalt, med dette vil vi ha garantien for at bildekvaliteten som tilbys oss er størst mulig med dagens teknologi. Dette tapet av Chroma-undersampling vil bli eliminert når vi har de nye HDMI 2.1- og DisplayPort 5-spesifikasjonene tilgjengelige.
Vi anbefaler å lese innlegget vårt om Asus ROG Swift PG27UQ gjennomgang på spansk (full analyse)
En annen stor ulempe er kraften som trengs for å flytte de ledende spillene til 4K og 144 Hz, det er rett og slett ikke noe grafikkort som kan gjøre det. Dette skaper en situasjon der det er nødvendig å ty til SLI-konfigurasjoner, det vil si å sette sammen flere kort på samme PC. SLI-konfigurasjoner er dyre, spesielt hvis vi er avhengige av de kraftigste grafikkortene som Nvidia GeForce GTX 1080 Ti, hvis pris er nesten 800 euro. Det andre problemet med å sette sammen to kort er den store mengden varme som genereres, noe som gjør det nødvendig å ha et stort kjølesystem på PC-en. Vi har allerede en ide om hvor dyrt det vil være å bruke G-Sync HDR.
Den andre store vanskeligheten har vært å implementere HDR på disse monitorene, vanligvis 32 tommer maks. Her snakker vi om en ekte HDR-opplevelse, som krever en lysstyrke på minst 1000 nits, som det har vært nødvendig å installere 384 lyssoner på skjermen, noe som gir en eksepsjonell høy ANSI-kontrast. Å implementere så mange lyssoner på en 32-tommers skjerm er ikke lett når du vil oppnå best mulig resultat.
Her slutter innlegget vårt på G-Sync HDR: Hva det er og hva det er for. Hvis du har spørsmål kan du legge igjen en kommentar nedenfor, eller du trenger å vite mening og opplevelse fra et veldig godt maskinvarefellesskap, kan du registrere deg gratis i vårt spesialiserte maskinvareforum. Vi vil vite din mening!
Nvidia jetson tx1, nvidia blir med på kunstig intelligens

Nvidia slutter seg til sektoren for kunstig intelligens og presenterer sitt Nvidia Jetson TX1-brett med store muligheter innen robotikk
▷ Nvidia gtx vs nvidia quadro vs nvidia rtx

Du vet ikke hvilket grafikkort du skal velge. Med sammenligningen Nvidia GTX vs Nvidia Quadro vs Nvidia RTX ✅ vil du ha detaljer, egenskaper og bruksområder
Nvidia rtx 2060 vs nvidia gtx 1060 vs nvidia gtx 1070 vs gtx 1080

Vi gjorde den første sammenligningen av Nvidia RTX 2060 vs Nvidia GTX 1060 vs Nvidia GTX 1070 vs GTX 1080, ytelse, pris og funksjoner