Nvidia 【all informasjonen】

Innholdsfortegnelse:
- Nvidia historie
- Nvidia GeForce og Nvidia Pascal, dominerende spill
- Kunstig intelligens og Volta-arkitektur
- Nvidias fremtid går gjennom Turing og Ampere
- NVIDIA G-Sync, avslutter problemer med synkronisering av bilder
Nvidia Corporation, mer kjent som Nvidia, er et amerikansk teknologiselskap som er integrert i Delaware og basert i Santa Clara, California. Nvidia designer grafiske prosesseringsenheter for videospill og profesjonelle markeder, samt et chip-enhet (SoC) -system for bilindustrien og mobilt databehandlingsmarked. Kjerneproduktet, GeForce, er i direkte konkurranse med AMDs Radeon-produkter.
Vi anbefaler å lese våre beste PC-maskinvare- og komponentguider:
I tillegg til å produsere GPU-er, gir Nvidia parallelle prosesseringsmuligheter over hele verden til forskere og forskere, noe som gjør dem i stand til å kjøre applikasjoner med høy ytelse på en effektiv måte. Nylig har den flyttet inn i det mobile databehandlingsmarkedet, der det produserer Tegra mobile prosessorer for videospillkonsoller, nettbrett og autonome navigasjons- og kjøretøyunderholdningssystemer. Dette har ført til at Nvidia har blitt et selskap med fokus på fire markeder siden 2014 : spill, profesjonell visualisering, datasentre, og kunstig intelligens og biler.
Innholdsindeks
Nvidia historie
Nvidia ble grunnlagt i 1993 av Jen-Hsun Huang, Chris Malachowsky og Curtis Priem. Selskapets tre medstiftere antok at den riktige retningen for databehandling ville gå gjennom grafikk-akselerert prosessering, og trodde at denne datamodellen kunne løse problemer som generell databehandling ikke kunne løse. De bemerket også at videospill er noen av de mest beregningsmessige utfordringene, og at de har utrolig høye salgsvolumer.
Fra et lite videospillfirma til en kunstig intelligensgigant
Selskapet ble født med en startkapital på $ 40.000, hadde opprinnelig ikke noe navn, og medstifterne navngav alle NV-filene sine, som i "neste utgivelse." Behovet for å innlemme selskapet fikk co-grunnleggerne til å gjennomgå alle ordene med de to bokstavene, noe som førte dem til "invidia", det latinske ordet som betyr "misunnelse".
Lanseringen av RIVA TNT i 1998 befester Nvidias omdømme for å utvikle grafiske adaptere. På slutten av 1999 ga Nvidia ut GeForce 256 (NV10), som særlig innførte transformasjon og belysning på forbrukernivå (T&L) i 3D-maskinvare. Den opererte ved 120 MHz og hadde fire linjer med piksler, og implementerte avansert videoakselerasjon, bevegelseskompensasjon og maskinvarebildeblanding. GeForce overgikk eksisterende produkter med stor margin.
På grunn av suksessen med produktene vant Nvidia kontrakten om å utvikle grafikkmaskinvaren for Microsofts Xbox-spillkonsoll, og tjente Nvidia med 200 millioner dollar i forskudd. Imidlertid tok prosjektet mange av sine beste ingeniører fra andre prosjekter. På kort sikt gjorde ikke dette noe, og GeForce2 GTS ble sendt sommeren 2000. I desember 2000 nådde Nvidia en avtale om å anskaffe intellektuelle eiendeler til den eneste rivaliserende 3dfx, en pioner innen 3D grafikk-teknologi for forbrukeren. som ledet feltet fra midten av 1990-tallet til 2000. Anskaffelsesprosessen ble avsluttet i april 2002.
I juli 2002 kjøpte Nvidia Exluna for et ikke avslørt beløp. Exluna var ansvarlig for å lage forskjellige verktøy for gjengivelse av programvare. Senere, i august 2003, kjøpte Nvidia MediaQ for omtrent 70 millioner dollar. Og den kjøpte også iReady, en leverandør av høyytelses TCP / IP og iSCSI offload-løsninger 22. april 2004.
Så stor var Nvidias suksess i videospillmarkedet, at det i desember 2004 ble kunngjort at det ville hjelpe Sony med utformingen av PlayStation 3s RSX-grafikkprosessor, den nye generasjon videospillkonsollen fra det japanske firmaet som det hadde den vanskelige oppgaven å gjenta suksessen til forgjengeren, den mest solgte i historien.
I desember 2006 mottok Nvidia sitater fra det amerikanske justisdepartementet. Med hensyn til mulige antitrustbrudd i grafikkortbransjen. På den tiden hadde AMD blitt den store rivalen, etter kjøpet av ATI av sistnevnte. Siden den gang har AMD og Nvidia vært de eneste produsentene av grafikkort for videospill, og ikke glemt Intels integrerte brikker.
Forbes kåret Nvidia til Årets beste selskap for 2007, og siterer prestasjonene de har gjort de siste fem årene. 5. januar 2007 kunngjorde Nvidia at den hadde fullført anskaffelsen av PortalPlayer, Inc, og i februar 2008 kjøpte Nvidia Ageia, utvikler av PhysX-fysikkmotoren og behandlingsenheten for fysikk som kjører denne motoren. Nvidia kunngjorde at de planla å integrere PhysX-teknologi i sine fremtidige GeForce GPU-produkter.
Nvidia møtte store vanskeligheter i juli 2008, da den fikk en nedgang i omsetningen på omtrent $ 200 millioner dollar etter at det ble rapportert at visse mobile brikkesett og mobile GPUer produsert av selskapet hadde unormale feilprosenter på grunn av produksjonsfeil. I september 2008 ble Nvidia gjenstand for et søksmål om klassesøksmål av de berørte, med påstand om at de mangelfulle GPU-ene hadde blitt innlemmet i visse modeller av bærbare PC-er produsert av Apple, Dell og HP. Såpeoperaen ble avsluttet i september 2010, da Nvidia inngikk en avtale om at eiere av de berørte bærbare datamaskinene skulle få refundert kostnadene for reparasjoner eller, i noen tilfeller, produktutskifting.
I november 2011 ga Nvidia ut ARG Tegra 3-brikkesystemet for mobile enheter etter først å presentere det på Mobile World Congress. Nvidia hevdet at brikken inneholdt den første firekjerners mobile CPU. I januar 2013 introduserte Nvidia Tegra 4, samt Nvidia Shield, en Android-basert bærbar spillkonsoll drevet av den nye prosessoren.
6. mai 2016 introduserte Nvidia GeForce GTX 1080 og 1070 grafikkort, det første basert på den nye Pascal-mikroarkitekturen. Nvidia hevdet at begge modellene overgikk sin Maxwell-baserte Titan X-modell. Disse kortene har henholdsvis GDDR5X og GDDR5 minne, og bruker en 16nm produksjonsprosess. Pascal-arkitekturen støtter også en ny maskinvarefunksjon kjent som simultan multippel projeksjon (SMP), som er designet for å forbedre kvaliteten på gjengivelse av flere skjermer og virtual reality. Pascal har muliggjort produksjon av bærbare datamaskiner som oppfyller Nvidias Max-Q designstandard.
I mai 2017 kunngjorde Nvidia et samarbeid med Toyota Motor Corp hvor sistnevnte vil bruke Nvidias Drive X-serie kunstig intelligensplattform for sine autonome kjøretøy. I juli 2017 kunngjorde Nvidia og den kinesiske søkegiganten Baidu, Inc. et kraftig AI-partnerskap som inkluderer cloud computing, autonom kjøring, forbrukerenheter og Baidus AI-rammeverk, PaddlePaddle.
Nvidia GeForce og Nvidia Pascal, dominerende spill
GeForce er merkenavnet for grafikkort basert på grafikkbehandlingsenheter (GPUer) opprettet av Nvidia fra 1999. Til dags dato har GeForce-serien kjent seksten generasjoner siden oppstarten. Versjonene som er fokusert på profesjonelle brukere av disse kortene, kommer under navnet Quadro, og inneholder noen forskjellige funksjoner på førernivå. GeForces direkte konkurranse er AMD med sine Radeon-kort.
Pascal er kodenavnet for den nyeste GPU-mikroarkitekturen utviklet av Nvidia som har kommet inn i videospillmarkedet, som en etterfølger av den forrige Maxwell-arkitekturen. Pascal-arkitekturen ble først introdusert i april 2016 med lanseringen av Tesla P100 for servere 5. april 2016. For tiden brukes Pascal først og fremst i GeForce 10-serien, hvor GeForce GTX 1080 og GTX er De første 1070 videospillkortene ble utgitt med denne arkitekturen, henholdsvis 17. mai 2016 og 10. juni 2016. Pascal er produsert ved hjelp av TSMCs 16nm FinFET-prosess, slik at den kan tilby langt overlegen energieffektivitet og ytelse sammenlignet med Maxwell, som ble produsert på 28nm FinFET.
Pascal-arkitekturen er organisert internt i det som kalles streaming multiprocessor ( SM), funksjonelle enheter som består av 64 CUDA-kjerner, som igjen er delt inn i to behandlingsblokker med 32 CUDA-kjerner hver av dem og ledsaget av en instruksjonsbuffer, en varpplanlegger, 2 teksturmappningsenheter og 2 utsendelsesenheter. Disse SM-stasjonene tilsvarer AMDs CUer.
Nvidias Pascal-arkitektur er designet for å være den mest effektive og avanserte i spillverdenen. Nvidias ingeniørteam har lagt ned mye arbeid i å lage en GPU-arkitektur som er i stand til veldig høye klokkehastigheter, og samtidig opprettholde tett strømforbruk. For å oppnå dette er det valgt en veldig nøye og optimalisert design i alle sine kretsløp, noe som resulterer i at Pascal kan nå en frekvens 40% høyere enn Maxwell, et tall som er mye høyere enn prosessen ville ha tillatt ved 16 nm uten alle optimaliseringene på designnivå.
Minne er et sentralt element i ytelsen til et grafikkort, GDDR5-teknologien ble annonsert i 2009, så det har allerede blitt foreldet for dagens kraftigste grafikkort. Derfor støtter Pascal GDDR5X-minne, som var den raskeste og mest avanserte minnegrensesnittstandarden i historien på tidspunktet for lanseringen av disse grafikkortene, og nådde overføringshastigheter på opptil 10 Gbps eller nesten 100 pikosekunder mellom bitene. av data. GDDR5X-minne lar også grafikkortet forbruke mindre strøm sammenlignet med GDDR5, ettersom driftsspenningen er 1, 35V, sammenlignet med 1, 5V eller enda mer som de raskere GDDR5-brikkene trenger. Denne reduksjonen i spenning blir 43% høyere driftsfrekvens med samme strømforbruk.
En annen viktig Pascal-innovasjon kommer fra minnekomprimeringsteknikker uten tap av ytelse, noe som reduserer etterspørselen etter båndbredde hos GPU. Pascal inkluderer den fjerde generasjonen av delta fargekomprimeringsteknologi. Med delta-fargekomprimering analyserer GPU scener for å beregne piksler hvis informasjon kan komprimeres uten å ofre scenens kvalitet. Mens Maxwell-arkitekturen ikke klarte å komprimere data relatert til enkelte elementer, for eksempel vegetasjon og deler av bilen i Project Cars-spillet, er Pascal i stand til å komprimere det meste av informasjonen om disse elementene, og dermed være mye mer effektiv enn Maxwell. Som en konsekvens er Pascal i stand til å redusere antallet byte som må utvinnes fra minnet betydelig. Denne reduksjonen i byte oversettes til ytterligere 20% av effektiv båndbredde, noe som resulterer i en økning på 1, 7 ganger båndbredden ved bruk av GDDR5X-minne sammenlignet med GDDR5 og Maxwell-arkitektur.
Pascal tilbyr også viktige forbedringer i forhold til asynkron databehandling, noe veldig viktig siden for øyeblikket arbeidsmengdene er veldig kompliserte. Takket være disse forbedringene er Pascal- arkitekturen mer effektiv når det gjelder å fordele belastningen mellom alle de forskjellige SM-enhetene, noe som betyr at det knapt er noen ubrukte CUDA-kjerner. Dette gjør at optimaliseringen av GPU kan bli mye større, og utnytte alle ressursene den har bedre.
Tabellen nedenfor oppsummerer de viktigste funksjonene i alle Pascal-baserte GeForce-kort.
NVIDIA GEFORCE PASCAL GRAFICS Cards |
||||||
CUDA kjerner | Frekvenser (MHz) | minne | Minne-grensesnitt | Minne båndbredde (GB / s) | TDP (W) | |
NVIDIA GeForce GT1030 | 384 | 1468 | 2 GB GDDR5 | 64 bit | 48 | 30 |
NVIDIA GeForce GTX1050 | 640 | 1455 | 2 GB GDDR5 | 128 bit | 112 | 75 |
NVIDIA GeForce GTX1050Ti | 768 | 1392 | 4 GB GDDR5 | 128 bit | 112 | 75 |
NVIDIA GeForce GTX1060 3 GB | 1152 | 1506/1708 | 3 GB GDDR5 | 192 bit | 192 | 120 |
NVIDIA GeForce GTX1060 6GB | 1280 | 1506/1708 | 6 GB GDDR5 | 192 bit | 192 | 120 |
NVIDIA GeForce GTX1070 | 1920 | 1506/1683 | 8 GB GDDR5 | 256 bit | 256 | 150 |
NVIDIA GeForce GTX1070Ti | 2432 | 1607/1683 | 8 GB GDDR5 | 256 bit | 256 | 180 |
NVIDIA GeForce GTX1080 | 2560 | 1607/1733 | 8 GB GDDR5X | 256 bit | 320 | 180 |
NVIDIA GeForce GTX1080 Ti | 3584 | 1480/1582 | 11 GB GDDR5X | 352 bit | 484 | 250 |
NVIDIA GeForce GTX Titan Xp | 3840 | 1582 | 12 GB GDDR5X | 384 bit | 547 | 250 |
Kunstig intelligens og Volta-arkitektur
Nvidias GPUer er mye brukt innen felt læring, kunstig intelligens og akselerert analyse av store datamengder. Selskapet utviklet dyp læring basert på GPU-teknologi for å bruke kunstig intelligens for å takle problemer som kreftdeteksjon, værvarsling og autonome kjøretøy, som den berømte Tesla.
Nvidias mål er å hjelpe nettverk å lære å "tenke ". Nvidias GPUer fungerer usedvanlig bra for oppgaver med dyp læring fordi de er designet for parallell databehandling, og de fungerer godt for å håndtere vektor- og matriseoperasjonene som råder i dyp læring. Selskapets GPUer brukes av forskere, laboratorier, teknologiselskaper og forretningsforetak. I 2009 deltok Nvidia i det som ble kalt big bang for dyp læring, da dyp læring nevrale nettverk ble kombinert med selskapets grafiske prosesseringsenheter. Samme år brukte Google Brain Nvidias GPUer for å lage dype nevrale nettverk som var i stand til maskinlæring, der Andrew Ng bestemte at de kunne øke hastigheten på dype læringssystemer med 100 ganger.
I april 2016 introduserte Nvidia den 8-GPU klyngebaserte DGX-1 superdatamaskinen for å forbedre brukernes mulighet til å bruke dyp læring ved å kombinere GPUer med spesielt designet programvare. Nvidia utviklet også de GPU-baserte Nvidia Tesla K80 og P100 virtuelle maskinene, tilgjengelige gjennom Google Cloud, som Google installerte i november 2016. Microsoft la til servere basert på Nvidias GPU-teknologi i en forhåndsvisning av N-serien, basert på Tesla K80-kortet. Nvidia inngikk også samarbeid med IBM for å lage et programvaresett som øker AI-mulighetene til GPU-ene. I 2017 ble Nvidias GPUer også brakt online på RIKEN Center for Advanced Intelligence Project for Fujitsu.
I mai 2018 innså forskere ved Nvidi a kunstig intelligens avdeling muligheten for at en robot kunne lære å gjøre en jobb ved ganske enkelt å observere personen som gjør den samme jobben. For å oppnå dette har de laget et system som etter en kort gjennomgang og test nå kan brukes til å kontrollere neste generasjons universelle roboter.
Volta er kodenavnet for den mest avanserte GPU-mikroarkitekturen utviklet av Nvidia, det er Pascal's etterfølgerarkitektur og ble kunngjort som en del av en fremtidig veikartambisjon i mars 2013. Arkitekturen er oppkalt etter Alessandro Volta, fysiker, kjemiker og oppfinner av det elektriske batteriet. Volta- arkitekturen har ikke nådd spillsektoren, selv om den har gjort det med grafikkortet Nvidia Titan V, fokusert på forbrukersektoren og som også kan brukes i spillutstyr.
Denne Nvidia Titan V er et GV100-kjernebasert grafikkort og tre HBM2-minnebunker, alt i en pakke. Kortet har totalt 12 GB HBM2-minne som fungerer gjennom et 3072-biters minne-grensesnitt. GPU-en inneholder over 21 millioner transistorer, 5.120 CUDA-kjerner og 640 Tensor-kjerner for å levere 110 TeraFLOPS-ytelser i dyp læring. Driftsfrekvensene er på 1200 MHz base og 1455 MHz i turbomodus, mens minnet fungerer på 850 MHz, og tilbyr en båndbredde på 652, 8 GB / s. Det har nylig blitt annonsert en CEO Edition-versjon som øker minnet opp til 32 GB.
Det første grafikkortet som ble produsert av Nvidia med Volta-arkitekturen, var Tesla V100, som er en del av Nvidia DGX-1-systemet. Tesla V100 benytter seg av GV100-kjernen som ble utgitt 21. juni 2017. Volta GV100 GPU er bygget i en 12nm FinFET- produksjonsprosess , med 32 GB HBM2-minne som kan levere opptil 900 GB / s båndbredde.
Volta bringer også til live den nyeste Nvidia Tegra SoC, kalt Xavier, som ble kunngjort 28. september 2016. Xavier Inneholder 7 milliarder transistorer og 8 tilpassede ARMv8 kjerner, sammen med en Volta GPU med 512 CUDA kjerner og en TPU av open source (Tensor Processing Unit) kalt DLA (Deep Learning Accelerator). Xavier kan kode og avkode video i 8K Ultra HD-oppløsning (7680 × 4320 piksler) i sanntid, alt med en TDP på 20-30 watt og en formstørrelse estimert til rundt 300 mm2 takket være den 12 produksjonsprosessen. nm FinFET.
Volta- arkitekturen er preget av å være den første som inkluderer Tensor Core, kjerner som er spesielt designet for å tilby mye overlegen ytelse i dype læringsoppgaver sammenlignet med vanlige CUDA-kjerner. En Tensor Core er en enhet som multipliserer to FP16 4 × 4-matriser og deretter legger til en tredje FP16- eller FP32-matrise til resultatet ved å bruke sammenslåtte addisjons- og multiplikasjonsoperasjoner, og oppnå et FP32-resultat som eventuelt kan nedgraderes til et FP16-resultat. Tensorkjerner er ment å akselerere trening i nevrale nettverk.
Volta skiller seg også ut for å inkludere det avanserte proprietære NVLink-grensesnittet, som er en trådbasert kommunikasjonsprotokoll for kortdistansert halvlederkommunikasjon utviklet av Nvidia, som kan brukes til overføring av data og kontroll i prosessorsystemer basert på CPU og GPU og de som kun er basert på GPU. NVLink spesifiserer en punkt-til-punkt-forbindelse med datahastigheter på 20 og 25 Gb / s per datafelt og per adresse i den første og andre versjonen. Totale datahastigheter i virkelige systemer er 160 og 300 GB / s for den totale summen av inngangs- og utgangsdatastrømmene. NVLink-produkter introdusert til dags dato fokuserer på applikasjonsområdet med høy ytelse. NVLINK ble først kunngjort i mars 2014 og bruker en proprietær høyhastighets signalforbindelse utviklet og utviklet av Nvidia.
Følgende tabell oppsummerer de viktigste funksjonene ved Volta-baserte kort:
NVIDIA VOLTA GRAFIKKORT |
||||||||
CUDA kjerner | Kjernetensor | Frekvenser (MHz) | minne | Minne-grensesnitt | Minne båndbredde (GB / s) | TDP (W) | ||
Tesla V100 | 5120 | 640 | 1465 | 32 GB HBM2 | 4.096 bit | 900 | 250 | |
GeForce Titan V | 5120 | 640 | 1200/1455 | 12 GB HBM2 | 3.072 bit | 652 | 250 | |
GeForce Titan V CEO Edition | 5120 | 640 | 1200/1455 | 32 GB HBM2 | 4.096 bit | 900 | 250 |
Nvidias fremtid går gjennom Turing og Ampere
De to fremtidige Nvidia-arkitekturene vil være Turing og Ampere i henhold til alle ryktene som har dukket opp til dags dato, det er mulig at når du leser dette innlegget, er en av dem allerede offisielt kunngjort. Foreløpig er det ikke kjent noe sikkert om disse to arkitekturene, selv om det sies at Turing ville være en forenklet versjon av Volta for spillmarkedet, og faktisk forventes det at den kommer med samme produksjonsprosess på 12 nm.
Ampere høres ut som Tirings etterfølgerarkitektur, selv om det også kan være Volta sin etterfølger for kunstig intelligenssektoren. Absolutt ingenting er kjent om dette, selv om det virker logisk å forvente at det kommer frem til 7 nm. Ryktene antyder at Nvidia vil kunngjøre sine nye GeForce-kort på Gamecom i løpet av neste måned av august, først da vil vi la tvil om hva Turing eller Ampere blir, hvis de virkelig kommer til å eksistere.
NVIDIA G-Sync, avslutter problemer med synkronisering av bilder
G-Sync er en egenutviklet adaptiv synkroniseringsteknologi utviklet av Nvidia, og det primære målet er å eliminere skjermriving og behovet for alternativer i form av programvare som Vsync. G-Sync eliminerer riving av skjermen ved å tvinge den til å tilpasse seg frameraten til utgangsenheten, grafikkortet, i stedet for at outputenheten tilpasser seg skjermen, noe som resulterer i at bildene rives inn skjermen.
For at en skjerm skal være G-Sync-kompatibel, må den inneholde en maskinvaremodul solgt av Nvidia. AMD (Advanced Micro Devices) har gitt ut en lignende teknologi for skjermer, kalt FreeSync, som har samme funksjon som G-Sync, men ikke krever noen spesifikk maskinvare.
Nvidia opprettet en spesiell funksjon for å unngå muligheten for at en ny ramme er klar mens hun tegner et duplikat på skjermen, noe som kan generere forsinkelse og / eller stamming, modulen forventer oppdateringen og venter på at neste ramme skal fullføres. Overbelastning av piksler blir også misvisende i et ikke-fast oppdateringsscenario, og løsningene spår når neste oppdatering vil finne sted, derfor bør overdriveverdi implementeres og justeres for hvert panel for å unngå spøkelse.
Modulen er basert på en Altera Arria V GX familie FPGA med 156K logiske elementer, 396 DSP blokker og 67 LVDS kanaler. Den er produsert i TSMC 28LP-prosessen og er kombinert med tre brikker for til sammen 768 MB DDR3L DRAM, for å oppnå en viss båndbredde. FPGA-en har også et LVDS-grensesnitt for å kontrollere skjermpanelet. Denne modulen er beregnet på å erstatte vanlige klatrere og enkelt integreres av monitorprodusenter, som bare trenger å ta vare på strømforsyningskortet og inngangsforbindelsene.
G-Sync har møtt en viss kritikk på grunn av sin egenutviklede natur, og det faktum at den fremdeles blir markedsført når det finnes gratis alternativer, for eksempel VESA Adaptive-Sync-standarden, som er en valgfri funksjon i DisplayPort 1.2a. Mens AMDs FreeSync er basert på DisplayPort 1.2a, krever G-Sync en Nvidia-laget modul i stedet for den vanlige skjermbildet på skjermen for at Nvidia GeForce-grafikkort skal fungere ordentlig, og være kompatible med Kepler, Maxwell, Pascal og mikroarkitekturer. Volta.
Det neste trinnet er tatt med G-Sync HDR-teknologi, som, som navnet antyder, tilfører HDR-evner for å forbedre bildekvaliteten på skjermen. For å gjøre dette mulig, har det vært nødvendig å gjøre et betydelig sprang i maskinvare. Denne nye versjonen G-Sync HDR bruker en Intel Altera Arria 10 GX 480 FPGA, en svært avansert og svært programmerbar prosessor som kan kodes for et bredt spekter av applikasjoner, som er ledsaget av 3 GB DDR4 2400MHz minne produsert av Micron. Dette gjør prisen på disse monitorene dyrere.
Her avslutter innlegget vårt om alt du trenger å vite om Nvidia. Husk at du kan dele den på sosiale nettverk slik at den når flere brukere. Du kan også legge igjen en kommentar hvis du har noen forslag eller noe å legge til.
Oneplus 3t vil forbedre maskinvaren for bare 40/80 € mer: all informasjonen

Tekniske egenskaper for den nye OnePlus 3T der aspekter som prosessor, batteri, kamera og muligheten til 128 GB minne er forbedret.
Thunderbolt: all informasjonen du trenger å vite

Vi forklarer deg i detalj hvordan Thunderbolt fungerer: egenskaper, kompatibilitet, typer tilkoblinger, kompatibilitet og pris.
▷ Nvidia quadro 【all informasjonen】?

All informasjonen om Nvidia Quadro profesjonelle grafikkort: egenskaper, design, ytelse, fordeler og ulemper ✅