Nvidia 【toate informațiile】

Cuprins:
- Istoria Nvidia
- Nvidia GeForce și Nvidia Pascal, jocurile dominante
- Inteligență artificială și arhitectură Volta
- Viitorul Nvidiei trece prin Turing și Ampere
- NVIDIA G-Sync, care pune capăt problemelor de sincronizare a imaginii
Nvidia Corporation, mai cunoscută sub numele de Nvidia, este o companie americană de tehnologie încorporată în Delaware și cu sediul în Santa Clara, California. Nvidia proiectează unități de procesare grafică pentru piețele jocurilor video și profesionale, precum și un sistem de unități de cip (SoC) pentru piața de automobile și computere mobile. Linia sa principală de produse, GeForce, este în concurență directă cu produsele Radeon de la AMD.
Vă recomandăm să citiți cele mai bune ghiduri pentru hardware și componente pentru computer:
Pe lângă GPU-uri de fabricație, Nvidia oferă capacități de procesare paralelă la nivel mondial cercetătorilor și oamenilor de știință, permițându-le să ruleze în mod eficient aplicații performante. Mai recent, s-a mutat pe piața computerelor mobile, unde produce procesoare mobile Tegra pentru console de jocuri video, tablete și sisteme autonome de navigație și divertisment pentru vehicule. Acest lucru a dus la Nvidia să devină o companie axată pe patru piețe din 2014 : jocuri de noroc, vizualizare profesională, centre de date și informații artificiale și automobile.
Indice de conținut
Istoria Nvidia
Nvidia a fost fondată în 1993 de Jen-Hsun Huang, Chris Malachowsky și Curtis Priem. Cei trei cofondatori ai companiei au emis ipoteza că direcția potrivită pentru calcul va trece printr-o procesare accelerată grafică, crezând că acest model de calcul ar putea rezolva probleme pe care calculul cu scop general nu le poate rezolva. Aceștia au menționat, de asemenea , că jocurile video sunt unele dintre cele mai dificile probleme din punct de vedere computerizat și că au volume de vânzări incredibil de mari.
De la o mică companie de jocuri video la un gigant de inteligență artificială
Compania s-a născut cu un capital inițial de 40.000 de dolari, inițial nu avea nume, iar cofondatorii au numit toate fișierele sale NV, ca în „următoarea versiune”. Nevoia de a încorpora compania i-a determinat pe co-fondatori să revizuiască toate cuvintele cu acele două litere, ceea ce i-a dus la „invidia”, cuvântul latin care înseamnă „invidie”.
Lansarea RIVA TNT în 1998 a consolidat reputația Nvidia de a dezvolta adaptoare grafice. La sfârșitul anului 1999, Nvidia a lansat GeForce 256 (NV10), care a introdus, în special, transformarea și iluminarea la nivel de consumator (T&L) în hardware-ul 3D. Funcționând la 120 MHz și cu patru linii de pixeli, a implementat accelerare video avansată, compensare de mișcare și amestecare sub-imagine hardware. GeForce a depășit produsele existente cu o marjă largă.
Datorită succesului produselor sale, Nvidia a câștigat contractul de dezvoltare a hardware-ului grafic pentru consola de jocuri Microsoft Microsoft, obținând Nvidia un avans de 200 de milioane de dolari. Cu toate acestea, proiectul a luat mulți dintre cei mai buni ingineri ai săi din alte proiecte. Pe termen scurt, acest lucru nu a contat, iar GeForce2 GTS a fost livrat în vara anului 2000. În decembrie 2000, Nvidia a ajuns la un acord pentru a achiziționa activele intelectuale ale unicului său rival 3dfx, un pionier în tehnologia grafică 3D pentru consumator. care a condus domeniul de la mijlocul anilor’90 până în 2000. Procesul de achiziție s-a încheiat în aprilie 2002.
În iulie 2002, Nvidia a achiziționat Exluna pentru o sumă de bani nedezvăluită. Exluna a fost responsabilă de crearea diverselor instrumente de redare software. Mai târziu, în august 2003, Nvidia a achiziționat MediaQ pentru aproximativ 70 de milioane de dolari. De asemenea, a achiziționat iReady, un furnizor de soluții de descărcare TCP / IP și iSCSI de înaltă performanță la 22 aprilie 2004.
Atât de mare a fost succesul Nvidia pe piața jocurilor video, încât în decembrie 2004 s-a anunțat că va ajuta Sony cu proiectarea procesorului grafic PlayStation 3 RSX, consola de jocuri video de nouă generație de la firma japoneză care a avut sarcina dificilă de a repeta succesul predecesorului său, cel mai bine vândut din istorie.
În decembrie 2006, Nvidia a primit citații de la Departamentul de Justiție al SUA. În ceea ce privește posibilele încălcări antitrust din industria cardurilor grafice. În acel moment, AMD devenise marele său rival, după achiziționarea de ATI de către acesta din urmă. De atunci AMD și Nvidia au fost singurii producători de cărți grafice pentru jocuri video, fără să uite de cipurile integrate Intel.
Forbes a numit Nvidia cea mai bună companie a anului pentru 2007, citând realizările pe care le-a făcut în ultimii cinci ani. Pe 5 ianuarie 2007, Nvidia a anunțat că a finalizat achiziția PortalPlayer, Inc, iar în februarie 2008, Nvidia l-a achiziționat pe Ageia, dezvoltatorul motorului fizic și al unității de procesare fizică PhysX care conduce acest motor. Nvidia a anunțat că intenționează să integreze tehnologia PhysX în viitoarele sale produse GPU GeForce.
Nvidia s-a confruntat cu mari dificultăți în iulie 2008, când a înregistrat o scădere a veniturilor de aproximativ 200 de milioane de dolari, după ce a fost raportat că anumite chipset-uri mobile și GPU-uri mobile produse de companie au rate de anomalii din cauza defectelor de fabricație. În septembrie 2008, Nvidia a devenit obiectul unui proces de acțiune de clasă de către cei afectați, susținând că GPU-urile defecte au fost încorporate în anumite modele de notebook-uri fabricate de Apple, Dell și HP. Telenovela s-a încheiat în septembrie 2010, când Nvidia a ajuns la un acord potrivit căruia proprietarii laptopurilor afectate li se va rambursa costul reparațiilor sau, în unele cazuri, înlocuirea produsului.
În noiembrie 2011, Nvidia a lansat sistemul său de cipuri ARG Tegra 3 pentru dispozitive mobile, după ce inițial a prezentat-o la Mobile World Congress. Nvidia a susținut că cip-ul a prezentat primul CPU mobil cu patru nuclee. În ianuarie 2013, Nvidia a prezentat Tegra 4, precum și Nvidia Shield, o consolă de jocuri portabile bazată pe Android, alimentată de noul procesor.
Pe 6 mai 2016, Nvidia a prezentat plăcile grafice GeForce GTX 1080 și 1070, prima bazată pe noua microarhitectură Pascal. Nvidia a susținut că ambele modele și-au depășit modelul Titan X bazat pe Maxwell. Aceste carduri încorporează memoria GDDR5X și respectiv GDDR5 și folosesc un proces de fabricație de 16 nm. Arhitectura Pascal acceptă, de asemenea, o nouă caracteristică hardware cunoscută sub denumirea de proiecție multiplă simultană (SMP), care este concepută pentru a îmbunătăți calitatea redării de monitorizare multiplă și a realității virtuale. Pascal a permis fabricarea de laptopuri care îndeplinesc standardul de design Max-Q Nvidia.
În mai 2017, Nvidia a anunțat un parteneriat cu Toyota Motor Corp în cadrul căruia acesta din urmă va folosi platforma de inteligență artificială seria X Nvidia pentru vehiculele sale autonome. În iulie 2017, Nvidia și gigantul chinezesc de căutare Baidu, Inc. au anunțat un parteneriat puternic AI care include cloud computing, conducere autonomă, dispozitive de consum și cadrul AI Baidu, PaddlePaddle.
Nvidia GeForce și Nvidia Pascal, jocurile dominante
GeForce este numele de marcă pentru cardurile grafice bazate pe unități de procesare grafică (GPU) create de Nvidia din 1999. Până în prezent, seria GeForce cunoaște șaisprezece generații de la începuturile sale. Versiunile axate pe utilizatorii profesioniști ai acestor carduri poartă numele Quadro și includ câteva caracteristici de diferențiere la nivelul șoferului. Concurența directă a GeForce este AMD cu cărțile sale Radeon.
Pascal este numele de cod pentru cea mai recentă microarhitectură GPU dezvoltată de Nvidia care a intrat pe piața jocurilor video, ca succesor al arhitecturii Maxwell anterioare. Arhitectura Pascal a fost introdusă pentru prima dată în aprilie 2016 odată cu lansarea Tesla P100 pentru servere la 5 aprilie 2016. În prezent, Pascal este utilizat în principal în seria GeForce 10, GeForce GTX 1080 și GTX fiind Primele 1070 cărți de jocuri video au fost lansate cu această arhitectură, pe 17 mai 2016, respectiv 10 iunie 2016. Pascal este fabricat folosind procedeul FinFET de 16 nm TSMC, ceea ce îi permite să ofere eficiență și performanță energetică mult superioare, comparativ cu Maxwell, care a fost fabricat la 28 nm FinFET.
Arhitectura Pascal este organizată intern în ceea ce este cunoscut sub numele de streaming multiprocesor ( SM), unități funcționale care sunt alcătuite din 64 de Cores CUDA, care la rândul lor sunt împărțite în două blocuri de procesare de 32 de Cores CUDA fiecare dintre ele și însoțite de un tampon de instrucțiuni, un planificator de urzeală, 2 unități de mapare a texturii și 2 unități de expediere. Aceste unități SM sunt echivalentul CU-urilor AMD.
Arhitectura lui Nvidia Pascal a fost proiectată pentru a fi cea mai eficientă și avansată din lumea jocurilor. Echipa de inginerie a companiei Nvidia a depus mult efort în crearea unei arhitecturi de tip GPU, capabilă să aibă viteze foarte mari de ceas, menținând în același timp un consum strict de energie. Pentru a realiza acest lucru, în toate circuitele sale a fost ales un design foarte atent și optimizat, ceea ce a dus la Pascal să poată atinge o frecvență cu 40% mai mare decât Maxwell, o cifră mult mai mare decât ar fi permis procesul la 16. nm fără toate optimizările la nivel de proiectare.
Memoria este un element cheie în performanța unei placi grafice, tehnologia GDDR5 a fost anunțată în 2009, astfel că a devenit deja învechită pentru cele mai puternice plăci grafice din zilele noastre. Din acest motiv, Pascal acceptă memoria GDDR5X, care a fost cel mai rapid și mai avansat standard de interfață de memorie din istorie la momentul lansării acestor carduri grafice, atingând viteze de transfer de până la 10 Gbps sau aproape 100 de picosecunde între biți. de date. Memoria GDDR5X permite, de asemenea, placa grafică să consume mai puțină energie în comparație cu GDDR5, întrucât tensiunea de funcționare este de 1.35V, comparativ cu 1.5V sau chiar mai mult de care au nevoie de cipurile GDDR5 mai rapide. Această reducere a tensiunii se traduce printr-o frecvență de funcționare cu 43% mai mare cu același consum de energie.
O altă inovație importantă Pascal provine din tehnicile de compresie a memoriei fără pierderea performanței, ceea ce reduce cererea pentru lățimea de bandă de la GPU. Pascal include a patra generație de tehnologie de compresie a culorii delta. Cu compresia color delta, GPU analizează scenele pentru a calcula pixelii ale căror informații pot fi comprimate fără a sacrifica calitatea scenei. În timp ce arhitectura Maxwell nu a putut comprima date referitoare la unele elemente, cum ar fi vegetația și părți ale mașinii din jocul Project Cars, Pascal este capabil să comprime cea mai mare parte a informațiilor despre aceste elemente, fiind astfel mult mai eficient decât Maxwell. În consecință, Pascal este capabil să reducă semnificativ numărul de octeți care trebuie extrasi din memorie. Această reducere a octeților se traduce într-un procent suplimentar de 20% din lățimea de bandă eficientă, rezultând o creștere de 1, 7 ori lățimea de bandă cu utilizarea memoriei GDDR5X în comparație cu arhitectura GDDR5 și Maxwell.
Pascal oferă, de asemenea, îmbunătățiri importante în ceea ce privește calculul asincron, lucru foarte important, deoarece în prezent volumele de muncă sunt foarte complexe. Datorită acestor îmbunătățiri, arhitectura Pascal este mai eficientă la distribuirea încărcăturii între toate unitățile sale SM diferite, ceea ce înseamnă că nu există aproape nuclee CUDA neutilizate. Acest lucru permite optimizarea GPU să fie mult mai mare, folosind mai bine toate resursele pe care le are.
Următorul tabel prezintă cele mai importante caracteristici ale tuturor cardurilor GeForce bazate pe Pascal.
CARTE GRAFICE PASCALE NVIDIA GEFORCE |
||||||
Cores CUDA | Frecvențe (MHz) | memorie | Interfață de memorie | Lățimea de bandă a memoriei (GB / s) | TDP (W) | |
NVIDIA GeForce GT1030 | 384 | 1468 | 2 GB GDDR5 | 64 biți | 48 | 30 |
NVIDIA GeForce GTX1050 | 640 | 1455 | 2 GB GDDR5 | 128 biți | 112 | 75 |
NVIDIA GeForce GTX1050Ti | 768 | 1392 | 4 GB GDDR5 | 128 biți | 112 | 75 |
NVIDIA GeForce GTX1060 3 GB | 1152 | 1506/1708 | 3 GB GDDR5 | 192 bit | 192 | 120 |
NVIDIA GeForce GTX1060 6 GB | 1280 | 1506/1708 | 6 GB GDDR5 | 192 bit | 192 | 120 |
NVIDIA GeForce GTX1070 | 1920 | 1506/1683 | 8 GB GDDR5 | 256 biți | 256 | 150 |
NVIDIA GeForce GTX1070Ti | 2432 | 1607/1683 | 8 GB GDDR5 | 256 biți | 256 | 180 |
NVIDIA GeForce GTX1080 | 2560 | 1607/1733 | 8 GB GDDR5X | 256 biți | 320 | 180 |
NVIDIA GeForce GTX1080 Ti | 3584 | 1480/1582 | 11 GB GDDR5X | 352 biți | 484 | 250 |
NVIDIA GeForce GTX Titan Xp | 3840 | 1582 | 12 GB GDDR5X | 384 biți | 547 | 250 |
Inteligență artificială și arhitectură Volta
GPU-urile Nvidia sunt utilizate pe scară largă în domeniile învățării profunde, a inteligenței artificiale și a analizei accelerate a unor cantități mari de date. Compania a dezvoltat învățare profundă bazată pe tehnologia GPU, în scopul de a utiliza inteligența artificială pentru a rezolva probleme precum detectarea cancerului, prognoza meteo și vehicule de conducere autonomă, precum celebrul Tesla.
Scopul Nvidia este de a ajuta rețelele să învețe să „gândească ”. GPU-urile Nvidia funcționează excepțional pentru sarcinile de învățare profundă, deoarece sunt concepute pentru calcul paralel și funcționează bine pentru a gestiona operațiile de vector și matrice care prevalează în învățarea profundă. GPU-urile companiei sunt utilizate de cercetători, laboratoare, companii de tehnologie și întreprinderi de afaceri. În 2009, Nvidia a participat la ceea ce s-a numit big bang pentru învățare profundă, deoarece rețelele neuronale de învățare profundă au fost combinate cu unitățile de procesare grafică a companiei. În același an, Google Brain a folosit GPU-urile Nvidia pentru a crea rețele neuronale profunde capabile să învețe mașini, unde Andrew Ng a stabilit că pot crește viteza sistemelor de învățare profundă de 100 de ori.
În aprilie 2016, Nvidia a introdus supercomputerul DGX-1 bazat pe cluster cu 8 GPU pentru a spori capacitatea utilizatorilor de a utiliza învățare profundă prin combinarea GPU-urilor cu software special conceput. Nvidia a dezvoltat, de asemenea, aparatele virtuale Nvidia Tesla K80 și P100 bazate pe GPU, disponibile prin Google Cloud, pe care Google le-a instalat în noiembrie 2016. Microsoft a adăugat servere bazate pe tehnologia GPU Nvidia într-o previzualizare a seriei sale N, pe baza cardului Tesla K80. De asemenea, Nvidia s-a asociat cu IBM pentru a crea un kit software care crește capacitățile AI ale GPU-urilor sale. În 2017, GPU-urile Nvidia au fost aduse și online la Centrul RIKEN pentru Proiectul de Informații Avansate pentru Fujitsu.
În mai 2018, cercetătorii departamentului de inteligență artificială Nvidi a au realizat posibilitatea ca un robot să învețe să facă o muncă prin simpla observare a persoanei care face aceeași muncă. Pentru a realiza acest lucru, ei au creat un sistem care, după o scurtă revizuire și testare, poate fi folosit acum pentru controlul roboților universali de generație următoare.
Volta este numele de cod pentru cea mai avansată microarhitectură GPU dezvoltată de Nvidia, este arhitectura succesorului lui Pascal și a fost anunțată ca parte a unei ambiții viitoare a foii de parcurs în martie 2013. Arhitectura poartă numele Alessandro Volta, fizicianul, chimistul și inventatorul bateriei electrice. Arhitectura Volta nu a ajuns în sectorul jocurilor, deși a făcut acest lucru cu placa grafică Nvidia Titan V, axată pe sectorul consumatorului și care poate fi folosită și în echipamentele de jocuri.
Acest Nvidia Titan V este o placă grafică bazată pe nucleu GV100 și trei stive de memorie HBM2, toate într-un singur pachet. Cardul are un total de 12 GB memorie HBM2 care funcționează printr-o interfață de memorie de 3072 biți. GPU-ul său conține peste 21 de milioane de tranzistoare, 5.120 de nuclee CUDA și 640 de nuclee de tensiune pentru a oferi 110 performanțe TeraFLOPS în învățarea profundă. Frecvențele sale de funcționare sunt de 1200 MHz și 1455 MHz în modul turbo, în timp ce memoria funcționează la 850 MHz, oferind o lățime de bandă de 652, 8 GB / s. Recent a fost anunțată o versiune CEO Edition care mărește memoria până la 32 GB.
Prima placă grafică fabricată de Nvidia cu arhitectura Volta a fost Tesla V100, care face parte din sistemul Nvidia DGX-1. Tesla V100 folosește nucleul GV100 care a fost lansat pe 21 iunie 2017. GPU Volta GV100 este construit într-un proces de fabricație de 12 nm FinFET, cu 32 GB memorie HBM2 capabilă să livreze până la 900 GB / s de lățime de bandă.
De asemenea, Volta aduce la viață cel mai recent Nvidia Tegra SoC, numit Xavier, care a fost anunțat pe 28 septembrie 2016. Xavier conține 7 miliarde de tranzistoare și 8 nuclee ARMv8 personalizate, împreună cu un GPU Volta cu 512 nuclee CUDA și un TPU de open source (Tensor Processing Unit) numit DLA (Deep Learning Accelerator). Xavier poate codifica și decoda video la o rezoluție Ultra HD de 8K (7680 × 4320 pixeli) în timp real, toate cu un TDP de 20-30 de wați și o dimensiune a matriței estimată la aproximativ 300mm2 datorită procesului de fabricație de 12. nm FinFET.
Arhitectura Volta se caracterizează prin a fi primul care include Tensor Core, nuclee special concepute pentru a oferi performanțe mult superioare în sarcinile de învățare profundă, comparativ cu nucleele obișnuite CUDA. Un nucleu Tensor este o unitate care înmulțește două matrici FP16 4 × 4 și apoi adaugă o a treia matrice FP16 sau FP32 la rezultat, folosind operații de adăugare și înmulțire combinate, obținând un rezultat FP32 care opțional ar putea fi declasat la un rezultat FP16. Nucleii tensori au rolul de a accelera antrenamentul rețelei neuronale.
Volta se remarcă, de asemenea, pentru includerea interfeței avansate de proprietate NVLink, care este un protocol de comunicare bazat pe fir pentru comunicații cu semiconductor cu rază scurtă de acțiune dezvoltat de Nvidia, care poate fi utilizat pentru transferuri de coduri de date și control în sistemele de procesare bazate pe CPU și GPU și cele bazate exclusiv pe GPU. NVLink specifică o conexiune punct la punct cu rate de date de 20 și 25 Gb / s pe banda de date și pe adresă în prima și a doua versiune. Ratele totale de date în sistemele din lumea reală sunt 160 și 300 GB / s pentru suma totală a fluxurilor de date de intrare și ieșire. Produsele NVLink introduse până în prezent se concentrează pe spațiul de aplicație performant. NVLINK a fost anunțat pentru prima dată în martie 2014 și folosește o interconectare proprie de mare viteză dezvoltată și dezvoltată de Nvidia.
Următorul tabel prezintă cele mai importante caracteristici ale cardurilor bazate pe Volta:
CARTE GRAFICE NVIDIA VOLTA |
||||||||
Cores CUDA | Tensor de bază | Frecvențe (MHz) | memorie | Interfață de memorie | Lățimea de bandă a memoriei (GB / s) | TDP (W) | ||
Tesla V100 | 5120 | 640 | 1465 | 32 GB HBM2 | 4.096 bit | 900 | 250 | |
GeForce Titan V | 5120 | 640 | 1200/1455 | 12 GB HBM2 | 3.072 biți | 652 | 250 | |
Ediția CEO GeForce Titan V | 5120 | 640 | 1200/1455 | 32 GB HBM2 | 4.096 bit | 900 | 250 |
Viitorul Nvidiei trece prin Turing și Ampere
Cele două viitoare arhitecturi Nvidia vor fi Turing și Ampere în conformitate cu toate zvonurile care au apărut până în prezent, este posibil ca atunci când citiți această postare, una dintre ele să fi fost deja anunțată oficial. Deocamdată, nu se știe nimic sigur despre aceste două arhitecturi, deși se spune că Turing ar fi o versiune simplificată a Volta pentru piața de jocuri, de fapt este de așteptat să ajungă cu același proces de fabricație la 12 nm.
Ampere sună ca arhitectura succesorului lui Turing, deși ar putea fi și succesorul lui Volta în sectorul informațiilor artificiale. Nu se știe absolut nimic despre acest lucru, deși pare logic să se aștepte să ajungă la 7 nm. Zvonurile sugerează că Nvidia își va anunța noile carduri GeForce la Gamecom în luna următoare a lunii august, doar atunci vom lăsa îndoieli despre ce vor fi Turing sau Ampere, dacă vor deveni cu adevărat existenți.
NVIDIA G-Sync, care pune capăt problemelor de sincronizare a imaginii
G-Sync este o tehnologie de sincronizare adaptivă proprie dezvoltată de Nvidia, al cărei obiectiv principal este de a elimina ruperea ecranului și nevoia de alternative sub formă de software precum Vsync. G-Sync elimină ruperea ecranului, forțându-l să se adapteze la încadrarea dispozitivului de ieșire, a plăcii grafice, mai degrabă decât a dispozitivului de ieșire care se adaptează ecranului, ceea ce duce la ruperea imaginii ecranul.
Pentru ca un monitor să fie compatibil cu G-Sync, acesta trebuie să conțină un modul hardware vândut de Nvidia. AMD (Advanced Micro Devices) a lansat o tehnologie similară pentru afișaje, numită FreeSync, care are aceeași funcție ca G-Sync, dar nu necesită hardware specific.
Nvidia a creat o funcție specială pentru a evita posibilitatea ca un nou cadru să fie gata în timp ce desenează un duplicat pe ecran, ceva care poate genera întârziere și / sau bâlbâială, modulul anticipează actualizarea și așteaptă finalizarea următorului cadru. Supraîncărcarea pixelilor devine de asemenea înșelătoare într-un scenariu de actualizare non-fix, iar soluțiile prezic când va avea loc următoarea actualizare, prin urmare, valoarea de overdrive ar trebui să fie implementată și ajustată pentru fiecare panou, pentru a evita fantasmele.
Modulul se bazează pe un FPGA al familiei Altera Arria V GX cu elemente logice 156K, 396 blocuri DSP și 67 canale LVDS. Este produs în procesul TSMC 28LP și este combinat cu trei cipuri pentru un total de 768 MB DRAM DDR3L, pentru a obține o anumită lățime de bandă. FPGA utilizat de asemenea dispune de o interfață LVDS pentru controlul panoului de monitorizare. Acest modul este destinat să înlocuiască alpinistii obișnuiți și să fie integrat cu ușurință de către producătorii de monitor, care trebuie să aibă grijă doar de placa de circuit de alimentare și conexiunile de intrare.
G-Sync s-a confruntat cu unele critici datorită caracterului său proprietar și a faptului că este încă promovată atunci când există alternative gratuite, cum ar fi standardul VESA Adaptive-Sync, care este o caracteristică opțională a DisplayPort 1.2a. În timp ce FreeSync de la AMD este bazat pe DisplayPort 1.2a, G-Sync necesită un modul creat de Nvidia în locul scanerului obișnuit pe ecran pentru ca plăcile grafice Nvidia GeForce să funcționeze corect, fiind compatibile cu Kepler, Maxwell, Pascal și microarhitecturi. Volta.
Următorul pas a fost făcut cu tehnologia G-Sync HDR, care, după cum sugerează și numele său, adaugă capabilități HDR pentru a îmbunătăți considerabil calitatea imaginii a monitorului. Pentru a face acest lucru, a trebuit să se facă un salt semnificativ în hardware. Această nouă versiune G-Sync HDR folosește un procesor Intel Altera Arria 10 GX 480 FPGA, un procesor extrem de avansat și foarte programabil, care poate fi codat pentru o gamă largă de aplicații, care este însoțit de 3 GB memorie DDR4 de 2400 MHz fabricate de Micron. Acest lucru face ca prețul acestor monitoare să fie mai scump.
Aici se încheie postarea noastră despre tot ce trebuie să știți despre Nvidia. Nu uitați că îl puteți partaja pe rețelele sociale, astfel încât să ajungă la mai mulți utilizatori. De asemenea, puteți lăsa un comentariu dacă aveți sugestii sau ceva de adăugat.
Toate informațiile despre lenovo yoga tablet

Totul despre prima tabletă din gama Lenovo Yoga: caracteristici tehnice, imagini, baterie, aparat de fotografiat, disponibilitate și preț.
Nvidia rtx 【toate informațiile】

Avem deja cu noi noile plăci grafice NVIDIA RTX. De la modelul pilot: NVIDIA RTX 2080 Ti, până la modelul pentru cei mai mulți jucători din 4K:
▷ Nvidia quadro 【toate informațiile】?

Toate informațiile despre plăci grafice profesionale Nvidia Quadro: caracteristici, design, performanță, avantaje și dezavantaje ✅