6 beste Nvidia GPU's aller tijden

Nvidia legt de lat zo hoog voor zijn gaming grafische kaarten dat het eigenlijk moeilijk is om het verschil te zien tussen een Nvidia GPU die slechts een winnaar is en een Nvidia GPU die heel speciaal is.

Inhoud

  • GeForce 256
  • GeForce 8800 GTX
  • GeForce GTX 680
  • GeForce GTX 980
  • GeForce GTX 1080
  • GeForce RTX 3080
  • Dus wat nu?

Nvidia is al lange tijd de dominante speler op de markt voor grafische kaarten, maar het bedrijf staat van tijd tot tijd onder grote druk van zijn belangrijkste rivaal AMD, die verschillende zijn eigen iconische GPU's. Die zorgden er echter alleen voor dat Nvidia een grote comeback maakte, en soms leidde dat tot een echte game-veranderende kaart.

Aanbevolen video's

Het was moeilijk om te kiezen welke Nvidia GPU's het echt waard waren om de beste aller tijden te worden genoemd, maar ik heb de lijst teruggebracht tot zes kaarten die echt belangrijk waren en geschiedenis hebben geschreven.

Verwant

  • Heeft Nvidia zojuist de smeltende voedingsconnectoren van de RTX 4090 gerepareerd?
  • Dit is waarom mensen zo boos zijn over het Starfield pc-nieuws van vandaag
  • Nvidia's RTX 4060 is misschien toch niet zo'n teleurstelling

GeForce 256

De allereerste

De GeForce 256.
VGA-museum

Hoewel Nvidia beweert vaak de GeForce 256 was 's werelds eerste GPU, dat is alleen waar als Nvidia het enige bedrijf is dat mag definiëren wat een GPU is. Vóór GeForce was er de RIVA-serie grafische kaarten, en er waren toen ook andere bedrijven die hun eigen concurrerende grafische kaarten maakten. Wat Nvidia echt heeft uitgevonden, was het op de markt brengen van grafische kaarten als GPU's, want in 1999, toen de 256 uitkwam, kwamen termen als grafische kaart en grafische chipset vaker voor.

Nvidia heeft echter gelijk dat de 256 belangrijk was. Vóór de 256 speelde de CPU een zeer belangrijke rol bij het weergeven van afbeeldingen, tot het punt waarop de CPU direct de stappen voltooide bij het weergeven van een 3D-omgeving. CPU's waren hier echter niet erg efficiënt in, en daar kwam de 256 binnen met hardwaretransformatie en verlichting, waardoor de twee meest CPU-intensieve onderdelen van rendering naar de GPU werden overgebracht. Dit is een van de belangrijkste redenen waarom Nvidia beweert dat dit de eerste GPU is.

Als product was de GeForce 256 niet bepaald legendarisch: Anandtech was niet super onder de indruk van de prijs voor de prestaties op het moment van zijn vrijlating. Een deel van het probleem was het geheugen van de 256, dat een enkele datasnelheid of SDR was. Door andere ontwikkelingen werd SDR onvoldoende voor GPU's van dit prestatieniveau. Een snellere dubbele datasnelheid of DDR (dezelfde DDR als in DDR5) gelanceerd net voor het einde van 1999, die uiteindelijk voldeed aan de prestatieverwachtingen van Anandtech, maar het hogere prijskaartje van de DDR-versie was moeilijk te slikken.

De GeForce 256, in de eerste plaats zijn naam, is zeker historisch, maar niet omdat het een geweldig product was. De 256 is belangrijk omdat hij het moderne tijdperk van GPU's inluidde. De markt voor grafische kaarten was niet altijd een duopolie; in de jaren 90 waren er meerdere bedrijven die tegen elkaar streden, waarvan Nvidia er slechts één was. Kort na de lancering van de GeForce 256 verlieten de meeste rivalen van Nvidia de markt. De Voodoo 5 GPU's van 3dfx waren niet competitief en voordat het failliet ging, werden veel van zijn technologieën gekocht door Nvidia; Matrox stopte gewoon helemaal met gaming-GPU's om zich te concentreren op professionele grafische weergaven.

Eind 2000 was ATI het enige andere grafische bedrijf in de stad. Toen AMD in 2006 ATI overnam, bracht het het moderne tot stand Rivaliteit tussen Nvidia en AMD we weten het allemaal vandaag.

GeForce 8800 GTX

Een monumentale sprong voorwaarts

De GeForce 8800 GTX.
VGA-museum

Na de GeForce 256 probeerden Nvidia en ATI de ander te verslaan met nieuwere GPU's met hogere prestaties. In 2002 wierp ATI echter de handschoen toe door zijn Radeon 9000-serie te lanceren, en met een matrijsmaat van 200 mm in het kwadraat was het vlaggenschip Radeon 9800 XT zonder meer de grootste GPU ooit. Nvidia's vlaggenschip GeForce4 Ti 4600 op 100 mm had geen hoop om zelfs de middenklasse 9700 Pro te verslaan, die Nvidia een verpletterende nederlaag toebracht. Bij het maken van een GPU ging het niet langer alleen om de architectuur, het geheugen of de stuurprogramma's; om te winnen zou Nvidia grote GPU's zoals ATI moeten maken.

Gedurende de volgende vier jaar bleef de omvang van vlaggenschip-GPU's toenemen, en tegen 2005 hadden beide bedrijven een GPU gelanceerd van ongeveer 300 mm. Hoewel Nvidia in deze tijd de overhand had herwonnen, liep ATI nooit ver achter en was de Radeon X1000-serie redelijk competitief. Een GPU van 300 mm was echter verre van de limiet van wat Nvidia kon doen. In 2006 bracht Nvidia zijn GeForce 8-serie uit, aangevoerd door het vlaggenschip 8800 GTX. De GPU, codenaam G80, was bijna 500 mm en het aantal transistors was bijna drie keer hoger dan dat van het laatste GeForce-vlaggenschip.

De 8800 GTX deed met ATI wat de Radeon 9700 Pro en de rest van de 9000-serie deed met Nvidia, waarbij Anandtech het moment beschrijft als "9700 Pro-achtig". Een enkele 8800 GTX was bijna twee keer zo snel als ATI's topklasse X1950 XTX, en niet te vergeten veel efficiënter. Met $ 599 was de 8800 GTX duurder dan zijn voorgangers, maar zijn hoge prestatieniveau en DirectX 10-ondersteuning maakten alles goed.

Maar dit was grotendeels het einde van de grote GPU-wapenwedloop die de vroege jaren 2000 kenmerkte om twee belangrijke redenen. Ten eerste kwam 500 mm vrij dicht bij de limiet van hoe groot een GPU zou kunnen zijn, en zelfs vandaag de dag is 500 mm relatief groot voor een processor. Zelfs als Nvidia dat zou willen, was het gewoon niet haalbaar om een ​​grotere GPU te maken. Ten tweede werkte ATI sowieso niet aan zijn eigen 500 mm GPU, dus Nvidia had geen haast om een ​​nog grotere GPU op de markt te brengen. Nvidia had in feite de wapenwedloop gewonnen door ATI te overtreffen.

Dat jaar vond ook de overname van ATI door AMD plaats, die net voor de lancering van de 8800 GTX werd afgerond. Hoewel ATI nu de steun had van AMD, leek het er echt op dat Nvidia zo'n enorme voorsprong had dat Radeon GeForce lange tijd niet zou uitdagen, misschien wel nooit meer.

GeForce GTX 680

AMD verslaan in zijn eigen spel

De GeForce GTX 680.
Nvidia

De volgende historische release van Nvidia kwam in 2008 toen het de GTX 200-serie lanceerde, te beginnen met de GTX 280 en GTX 260. Met bijna 600 mm in het kwadraat was de 280 een waardige monsterlijke opvolger van de 8800 GTX. Ondertussen gaven AMD en ATI aan dat ze niet langer high-end GPU's met grote dies zouden lanceren om te concurreren, in plaats van zich te concentreren op het maken van kleinere GPU's in een gok die bekend staat als de kleine dobbelsteen strategie. In zijn recensie zei Anandtech "Nvidia zal in de nabije toekomst alleen worden gelaten met topprestaties." Het bleek dat de volgende vier jaar behoorlijk zwaar waren voor Nvidia.

Beginnend met de HD 4000-serie in 2008 viel AMD Nvidia aan met kleine GPU's die een hoge waarde hadden en bijna vlaggenschip prestatieniveaus, en die dynamiek bleef de komende paar jaar behouden generaties. Nvidia's GTX 280 was niet kosteneffectief genoeg, daarna liep de GTX 400-serie vertraging op en was de 500-serie te heet en had hij veel energie nodig.

Een van de traditionele zwakheden van Nvidia was het nadeel als het ging om het proces, de manier waarop processors worden vervaardigd. Nvidia liep meestal achter AMD, maar had eindelijk een inhaalslag gemaakt door het 40nm-knooppunt te gebruiken voor de 400-serie. AMD wilde echter snel de procesleider terugwinnen en besloot dat de volgende generatie op het nieuwe 28nm-knooppunt zou komen, en Nvidia besloot dit voorbeeld te volgen.

AMD won de race naar 28nm met zijn HD 7000-serie, met zijn vlaggenschip HD 7970 zette AMD weer op de eerste plaats voor prestaties. De GTX 680 werd echter slechts twee maanden later gelanceerd en versloeg niet alleen de 7970 qua prestaties, maar ook qua energie-efficiëntie en zelfs qua afmetingen. Zoals Anandtech het uitdrukte, had Nvidia “landde de technische trifecta” en dat draaide de tafels volledig om op AMD. AMD heeft de prestatiekroon opnieuw opgeëist door later in 2012 de HD 7970 GHz Edition te lanceren (opmerkelijk voor zijnde de eerste 1GHz GPU), maar de leiding hebben in efficiëntie en prestaties per millimeter was een goed teken voor Nvidia.

De heen en weer strijd tussen Nvidia en AMD was behoorlijk spannend na hoe teleurstellend de GTX 400 en 500 serie was geweest, en hoewel de 680 geen 8800 GTX was, betekende het Nvidia's terugkeer om echt concurrerend te zijn met amd. Misschien wel het belangrijkste was dat Nvidia niet langer gebukt ging onder zijn traditionele procesnadeel, en dat zou uiteindelijk zijn vruchten afwerpen.

GeForce GTX 980

De dominantie van Nvidia begint

De GeForce GTX 980.
Bill Roberson/Digitale trends

Nvidia bevond zich op een zeer goede plek met de GTX 600-serie, en dat kwam door het 28nm-proces van TSMC. Onder normale omstandigheden zou AMD gewoon naar het volgende proces van TSMC zijn gegaan om zijn traditionele voordeel terug te winnen, maar dit was geen optie meer. TSMC en alle andere gieterijen ter wereld (behalve Intel) hadden buitengewoon veel moeite om verder te gaan dan het 28nm-knooppunt. Er waren nieuwe technologieën nodig om verder te komen, wat betekende dat Nvidia zich geen zorgen hoefde te maken dat AMD binnenkort de procesleider terug zou krijgen.

Na een paar jaar heen en weer en AMD geploeter met beperkte middelen, lanceerde Nvidia de GTX 900-serie in 2014, ingehuldigd door de GTX 980. Gebaseerd op de nieuwe Maxwell-architectuur, was het een ongelooflijke verbetering ten opzichte van de GTX 600- en 700-serie, ondanks dat het zich op hetzelfde knooppunt bevond. De 980 was tussen de 30% en 40% sneller dan de 780 terwijl hij minder stroom verbruikte, en hij was zelfs iets sneller dan de topklasse 780 Ti. Natuurlijk versloeg de 980 ook de R9 290X, waarmee hij opnieuw de trifecta van prestaties, energie-efficiëntie en matrijsgrootte binnenhaalde. In zijn recensie, Anandtech zei dat de 980 "heel, heel dicht bij de Radeon 290X kwam wat de GTX 680 deed met de Radeon HD 7970."

AMD kon niet reageren. Het had geen GPU van de volgende generatie klaar om te lanceren in 2014. AMD werkte zelfs niet eens aan een complete reeks gloednieuwe GPU's om de score met Nvidia gelijk te trekken. AMD was in plaats daarvan van plan om de Radeon 200-serie om te dopen tot de Radeon 300-serie en zou één nieuwe GPU ontwikkelen om als vlaggenschip te dienen. Al deze GPU's zouden medio 2015 worden gelanceerd, waardoor de volledige GPU-markt bijna een volledig jaar aan Nvidia zou worden gegeven. Nvidia wilde natuurlijk het tapijt onder AMD vandaan trekken en bereidde een gloednieuw vlaggenschip voor.

De GTX 980 Ti, die halverwege 2015 werd gelanceerd, was ongeveer 30% sneller dan de GTX 980, dankzij het aanzienlijk hogere stroomverbruik en de grotere matrijs van iets meer dan 600 mm in het kwadraat. Het versloeg AMD's gloednieuwe R9 Fury X een maand voordat het zelfs werd gelanceerd. Hoewel de Fury X niet slecht was, had hij lagere prestaties dan de 980 Ti, een hoger stroomverbruik en veel minder VRAM. Het was een demonstratie van hoe ver Nvidia voor was met de 900-serie; terwijl AMD haastig probeerde de Fury X de deur uit te krijgen, had Nvidia de 980 Ti op elk gewenst moment kunnen lanceren.

Anandtech heeft het vrij goed verwoord: “Het feit dat ze zo dichtbij komen om vervolgens door Nvidia te slim af te zijn, maakt de huidige situatie des te pijnlijker; het is één ding om met voeten van Nvidia te verliezen, maar om met centimeters te verliezen, herinnert je er alleen aan hoe dichtbij ze kwamen, hoe ze bijna Nvidia van streek maken.”

Nvidia liep technologisch in feite een jaar voor op AMD, en hoewel wat ze met de GTX 900-serie hadden gedaan indrukwekkend was, was het ook een beetje deprimerend. Mensen wilden dat Nvidia en AMD het uitvechten zoals ze in 2012 en 2013 hadden gedaan, maar het begon erop te lijken dat dat allemaal verleden tijd was. De volgende GPU van Nvidia zou dat gevoel zeker bevestigen.

GeForce GTX 1080

De GPU zonder concurrentie behalve zichzelf

De GeForce GTX 1080.
Nvidia

In 2015 had TSMC eindelijk het 16nm-proces voltooid, dat 40% hogere kloksnelheden kon bereiken dan 28nm bij hetzelfde vermogen of de helft van het vermogen van 28nm bij vergelijkbare kloksnelheden. Nvidia was echter van plan om in 2016 naar 16 nm te verhuizen, wanneer het knooppunt volwassener was. Ondertussen had AMD absoluut geen plannen om TSMC's 16nm te gebruiken, maar verhuisde in plaats daarvan om nieuwe GPU's en CPU's te lanceren op het 14nm-proces van GlobalFoundries. Maar laat je niet misleiden door de namen: TSMC's 16nm was en is beter dan GlobalFoundries's 14nm. Na 28 nm werd de nomenclatuur voor processen gebaseerd op marketing in plaats van op wetenschappelijke metingen. Dit betekende dat Nvidia voor het eerst in de moderne GPU-geschiedenis het procesvoordeel had ten opzichte van AMD.

Medio 2016 is de GTX 10-serie gelanceerd, gebaseerd op de nieuwe Pascal-architectuur en TSMC's 16nm-node. Pascal verschilde eigenlijk niet veel van Maxwell, maar de sprong van 28nm naar 16nm was enorm, zoals Intel van 14nm op Skylake naar 10 zeemijl aan het Aldermeer. De GTX 1080 was het nieuwe vlaggenschip en het is moeilijk te overschatten hoe snel hij was. De GTX 980 was iets sneller dan de GTX 780 Ti toen hij uitkwam. Daarentegen, de GTX 1080 was meer dan 30% sneller dan de GTX 980 Ti, en ook voor $ 50 minder. De grootte van de matrijs van de 1080 was ook buitengewoon indrukwekkend, met iets meer dan 300 mm in het kwadraat, bijna de helft van de grootte van de 980 Ti.

Met de 1080 en de rest van de line-up uit de 10-serie nam Nvidia in feite de hele desktop-GPU-markt voor zichzelf. AMD's 300-serie en de Fury X waren simpelweg geen partij. In het middengebied, AMD lanceerde de RX 400-serie, maar dit waren slechts drie low- tot mid-range GPU's die een terugkeer waren naar de small die-strategie, minus het deel waar het vlaggenschip van Nvidia op opvallende afstand was, zoals bij de GTX 280 en de HD 4870. De 1080 was zelfs bijna twee keer zo snel als de RX 480. De enige GPU die AMD echt kon verslaan, was de GTX 1060 uit het middensegment, omdat de iets kleinere GTX 1070 net iets te snel was om te verliezen van de Fury X.

AMD lanceerde uiteindelijk nieuwe high-end GPU's in de vorm van RX Vega, een volledig jaar nadat de 1080 uitkwam. Met een veel hoger stroomverbruik en dezelfde verkoopprijs versloeg het vlaggenschip RX Vega 64 de GTX 1080 met een haar, maar was niet erg competitief. De GTX 1080 was echter niet langer het vlaggenschip van Nvidia; met een relatief kleine matrijs en een volledig jaar om zich voor te bereiden, lanceerde Nvidia een gloednieuw vlaggenschip drie maanden voordat RX Vega zelfs maar gelanceerd werd; het was een herhaling van de 980 Ti. De nieuwe GTX 1080 Ti was zelfs sneller dan de GTX 1080 en leverde nog eens 30% prestatieverbetering op. Zoals Anandtech het uitdrukte, de 1080 Ti "verstevigt [d] Nvidia's dominantie van de high-end videokaartmarkt."

Het falen van AMD om een ​​echt competitieve high-end GPU te leveren, betekende dat de enige echte concurrentie van de 1080 Nvidia's eigen GTX 1080 was Ti. Met de 1080 en de 1080 Ti behaalde Nvidia wat misschien wel de meest complete overwinning is die we tot nu toe hebben gezien in de moderne GPU geschiedenis. In de afgelopen 4 jaar bleef Nvidia zijn technologische voorsprong op AMD vergroten, en het was moeilijk te begrijpen hoe Nvidia ooit zou kunnen verliezen.

GeForce RTX 3080

Cursus corrigeren

RTX 3080 grafische kaart op een tafel.

Na zo'n lange en ongelooflijke reeks overwinningen was het misschien onvermijdelijk dat Nvidia zou bezwijken voor overmoed en uit het oog zou verliezen wat de geweldige GPU's van Nvidia zo geweldig maakte. Nvidia volgde de GTX 10-serie niet op met weer een GPU met verbluffende prestatieverbeteringen, maar met de beruchte RTX 20-serie. Misschien in een poging om AMD uit de GPU-markt te halen, concentreerde Nvidia zich op de introductie hardwareversnelde ray tracing en AI opschalen in plaats van betere prestaties leveren in het algemeen. Als dit lukt, kan Nvidia AMD GPU's irrelevant maken totdat het bedrijf uiteindelijk Radeon GPU's met ingebouwde ray tracing maakt.

De RTX 20-serie was een beetje een flop. Toen de RTX 2080 en 2080 Ti eind 2018 werden gelanceerd, waren er niet eens games die ray tracing ondersteunden of deep learning supersampling (DLSS). Maar Nvidia geprijsde kaarten uit de RTX 20-serie alsof die functies het verschil maakten. Met $ 699 had de 2080 een onzinnige prijs, en het prijskaartje van $ 1.199 van de 2080 Ti was zelfs nog krankzinniger. Nvidia concurreerde niet eens meer met zichzelf.

De prestatieverbetering in bestaande titels was ook buitengewoon teleurstellend; de RTX 2080 was slechts 11% sneller dan de GTX 1080, hoewel de RTX 2080 Ti in ieder geval ongeveer 30% sneller was dan de GTX 1080 Ti.

De volgende twee jaar waren een koerscorrectie voor Nvidia. De dreiging van AMD begon behoorlijk serieus te worden; het bedrijf had eindelijk het procesvoordeel herwonnen door over te stappen op TSMC's 7nm en het bedrijf werd gelanceerd de RX 5700 XT medio 2019. Nvidia kon het opnieuw het hoofd bieden door deze keer nieuwe GPU's te lanceren de RTX 20 Super-serie met een focus op waarde, maar de 5700 XT moet Nvidia zorgen hebben gemaakt. De RTX 2080 Ti was drie keer zo groot, maar slechts 50% sneller, wat betekent dat AMD veel hogere prestaties per millimeter behaalde. Als AMD een grotere GPU zou maken, zou het moeilijk te verslaan kunnen zijn.

Zowel Nvidia als AMD hadden plannen voor een grote confrontatie in 2020. Nvidia herkende het potentieel van AMD en haalde alles uit de kast: het nieuwe 8nm-proces van Samsung, de nieuwe Ampere-architectuur en de nadruk op grote GPU's. AMD bleef ondertussen op het 7nm-proces van TSMC, maar introduceerde de nieuwe RDNA 2-architectuur en zou ook een grote GPU lanceren, de eerste sinds RX Vega in 2017. De laatste keer dat beide bedrijven in hetzelfde jaar gloednieuwe vlaggenschepen lanceerden, was in 2013, bijna tien jaar geleden. Hoewel de pandemie de plannen van beide bedrijven dreigde te verpesten, was geen van beide bedrijven bereid de volgende generatie uit te stellen en lanceerde ze zoals gepland.

Nvidia schoot als eerste met de RTX 30-serie, geleid door het vlaggenschip RTX 3090, maar de meeste focus lag op de RTX 3080, aangezien deze met $ 699 veel betaalbaarder was dan de $ 1.499 3090. In plaats van een herhaling te zijn van de RTX 20-serie, de 3080 leverde een aanzienlijke prestatieverbetering van 30% bij 4K over de RTX 2080 Ti, hoewel het stroomverbruik een beetje hoog was. Bij lagere resoluties was de prestatiewinst van de 3080 iets minder, maar aangezien de 3080 zeer capabel was bij 4K, was het gemakkelijk om dit over het hoofd te zien. De 3080 profiteerde ook van een grotere verscheidenheid aan games die ray tracing en DLSS ondersteunen, waardoor het waardevol is om een ​​Nvidia GPU met die functies te hebben.

Dit zou natuurlijk niet uitmaken als de 3080 en de rest van de RTX 30-serie niet bestand zouden zijn tegen AMD's nieuwe RX 6000-serie, die twee maanden later werd gelanceerd. Voor $ 649 was de RX 6800 XT het antwoord van AMD op de RTX 3080. Met bijna identieke prestaties in de meeste games en bij de meeste resoluties deed de strijd tussen de 3080 en de 6800 XT denken aan de GTX 680 en de HD 7970. Elk bedrijf had zijn voor- en nadelen, waarbij AMD toonaangevend was op het gebied van energie-efficiëntie en prestaties terwijl Nvidia betere prestaties had op het gebied van ray tracing en ondersteuning voor andere functies zoals A.I. opschalen.

De opwinding over een nieuwe aflevering in de GPU-oorlog ebde echter snel weg, omdat dat al snel duidelijk werd niemand kon RTX 30 of RX 6000 of zelfs maar welke GPU's dan ook kopen. De pandemie had het aanbod ernstig verminderd, terwijl crypto de vraag deed toenemen en scalpers zoveel mogelijk GPU's weggristen. Op het moment van schrijven is het tekort grotendeels voorbij, maar de meeste Nvidia GPU's worden nog steeds verkocht voor meestal $ 100 of meer boven de adviesprijs. Gelukkig kunnen geavanceerde GPU's zoals de RTX 3080 dichter bij de adviesprijs worden gevonden dan kaarten uit de lagere 30-serie, waardoor de 3080 een haalbare optie blijft.

Over het algemeen was de RTX 3080 een broodnodige correctie van Nvidia. Hoewel de 3080 het einde betekende van Nvidia's bijna totale dominantie van de desktop GPU-markt, is het moeilijk om het bedrijf niet de eer te geven dat het niet heeft verloren van AMD. De RX 6000-serie heeft immers een veel beter proces en AMD is de afgelopen jaren extreem agressief geweest. En bovendien is het goed om eindelijk een spannende race tussen Nvidia en AMD te zien, waarbij beide partijen heel hard hun best doen om te winnen.

Dus wat nu?

In tegenstelling tot AMD houdt Nvidia zijn kaarten altijd dicht bij de borst en onthult zelden informatie over aankomende producten. We kunnen er vrij zeker van zijn de aankomende RTX 40-serie wordt ergens dit jaar gelanceerd, maar al het andere is onzeker. Een van de interessantere geruchten is dat Nvidia TSMC's 5nm zal gebruiken voor RTX 40 GPU's, en als dit waar is, betekent dit dat Nvidia weer pariteit zal hebben met AMD.

Maar ik denk dat zolang RTX 40 geen andere RTX 20 is en meer low-end en mid-range opties biedt dan RTX 30, Nvidia een goed genoeg product van de volgende generatie zou moeten hebben. Ik zou heel graag willen dat het zo goed is dat het de lijst met beste Nvidia GPU's aller tijden maakt, maar we zullen moeten afwachten.

Aanbevelingen van de redactie

  • De eerste prestatiecijfers voor AMD's verwachte nieuwe GPU's lekken uit
  • Zelfs de partners van Nvidia geloven niet in de nieuwe RTX 4060 Ti
  • Deze mysterieuze Nvidia GPU is een absoluut wangedrocht - en we hebben net nog eens gekeken
  • Waarom Nvidia's gloednieuwe GPU slechter presteert dan geïntegreerde graphics
  • Nvidia's belangrijkste next-gen GPU is minder dan 2 weken verwijderd