Nvidia heeft een sterke achtergrond in het maken van geweldige grafische kaarten. Het is nooit echt de underdog geweest en de beste GPU's overtroffen die van zijn rivaal AMD keer op keer. Maar ondanks Nvidia’s hang naar innovatie en technologische vooruitgang heeft het een flink aantal afschuwelijke kaarten op de markt gebracht, die niet noodzakelijkerwijs vervloekt zijn door slechte technologie, maar vaak door slechte besluitvorming. Laten we herinneringen ophalen aan enkele Nvidia GPU’s die we graag zouden willen vergeten.
Inhoud
- GeForce GTX 480
- GeForce GTX970
- GeForce GTX 1060 3GB
- GeForce RTX 2080
- GeForce RTX3080 12 GB
- Nvidia's slechtste GPU's tot nu toe
GeForce GTX 480
Zoals het bedoeld is om gegrild te worden
![De Nvidia GeForce GTX480.](/f/2a1980e91fca1c9c03fd650a409fe283.jpg)
Hoewel Nvidia nu al meer dan twintig jaar actief is, is er eigenlijk maar één GPU die het bedrijf ooit op de markt heeft gebracht die echt verschrikkelijk was op technologisch vlak, en dat is de GTX 480. Aangedreven door de Fermi-architectuur werd de GTX 480 (en bij uitbreiding de hele 400-serie) geplaagd door massa's problemen die er op hun beurt voor zorgden dat AMD de leidende fabrikant van grafische chips werd en Nvidia bijna inhaalde op de markt deel.
Aanbevolen video's
De grootste aanspraak op roem (of schande) van de 480 was het stroomverbruik en de warmte. Uit de tests van Anandtech bleek dat een enkele GTX 480 verbruikte evenveel stroom als dubbele GPU-systemen en het kon in normale games wel 94 graden Celsius worden, wat destijds krankzinnig was. Het was een ongelukkig toeval dat de voorraadkoeler van de 480 op een grill leek tegenstanders om de slogan van Nvidia ‘zoals het bedoeld is om gespeeld te worden’ om te zetten in ‘zoals het bedoeld is’ gegrild.”
Tot overmaat van ramp was Fermi ongeveer zes maanden te laat op het feest, toen AMD's HD 5000-serie als eerste werd gelanceerd. Zeker, de 480 was de snelste grafische kaart met slechts één GPU-chip, maar AMD's HD 5870 had 90% van de prestaties zonder een broodrooster te zijn. Bovendien was AMD's HD 5970 met twee GPU-chips sneller, en in 2010 had CrossFire veel betere ondersteuning in games. Last but not least was het prijskaartje van $ 500 van de 480 gewoon te hoog om hem concurrerend te maken.
Nvidia beëindigde de GTX 400-serie slechts acht maanden later op schandelijke wijze door de GTX 500-serie te lanceren, die in feite een vaste versie van Fermi was. De nieuwe GTX 580 was sneller dan de GTX 480, verbruikte minder stroom en had hetzelfde prijskaartje.
GeForce GTX970
3,5 is gelijk aan 4
![](/f/9fcd4d3df4b0e7b6494e7c901488a09f.jpg)
Toen hij voor het eerst uitkwam, werd de GTX 970 eigenlijk heel goed ontvangen, net als andere kaarten uit de 900-serie, aangedreven door de legendarische Maxwell-architectuur. Het kostte $ 329 en was net zo snel als AMD's vlaggenschip R9 290X uit 2013, terwijl het aanzienlijk minder stroom verbruikte. Volgens Anandtech was het een sterke kanshebber voor de kampioen met de beste waarde van de generatie. Wat deed de 970 zo slecht dat hij op deze lijst terechtkwam?
Welnu, een paar maanden nadat de 970 uitkwam, kwam er nieuwe informatie aan het licht over de specificaties. Hoewel de GPU 4 GB GDDR5 VRAM had, was slechts 3,5 GB daarvan bruikbaar op volle snelheid, terwijl de resterende een halve GB is nauwelijks sneller dan DDR3, het systeemgeheugen waar een GPU naartoe gaat als deze leeg raakt VRAM. In alle opzichten was de 970 een GPU van 3,5 GB, niet een GPU van 4 GB, en dit leidde tot een rechtszaak die Nvidia buiten de rechtbank schikte, waarbij elke 970-eigenaar elk $ 30 betaalt.
In werkelijkheid waren de prestatie-implicaties van een halve gigabyte minder VRAM hetzelfde volgens Anandtech bestaat het feitelijk niet. Destijds waren de meeste games die meer dan 3,5 GB VRAM vereisten in de eerste plaats gewoon te intensief, zelfs voor de GTX 980 die de volledige 4 GB VRAM had.
Tegenwoordig, er zijn een paar games waarin de 970 het moeilijk heeft vanwege de suboptimale geheugenconfiguratie. Maar prestatie is hier niet het punt; Uiteindelijk heeft Nvidia min of meer gelogen over wat de GTX 970 had, en dat is niet acceptabel en besmeurt echt de erfenis van een verder geweldige kaart. Helaas is het snel en los spelen met GPU-specificaties een gewoonte die Nvidia sindsdien moeilijk heeft kunnen doorbreken.
GeForce GTX 1060 3GB
Ceci n'est pas une 1060
![Beste grafische kaart voor gaming](/f/41f862e24b299da3dbb93c441417a2a4.jpg)
Na het 970-debacle heeft Nvidia nooit geprobeerd nog een GPU te maken met een langzaam VRAM-segment en zorgde ervoor dat elke kaart werd geadverteerd met de juiste hoeveelheid geheugen. Nvidia vond echter een andere specificatie waar gemakkelijker mee te knoeien was: het aantal CUDA-cores.
Vóór de 10-serie was het gebruikelijk om GPU's te zien met meerdere (meestal twee) versies die verschilden in VRAM-capaciteit, zoals de GTX 960 2GB en de GTX 960 4GB. GPU's met meer VRAM waren precies dat; in de overgrote meerderheid van de gevallen hadden ze niet eens meer geheugenbandbreedte. Maar dat begon allemaal te veranderen met de 10-serie van Nvidia, die GPU's zoals de GTX 1060 3GB introduceerde. Op het eerste gezicht klinkt het als een GTX 1060 met de helft van de normale 6 GB, maar er zit een addertje onder het gras: hij had ook minder cores.
Als een echt product was de GTX 1060 3GB redelijk, aldus recensenten Techspot En Guru3D, die het verlaagde aantal kernen niet eens erg vond. Maar de 1060 3GB luidde een spervuur aan GPU-varianten in die zowel minder VRAM als minder cores hadden, en eerlijk gezegd heeft deze trend alleen maar verwarring veroorzaakt. Het aantal cores van de GPU is waarschijnlijk wat verschillende GPU-modellen anders maakt, waarbij de VRAM slechts een secundaire prestatiefactor is.
Het slechtste voorbeeld van Nvidia die dit aas en deze overstap deed, zou de RTX 4080 12GB zijn geweest, die slechts 78% van de kernen van de RTX4080 16GB, waardoor het meer aanvoelt als een RTX 4070 dan iets anders. De reactie hierop was echter zo intens dat Nvidia heeft de RTX 4080 12GB feitelijk geannuleerd, wat (on)gelukkig betekent dat het nooit op deze lijst zal staan.
GeForce RTX 2080
Eén stap vooruit en twee achteruit
![RTX2080](/f/070cf7ed2fc9d9bf1b4e78c912d66b3d.jpg)
Met de GTX 10-serie behaalde Nvidia een totale dominantie op de GPU-markt; kaarten zoals de GTX 1080 Ti en de GTX 1080 zijn daar gemakkelijk enkele van Nvidia's beste GPU's aller tijden. Nvidia vertraagde ook niet, aangezien de volgende generatie RTX 20-serie realtime ray tracing en AI-aangedreven resolutie-opschaling introduceerde. De 20-serie was technologisch veel geavanceerder dan de 10-serie, die in feite de 900-serie op een beter knooppunt was.
Nvidia had zelfs zoveel waardering voor zijn nieuwe technologie dat het de RTX 20-serie het soort gaf prijskaartje dat het dacht te moeten verdienen, waarbij de RTX 2080 $ 800 zou kosten en de RTX 2080 Ti $ 800 zou kosten. $1,200. Ray tracing en DLSS waren de volgende grote stap, dus dat zou het goedmaken, dacht Nvidia. Alleen was dat voor niemand duidelijk, want op de dag van de lancering waren er geen games met ray tracing of DLSS, en dat zou maandenlang niet zo zijn. Pas tegen de tijd dat RTX 30-kaarten uitkwamen, waren er veel games met ondersteuning voor deze nieuwe functies.
De RTX 2080 was een bijzonder slechte GPU uit de 20-serie. Het was ongeveer $ 100 duurder dan de GTX 1080 Ti terwijl we volgens onze tests iets minder presteren; de 2080 Ti zou in ieder geval kunnen beweren dat hij ongeveer 25% sneller is dan het oude vlaggenschip. Zelfs toen ray tracing en DLSS een rol gingen spelen, was het mogelijk maken van ray tracing zo intensief dat het had in de meeste titels moeite om 60 fps te halen, terwijl DLSS 1.0 er simpelweg niet zo goed uitzag. Tegen de tijd dat DLSS 2 begin 2020 uitkwam, RTX 30 was net over de horizon.
Nvidia had zijn hand overspeeld, en dat wist het bedrijf. Slechts acht maanden na de lancering van de 20-serie bracht Nvidia zijn RTX 20 Super GPU's uit, een terugkeer naar de GTX 500-serie en hoe deze de 400-serie patchte. De nieuwe Super-varianten van de 2060, 2070 en 2080 hadden meer cores, beter geheugen en lagere prijskaartjes, waarmee de problemen van de originele 20-serie enigszins werden opgelost.
GeForce RTX3080 12 GB
Hoe je een goede GPU verschrikkelijk kunt maken
![RTX 3080 grafische kaart op een roze achtergrond.](/f/d72b4d0d0725a7914c0f0e66a6007d7e.jpg)
We hebben dus gezien wat er gebeurt als Nvidia een goede GPU neemt en het VRAM- en core-aftellen verlaagt zonder de naam te veranderen, maar wat gebeurt er als er een goede GPU voor nodig is en meer VRAM en cores worden toegevoegd? Een goede GPU nog sneller maken klinkt als een geweldig idee! Welnu, in het geval van de RTX 3080 12GB resulteerde dit in de creatie van wat in alle opzichten de meest zinloze GPU van Nvidia zou kunnen zijn.
Vergeleken met de originele RTX 3080 10GBwas de 3080 12 GB eigenlijk niet echt een upgrade. Net als andere Nvidia GPU's met meer geheugen had deze ook meer cores, maar slechts ongeveer 3% meer. In onze review ontdekten we dat de 10GB- en 12GB-modellen vrijwel identieke prestaties geleverd, heel anders dan hoe de 1060 3GB merkbaar langzamer was dan de 1060 6GB. Het strekt Nvidia tot eer dat de naam van de 3080 12GB behoorlijk accuraat was, een merkbare verbetering ten opzichte van de 1060 3GB.
Wat is het probleem met het aanbieden van een nieuwe versie van een GPU met meer geheugen? Nou, Nvidia bracht de 3080 12GB uit tijdens het GPU-tekort van 2020-2022, en uiteraard werd hij voor een absurd hoge prijs verkocht, ergens tussen de $ 1.250 en $ 1.600. Ondertussen werden varianten van 10 GB verkocht voor $ 300 tot 400 minder, en aangezien de geheugenupgrade er duidelijk niet toe deed, was het duidelijk welke kaart je moest kopen.
Misschien wel het meest gênante voor de 3080 12GB was niet de goedkopere 10GB-versie, maar het bestaan van de RTX 3080 Ti, die dezelfde geheugengrootte en bandbreedte had als de 3080 12GB. Het punt is dat het ook 14% meer cores had en daardoor aanzienlijk hogere prestaties. Op de beoordelingsdag was de 3080 Ti goedkoper, waardoor de 3080 12 GB vanuit letterlijk elke hoek zinloos was en gewoon weer een kaart die tijdens het tekort werd uitgebracht en die helemaal nergens op sloeg.
Nvidia's slechtste GPU's tot nu toe
Het strekt Nvidia tot eer dat zelfs de meeste van zijn slechtste GPU's iets te bieden hadden: de 970 was ondanks alles goed van zijn geheugen kreeg de 1060 3GB gewoon een slechte naam, en de RTX 2080 was gewoon ongeveer $ 200 te duur. Nvidia heeft tot nu toe heel weinig technologische fouten gemaakt, en zelfs de GTX 480 was op zijn minst de snelste grafische kaart met slechts één GPU-chip.
Dat gezegd hebbende, kan goede technologie slechte zakelijke beslissingen, zoals slechte naamgevingsconventies en exorbitante prijzen, niet goedmaken, en dit zijn fouten die Nvidia elk jaar blijft maken. Helaas lijkt het er niet op dat een van deze dingen binnenkort zal verdwijnen, waarbij de RTX 4080 12GB bijna op de markt komt, terwijl de RTX 4080 en RTX4090, hoewel uitstekende kaarten, gewoon veel te duur zijn om zinvol te zijn.
Het was niet moeilijk om dat te voorspellen De GPU's van Nvidia zouden steeds duurder worden, en ik verwacht ten volle dat deze trend zich in de toekomst zal voortzetten. De op één na slechtste GPU van Nvidia zal niet in de steek worden gelaten door duistere marketing of misleidende branding of technologische blunders, maar alleen door de prijs. We zouden het geluk hebben als de RTX 4070 niet meer zou kosten dan AMD's aankomende RX 7900 XTX.
Aanbevelingen van de redactie
- Het vredesaanbod van Nvidia werkt niet
- Zelfs de partners van Nvidia geloven niet in de nieuwe RTX 4060 Ti
- Deze mysterieuze Nvidia GPU is een absoluut monster – en we hebben er zojuist nog eens naar gekeken
- Nvidia RTX 4090-kabels smelten mogelijk op een zorgwekkende nieuwe manier
- Nvidia’s belangrijkste next-gen GPU is over minder dan 2 weken beschikbaar