De 5 verste Nvidia GPUene gjennom tidene

Nvidia har en sterk stamtavle for å lage flotte grafikkort. Det har egentlig aldri vært underdog og dens beste GPU-er overstrålet de til konkurrenten AMD igjen og igjen. Men til tross for Nvidias forkjærlighet for innovasjon og teknologiske fremskritt, har den lagt ut ganske mange avskyelige kort, ikke nødvendigvis forbannet av dårlig teknologi, men ofte av dårlig beslutningstaking. La oss mimre på noen Nvidia GPUer vi skulle ønske vi kunne glemme.

Innhold

  • GeForce GTX 480
  • GeForce GTX 970
  • GeForce GTX 1060 3GB
  • GeForce RTX 2080
  • GeForce RTX 3080 12GB
  • Nvidias verste GPUer, så langt

GeForce GTX 480

Slik det er ment å grilles

Nvidia GeForce GTX 480.
Hyins

Selv om Nvidia har vært i virksomhet i over 20 år nå, er det egentlig bare én GPU selskapet noen gang har lagt ut som var virkelig forferdelig på et teknologisk nivå, og det er GTX 480. Drevet av Fermi-arkitekturen ble GTX 480 (og hele 400-serien i forlengelse) plaget av mengder av problemer som igjen gjorde det mulig for AMD å bli den ledende grafikkbrikkeprodusenten og nesten overta Nvidia i markedet dele.

Anbefalte videoer

480-tallets største påstand om berømmelse (eller beryktelse) var strømforbruket og varme. I Anandtechs testing fant den det en enkelt GTX 480 forbrukte like mye strøm som to GPU-systemer og det kunne bli så varmt som 94 C i vanlige spill, noe som på den tiden var vanvittig. Det var en uheldig tilfeldighet at lagerkjøleren fra 480-tallet så ut som en grill, noe som fikk kritikere for å gjøre Nvidias «slik det er ment å bli spilt»-slagord til «slik det er ment å være grillet."

For å gjøre vondt verre var Fermi forsinket til festen med omtrent 6 måneder, da AMDs HD 5000-serie ble lansert først. Jada, 480 var det raskeste grafikkortet med bare én GPU-die, men AMDs HD 5870 hadde 90 % av ytelsen uten å være en brødrister. Dessuten var AMDs HD 5970 med to GPU-dies raskere, og i 2010 hadde CrossFire mye bedre støtte i spill. Sist men ikke minst var prislappen på 480 $ 500 bare for høy til å gjøre den konkurransedyktig.

Nvidia endte opp med å drepe GTX 400-serien på en vanvittig måte bare åtte måneder senere ved å lansere GTX 500-serien, som i utgangspunktet var en fast versjon av Fermi. Den nye GTX 580 var raskere enn GTX 480, forbrukte mindre strøm og hadde samme prislapp.

GeForce GTX 970

3,5 tilsvarer 4

Da den først kom ut, ble GTX 970 faktisk veldig godt mottatt, omtrent som andre 900-seriekort drevet av den legendariske Maxwell-arkitekturen. Den kostet $329 og var like rask som AMDs 2013-flaggskip R9 290X mens den forbrukte betydelig mindre strøm. Etter Anandtechs mening var det en sterk utfordrer til generasjonens mest verdifulle. Så, hva gjorde 970 så dårlig at den havnet på denne listen?

Vel, noen måneder etter at 970 kom ut, kom det frem ny informasjon om spesifikasjonene. Selv om GPUen hadde 4 GB GDDR5 VRAM, var bare 3,5 GB av den brukbar i full hastighet, med de resterende halv GB kjører knapt noe raskere enn DDR3, systemminnet en GPU vil gå til hvis den går tom for VRAM. For alle formål var 970 en 3,5 GB GPU, ikke en 4 GB, og dette førte til et søksmål som Nvidia avgjorde utenfor retten, betaler hver 970 eier $30 hver.

I virkeligheten var ytelsesimplikasjonene av å ha en halv gigabyte mindre VRAM i utgangspunktet ikke-eksisterende ifølge Anandtech. På den tiden var de fleste spill som krevde mer enn 3,5 GB VRAM bare for intensive i utgangspunktet, selv for GTX 980 som hadde hele 4 GB VRAM.

Nå for tiden, det er noen spill hvor 970 sliter på grunn av dens suboptimale minnekonfigurasjon. Men ytelse er ikke poenget her; til syvende og sist løy Nvidia mer eller mindre om hva GTX 970 hadde, og det er ikke akseptabelt og setter virkelig flekker på arven til et ellers flott kort. Dessverre er det å spille raskt og løst med GPU-spesifikasjoner en vane som Nvidia har hatt problemer med å bryte siden den gang.

GeForce GTX 1060 3GB

Ceci n’est pas une 1060

Beste grafikkort for spill

Etter 970-debakelen forsøkte Nvidia aldri å lage en annen GPU som hadde et tregt segment av VRAM og sørget for at hvert kort ble annonsert med riktig mengde minne. Nvidia fant imidlertid en annen spesifikasjon som var lettere å rote med: CUDA-kjerneantall.

Før 10-serien var det vanlig å se GPUer med flere (vanligvis to) versjoner som skilte seg i VRAM-kapasitet, for eksempel GTX 960 2GB og GTX 960 4GB. GPUer med mer VRAM var nettopp det; de hadde ikke engang mer minnebåndbredde i de aller fleste tilfeller. Men det hele begynte å endre seg med Nvidias 10-serie, som introduserte GPUer som GTX 1060 3GB. På overflaten høres det ut som en GTX 1060 med halvparten av de normale 6 GB, men det er en hake: den hadde færre kjerner også.

Som et faktisk produkt var GTX 1060 3GB farbar, ifølge anmeldere som Techspot og Guru3D, som ikke engang brydde seg om det reduserte kjernetallet. Men 1060 3 GB innledet en byge av GPU-varianter som hadde både mindre VRAM og færre kjerner, og ærlig talt har denne trenden ikke forårsaket annet enn forvirring. Kjernetellingen til GPUen er uten tvil det som gjør forskjellige GPU-modeller forskjellige, med VRAM bare en sekundær faktor for ytelse.

Det verste eksemplet på at Nvidia gjorde dette agnet og byttet ville vært RTX 4080 12GB, som skulle ha bare 78% av kjernene til RTX 4080 16GB, slik at det føles mer som en RTX 4070 enn noe annet. Tilbakeslaget til dette var imidlertid så intenst at Nvidia kansellerte faktisk RTX 4080 12GB, som (u) heldigvis betyr at den aldri vil være på denne listen.

GeForce RTX 2080

Ett skritt frem og to tilbake

RTX 2080
Riley Young/Digitale Trender

Med GTX 10-serien oppnådde Nvidia total dominans i GPU-markedet; kort som GTX 1080 Ti og GTX 1080 er lett noen av Nvidias beste GPUer gjennom tidene. Nvidia sa heller ikke farten ettersom neste generasjons RTX 20-serie introduserte sanntidsstrålesporing og AI-drevet oppskalering av oppløsning. 20-serien var langt mer teknologisk avansert enn 10-serien, som i utgangspunktet var 900-serien på en bedre node.

Faktisk tenkte Nvidia så høyt på sin nye teknologi at den ga RTX 20-serien den typen prislappen den mente den burde fortjene, med RTX 2080 som kommer inn på $800 og RTX 2080 Ti på $1,200. Ray tracing og DLSS var det neste store, så det kom til å veie opp for det, mente Nvidia. Bortsett fra, det var ikke åpenbart for noen fordi på lanseringsdagen var det ingen spill med ray tracing eller DLSS, og det ville det ikke være på flere måneder. Først da RTX 30-kort kom ut, var det mange spill med støtte for disse nye funksjonene.

RTX 2080 var en spesielt dårlig 20-serie GPU. Det var $100 eller så dyrere enn GTX 1080 Ti mens de har litt mindre ytelse i henhold til vår testing; i det minste kunne 2080 Ti hevde å være omtrent 25 % raskere enn det gamle flaggskipet. Selv når ray tracing og DLSS kom inn, var det så intensivt å aktivere ray tracing at det slet med å nå 60 fps i de fleste titler, mens DLSS 1.0 rett og slett ikke så veldig bra ut. Da DLSS 2 kom ut tidlig i 2020, RTX 30 var like over horisonten.

Nvidia hadde overspilt hånden sin, og den visste det. Bare åtte måneder etter at 20-serien ble lansert, ga Nvidia ut sine RTX 20 Super GPUer, en tilbakevending til GTX 500-serien og hvordan den lappet 400-serien. De nye Super-variantene av 2060, 2070 og 2080 inneholdt flere kjerner, bedre minne og lavere prislapper, noe som løste problemene med den originale 20-serien.

GeForce RTX 3080 12GB

Hvordan gjøre en god GPU forferdelig

RTX 3080 grafikkort på rosa bakgrunn.
Jacob Roach / Digitale trender

Så vi har sett hva som skjer når Nvidia tar en god GPU og kutter VRAM- og kjernetellingen ned uten å endre navnet, men hva skjer når den tar en god GPU og legger til flere VRAM og kjerner? Å lage en god GPU enda raskere høres ut som en god idé! Vel, når det gjelder RTX 3080 12GB, resulterte det i etableringen av det som kan være Nvidias mest meningsløse GPU på alle måter.

Sammenlignet med den originale RTX 3080 10GB3080 12GB var faktisk ikke mye av en oppgradering. Som andre Nvidia GPUer med mer minne, hadde den også flere kjerner, men bare omtrent 3 % flere. I vår anmeldelse fant vi at 10GB og 12GB-modellene hadde nesten identisk ytelse, veldig ulikt hvordan 1060 3GB var merkbart tregere enn 1060 6GB. Til Nvidias kreditt var navnet på 3080 12GB ganske nøyaktig, en merkbar forbedring i forhold til 1060 3GB.

Så, hva er problemet med å tilby en ny versjon av en GPU med mer minne? Vel, Nvidia ga ut 3080 12GB under GPU-mangelen i 2020-2022, og naturligvis solgte den for en absurd høy pris hvor som helst mellom $1.250 og $1.600. I mellomtiden ble 10 GB-varianter solgt for $300 til 400 mindre, og siden minneoppgraderingen tydeligvis ikke spilte noen rolle, var det åpenbart hvilket kort du skulle kjøpe.

Det kanskje mest pinlige for 3080 12GB var ikke den billigere 10GB-versjonen, men eksistensen av RTX 3080 Ti, som hadde samme minnestørrelse og båndbredde som 3080 12GB. Saken er at den også hadde 14 % flere kjerner og følgelig betydelig høyere ytelse. På gjennomgangsdagen var 3080 Ti billigere, noe som gjorde 3080 12GB meningsløs fra bokstavelig talt alle vinkler og bare enda et kort som ble utgitt under mangelen som ikke ga noen mening i det hele tatt.

Nvidias verste GPUer, så langt

Til Nvidias ære hadde selv de fleste av de verste GPU-ene noe for seg: 970 var bra til tross av minnet ble 1060 3GB bare navngitt dårlig, og RTX 2080 ble bare overpriset med rundt $200. Nvidia har gjort svært få teknologiske feil så langt, og til og med GTX 480 var i det minste det raskeste grafikkortet med bare en enkelt GPU-die.

Når det er sagt, kan ikke god teknologi veie opp for dårlige forretningsbeslutninger som dårlige navnekonvensjoner og ublu priser, og dette er feil som Nvidia gjør hvert år. Dessverre ser det ikke ut til at noen av disse tingene forsvinner med det første, med RTX 4080 12GB nesten på markedet mens RTX 4080 og RTX 4090Selv om de er utmerkede kort, er de rett og slett altfor dyre til å gi mening.

Det var ikke vanskelig å forutsi det Nvidias GPUer ville fortsette å bli dyrere og dyrere, og jeg forventer fullt ut at denne trenden vil fortsette i fremtiden. Nvidias nest verste GPU vil ikke bli sviktet av lyssky markedsføring eller villedende merkevarebygging eller teknologiske tabber, men av prisen alene. Vi ville være heldige å se at RTX 4070 ikke koster mer enn AMDs kommende RX 7900 XTX.

Redaktørenes anbefalinger

  • Nvidias fredstilbud fungerer ikke
  • Selv Nvidias partnere tror ikke på den nye RTX 4060 Ti
  • Denne mystiske Nvidia GPUen er en absolutt uhyrlighet - og vi har nettopp fått et nytt utseende
  • Nvidia RTX 4090-kabler kan smelte på en bekymringsfull ny måte
  • Nvidias viktigste neste generasjons GPU er mindre enn 2 uker unna