Nvidia har en stærk stamtavle til at lave fantastiske grafikkort. Det har aldrig rigtig været underdog og dens største GPU'er overstrålede dem fra sin rival AMD igen og igen. Men på trods af Nvidias forkærlighed for innovation og teknologiske fremskridt, har det lagt en del afskyelige kort ud, forbandet ikke nødvendigvis af dårlig teknologi, men ofte af dårlig beslutningstagning. Lad os minde om nogle Nvidia GPU'er, vi ville ønske, vi kunne glemme.
Indhold
- GeForce GTX 480
- GeForce GTX 970
- GeForce GTX 1060 3GB
- GeForce RTX 2080
- GeForce RTX 3080 12GB
- Nvidias værste GPU'er indtil videre
GeForce GTX 480
Måden det er ment til at blive grillet
Selvom Nvidia har været i drift i over 20 år nu, er der virkelig kun én GPU, som virksomheden nogensinde har udgivet, som var virkelig forfærdelig på et teknologisk niveau, og det er GTX 480. Drevet af Fermi-arkitekturen var GTX 480 (og hele 400-serien i forlængelse heraf) plaget af et væld af problemer, som igen gjorde det muligt for AMD at blive den førende producent af grafikchips og næsten overhale Nvidia på markedet del.
Anbefalede videoer
480'ernes største påstand om berømmelse (eller skændsel) var dens strømforbrug og varme. I Anandtechs test fandt den det et enkelt GTX 480 forbrugte lige så meget strøm som to GPU-systemer og det kunne blive så varmt som 94 C i normale spil, hvilket på det tidspunkt var sindssygt. Det var et uheldigt sammentræf, at 480'er-lagerkøleren lignede en grill, hvilket fik modstandere for at forvandle Nvidias "sådan som det er ment at blive spillet"-slogan til "sådan som det er ment at være grillet."
For at gøre ondt værre var Fermi forsinket til festen med omkring 6 måneder, da AMDs HD 5000-serie blev lanceret først. Sikker på, 480 var det hurtigste grafikkort med kun én GPU-matrice, men AMD's HD 5870 havde 90% af ydeevnen uden at være en brødrister. Desuden var AMDs HD 5970 med to GPU-dies hurtigere, og i 2010 havde CrossFire meget bedre support i spil. Sidst, men ikke mindst, var 480'erens pris på 500 $ bare for høj til at gøre den konkurrencedygtig.
Nvidia endte med at slå GTX 400-serien ihjel blot otte måneder senere ved at lancere GTX 500-serien, som dybest set var en fast version af Fermi. Den nye GTX 580 var hurtigere end GTX 480, forbrugte mindre strøm og havde samme prisskilt.
GeForce GTX 970
3,5 er lig med 4
Da det først kom ud, blev GTX 970 faktisk meget godt modtaget, ligesom andre kort i 900-serien drevet af den legendariske Maxwell-arkitektur. Det var $329 og var lige så hurtigt som AMDs 2013 flagskib R9 290X, mens det forbrugte betydeligt mindre strøm. Efter Anandtechs mening var det en stærk kandidat til generationens bedste værdimester. Så hvad gjorde 970'eren så dårligt, at den endte på denne liste?
Nå, et par måneder efter at 970'eren kom ud, kom der nye oplysninger frem om dens specifikationer. Selvom GPU'en havde 4 GB GDDR5 VRAM, var kun 3,5 GB af den brugbar ved fuld hastighed, med de resterende halv GB kører næsten ikke hurtigere end DDR3, den systemhukommelse en GPU vil gå til, hvis den løber tør for VRAM. For alt i verden var 970 en 3,5 GB GPU, ikke en 4 GB, og dette førte til en retssag, som Nvidia afgjorde uden for retten, betaler hver 970 ejer $30 hver.
I virkeligheden var præstationskonsekvenserne af at have en halv gigabyte mindre VRAM stort set ikke-eksisterende ifølge Anandtech. På det tidspunkt var de fleste spil, der krævede mere end 3,5 GB VRAM, bare for intensive i første omgang, selv for GTX 980, som havde hele 4 GB VRAM.
I dag, der er et par spil, hvor 970'eren kæmper på grund af dens suboptimale hukommelseskonfiguration. Men ydeevne er ikke pointen her; i sidste ende løj Nvidia mere eller mindre om, hvad GTX 970 havde, og det er ikke acceptabelt og pletter virkelig arven fra et ellers fantastisk kort. Desværre er det en vane at spille hurtigt og løst med GPU-specifikationer, som Nvidia har haft problemer med at bryde lige siden.
GeForce GTX 1060 3GB
Ceci n’est pas une 1060
Efter 970-debaclet forsøgte Nvidia aldrig at lave en anden GPU, der havde et langsomt segment af VRAM og sørgede for, at hvert kort blev annonceret med den korrekte mængde hukommelse. Nvidia fandt dog en anden specifikation, der var nemmere at rode med: CUDA-kernetal.
Før 10-serien var det almindeligt at se GPU'er med flere (normalt to) versioner, der adskilte sig i VRAM-kapacitet, såsom GTX 960 2GB og GTX 960 4GB. GPU'er med mere VRAM var netop det; de havde ikke engang mere hukommelsesbåndbredde i langt de fleste tilfælde. Men det hele begyndte at ændre sig med Nvidias 10-serie, som introducerede GPU'er som GTX 1060 3GB. På overfladen lyder det som en GTX 1060 med halvdelen af de normale 6 GB, men der er en fangst: den havde også færre kerner.
Som et faktisk produkt var GTX 1060 3GB acceptabel, ifølge anmeldere som Techspot og Guru3D, som ikke engang havde noget imod det sænkede antal kerner. Men de 1060 3GB indvarslede en byge af GPU-varianter, der havde både mindre VRAM og færre kerner, og ærligt talt har denne tendens ikke forårsaget andet end forvirring. Kernetallet i GPU'en er uden tvivl det, der gør forskellige modeller af GPU'er forskellige, hvor VRAM blot er en sekundær faktor for ydeevne.
Det værste eksempel på, at Nvidia gjorde denne lokkemad og switch, ville have været RTX 4080 12GB, som skulle have kun 78% af kernerne i RTX 4080 16GB, hvilket får det til at føles mere som en RTX 4070 end noget andet. Modreaktionen til dette var dog så intens, at Nvidia har faktisk annulleret RTX 4080 12GB, hvilket (u) heldigvis betyder, at det aldrig vil være på denne liste.
GeForce RTX 2080
Et skridt frem og to tilbage
Med GTX 10-serien opnåede Nvidia total dominans på GPU-markedet; kort som GTX 1080 Ti og GTX 1080 er nemt nogle af Nvidias bedste GPU'er nogensinde. Nvidia bremsede heller ikke farten, da dens næste generation af RTX 20-serien introducerede strålesporing i realtid og AI-drevet opløsningsopskalering. 20-serien var langt mere teknologisk avanceret end 10-serien, som dybest set var 900-serien på en bedre node.
Faktisk tænkte Nvidia så højt på sin nye teknologi, at det gav RTX 20-serien den slags pris, den mente, den burde fortjene, med RTX 2080 på $800 og RTX 2080 Ti på $1,200. Ray tracing og DLSS var den næste store ting, så det ville råde bod på det, mente Nvidia. Bortset fra, det var ikke indlysende for nogen, for på lanceringsdagen var der ingen spil med ray tracing eller DLSS, og det ville der ikke være i flere måneder. Først da RTX 30-kort kom ud, var der masser af spil med understøttelse af disse nye funktioner.
RTX 2080 var en særlig dårlig 20-serie GPU. Det var $ 100 eller deromkring dyrere end GTX 1080 Ti mens vi har lidt mindre ydeevne ifølge vores test; i det mindste kunne 2080 Ti hævde at være omkring 25% hurtigere end det gamle flagskib. Selv når ray tracing og DLSS kom i spil, var det så intensivt at aktivere ray tracing, at det kæmpede for at nå 60 fps i de fleste titler, mens DLSS 1.0 simpelthen ikke så særlig godt ud. Da DLSS 2 udkom i begyndelsen af 2020, RTX 30 var lige over horisonten.
Nvidia havde overspillet sin hånd, og det vidste det. Blot otte måneder efter lanceringen af 20-serien, frigav Nvidia sine RTX 20 Super GPU'er, et tilbagevenden til GTX 500-serien, og hvordan det patchede 400-serien. De nye Super-varianter af 2060, 2070 og 2080 indeholdt flere kerner, bedre hukommelse og lavere prismærker, hvilket i nogen grad løste problemerne med den originale 20-serie.
GeForce RTX 3080 12GB
Sådan gør du en god GPU forfærdelig
Så vi har set, hvad der sker, når Nvidia tager en god GPU og skærer sin VRAM og kerne ned uden at ændre navnet, men hvad sker der, når den tager en god GPU og tilføjer flere VRAM og kerner? At lave en god GPU endnu hurtigere lyder som en god idé! Nå, i tilfældet med RTX 3080 12GB, resulterede det i skabelsen af, hvad der kan være Nvidias mest meningsløse GPU på alle måder.
Sammenlignet med den originale RTX 3080 10GB, 3080 12GB var faktisk ikke meget af en opgradering. Ligesom andre Nvidia GPU'er med mere hukommelse, havde den også flere kerner, men kun omkring 3% mere. I vores anmeldelse fandt vi ud af, at 10GB og 12GB modellerne havde næsten identiske præstationer, meget ulig hvordan 1060 3GB var mærkbart langsommere end 1060 6GB. Til Nvidias kredit var navnet på 3080 12GB ret præcist, en mærkbar forbedring i forhold til 1060 3GB.
Så hvad er problemet med at tilbyde en ny version af en GPU med mere hukommelse? Nå, Nvidia frigav 3080 12GB under GPU-manglen i 2020-2022, og naturligvis solgte den til en absurd høj pris på et sted mellem $1.250 og $1.600. I mellemtiden blev 10 GB-varianter solgt for $300 til 400 mindre, og da hukommelsesopgraderingen tydeligvis ikke var ligegyldig, var det indlysende, hvilket kort du skulle købe.
Den måske mest pinlige ting for 3080 12GB var ikke dens billigere 10GB version, men eksistensen af RTX 3080 Ti, som havde samme hukommelsesstørrelse og båndbredde som 3080 12GB. Sagen er den, at den også havde 14 % flere kerner og som følge heraf væsentlig højere ydeevne. På anmeldelsesdagen var 3080 Ti billigere, hvilket gjorde 3080 12GB meningsløs fra bogstaveligt talt alle vinkler og blot endnu et kort, der blev frigivet under manglen, som overhovedet ikke gav nogen mening.
Nvidias værste GPU'er indtil videre
Til Nvidias ære havde selv de fleste af dets værste GPU'er noget at gøre: 970'eren var god til trods af sin hukommelse blev 1060 3GB bare navngivet dårligt, og RTX 2080 var lige overpris med omkring $200. Nvidia har indtil videre lavet meget få teknologiske fejl, og selv GTX 480 var i hvert fald det hurtigste grafikkort med kun en enkelt GPU-matrice.
Når det er sagt, kan god teknologi ikke kompensere for dårlige forretningsbeslutninger som dårlige navnekonventioner og ublu priser, og det er fejl, Nvidia bliver ved med at begå hvert år. Desværre ser det ikke ud til, at nogen af disse ting forsvinder lige foreløbig, med RTX 4080 12GB næsten på markedet, mens RTX 4080 og RTX 4090, mens fremragende kort, er simpelthen alt for dyre til at give mening.
Det var ikke svært at forudsige det Nvidias GPU'er ville blive ved med at blive dyrere og dyrere, og jeg forventer fuldt ud, at denne tendens vil fortsætte i fremtiden. Nvidias næste værste GPU vil ikke blive svigtet af lyssky markedsføring eller vildledende branding eller teknologiske fejl, men alene af prisen. Vi ville være heldige at se, at RTX 4070 ikke koster mere end AMDs kommende RX 7900 XTX.
Redaktørens anbefalinger
- Nvidias fredstilbud virker ikke
- Selv Nvidias partnere tror ikke på den nye RTX 4060 Ti
- Denne mystiske Nvidia GPU er en absolut monstrøsitet - og vi har lige fået et nyt look
- Nvidia RTX 4090-kabler smelter muligvis på en bekymrende ny måde
- Nvidias vigtigste næste-gen GPU er mindre end 2 uger væk