Nvidia sætter standarden så højt for sit gaming grafikkort at det faktisk er svært at se forskel på en Nvidia GPU, der blot er en vinder, og en Nvidia GPU, der er virkelig speciel.
Indhold
- GeForce 256
- GeForce 8800 GTX
- GeForce GTX 680
- GeForce GTX 980
- GeForce GTX 1080
- GeForce RTX 3080
- Så hvad er det næste?
Nvidia har længe været den dominerende spiller på grafikkortmarkedet, men selskabet er fra tid til anden blevet sat under alvorligt pres af hovedkonkurrenten AMD, som har lanceret flere af sine egne ikoniske GPU'er. De satte dog kun Nvidia op til et stort comeback, og nogle gange førte det til et ægte spilskiftende kort.
Anbefalede videoer
Det var svært at vælge, hvilke Nvidia GPU'er virkelig var værd at blive kaldt de bedste nogensinde, men jeg har indsnævret listen til seks kort, der var virkelig vigtige og skrev historie.
Relaterede
- Har Nvidia lige rettet RTX 4090's smeltende strømstik?
- Her er grunden til, at folk er så kede af dagens Starfield PC-nyheder
- Nvidias RTX 4060 er måske alligevel ikke sådan en skuffelse
GeForce 256
Den allerførste
Selvom Nvidia hævder ofte GeForce 256 var verdens første GPU, det er kun sandt, hvis Nvidia er det eneste firma, der kan definere, hvad en GPU er. Før GeForce var der RIVA-serien af grafikkort, og der var også andre virksomheder, der lavede deres egne konkurrerende grafikkort dengang. Det, Nvidia virkelig opfandt, var markedsføringen af grafikkort som GPU'er, for i 1999, da 256'eren kom ud, var udtryk som grafikkort og grafikchipsæt mere almindelige.
Nvidia har dog ret i, at 256'eren var vigtig. Før 256 spillede CPU'en en meget vigtig rolle i gengivelse af grafik, til det punkt, hvor CPU'en direkte gennemførte trin i gengivelsen af et 3D-miljø. CPU'er var dog ikke særlig effektive til at gøre dette, og det var her, hvor 256'eren kom ind med hardwaretransformation og belysning, og aflastede de to mest CPU-intensive dele af gengivelsen til GPU'en. Dette er en af de primære grunde til, at Nvidia hævder, at dette er den første GPU.
Som produkt var GeForce 256 ikke ligefrem legendarisk: Anandtech var ikke super imponeret over prisen for ydeevnen på tidspunktet for udgivelsen. En del af problemet var 256'erens hukommelse, som var enkelt datahastighed eller SDR. På grund af andre fremskridt var SDR ved at blive utilstrækkelig til GPU'er på dette ydeevneniveau. En hurtigere dobbelt datahastighed eller DDR (samme DDR som i DDR5) lanceret lige før udgangen af 1999, som endelig levede op til Anandtechs forventninger til ydeevne, men det forhøjede prisskilt på DDR-versionen var svært at sluge.
GeForce 256, først af dets navn, er bestemt historisk, men ikke fordi det var et fantastisk produkt. 256 er vigtig, fordi den indviede den moderne æra af GPU'er. Markedet for grafikkort var ikke altid et duopol; tilbage i 90'erne var der flere virksomheder, der konkurrerede mod hinanden, hvor Nvidia kun var en af dem. Kort efter at GeForce 256 blev lanceret, forlod de fleste af Nvidias rivaler markedet. 3dfx's Voodoo 5 GPU'er var ukonkurrencedygtige, og før den gik konkurs blev mange af dens teknologier købt af Nvidia; Matrox stoppede ganske enkelt spil-GPU'er for at fokusere på professionel grafik.
Ved udgangen af 2000 var det eneste andet grafikfirma i byen ATI. Da AMD købte ATI i 2006, skabte det det moderne Nvidia og AMD rivalisering vi kender alle i dag.
GeForce 8800 GTX
Et monumentalt spring fremad
Efter GeForce 256 forsøgte Nvidia og ATI at opnå det bedste fra hinanden med nyere GPU'er med højere ydeevne. I 2002 smed ATI imidlertid handsken ved at lancere sin Radeon 9000-serie, og med en matricestørrelse på 200 mm i kvadrat var flagskibet Radeon 9800 XT let den største GPU nogensinde. Nvidias flagskib GeForce4 Ti 4600 på 100 mm havde intet håb om at slå selv mellemklassen 9700 Pro, hvilket påførte Nvidia et knusende nederlag. At lave en GPU handlede ikke længere kun om arkitekturen, hukommelsen eller driverne; For at vinde skal Nvidia lave store GPU'er som ATI.
I de næste fire år fortsatte størrelsen af flagskibs-GPU'er med at stige, og i 2005 havde begge virksomheder lanceret en GPU, der var omkring 300 mm. Selvom Nvidia havde genvundet overtaget i løbet af denne tid, var ATI aldrig langt bagud, og dens Radeon X1000-serie var ret konkurrencedygtig. En GPU med en størrelse på 300 mm var dog langt fra grænsen for, hvad Nvidia kunne gøre. I 2006 udgav Nvidia sin GeForce 8-serie, ledet af flagskibet 8800 GTX. Dens GPU, kodenavnet G80, var næsten 500 mm, og dens transistorantal var næsten tre gange højere end det sidste GeForce-flagskib.
8800 GTX gjorde ved ATI, hvad Radeon 9700 Pro og resten af 9000-serien gjorde ved Nvidia, med Anandtech, der beskriver øjeblikket som "9700 Pro-lignende." En enkelt 8800 GTX var næsten dobbelt så hurtig som ATIs top-end X1950 XTX, for ikke at nævne meget mere effektiv. Til $599 var 8800 GTX dyrere end sine forgængere, men dens høje ydeevne og DirectX 10-understøttelse gjorde op for det.
Men dette var for det meste afslutningen på det store GPU-våbenkapløb, der havde præget de tidlige 2000'ere af to hovedårsager. For det første var 500 mm ved at være ret tæt på grænsen for, hvor stor en GPU kunne være, og selv i dag er 500 mm relativt stort for en processor. Selvom Nvidia ville, var det bare ikke muligt at lave en større GPU. For det andet arbejdede ATI alligevel ikke på sin egen 500 mm GPU, så Nvidia havde ikke travlt med at få en endnu større GPU på markedet. Nvidia havde stort set vundet våbenkapløbet ved at overgå ATI.
Det år så AMD også købet af ATI, som blev afsluttet lige før 8800 GTX blev lanceret. Selvom ATI nu havde opbakning fra AMD, så det virkelig ud til, at Nvidia havde et så massivt forspring, at Radeon ikke ville udfordre GeForce i lang tid, måske aldrig igen.
GeForce GTX 680
Slår AMD i sit eget spil
Nvidias næste skelsættende udgivelse kom i 2008, da den lancerede GTX 200-serien, begyndende med GTX 280 og GTX 260. Med næsten 600 mm kvadratisk var 280 en værdig monstrøs efterfølger til 8800 GTX. I mellemtiden signalerede AMD og ATI, at de ikke længere ville lancere high-end GPU'er med store dies for at konkurrere, snarere fokusere på at lave mindre GPU'er i en gambit kendt som den lille terning strategi. I sin anmeldelse sagde Anandtech "Nvidia vil stå helt alene med toppræstationer i en overskuelig fremtid." Som det viste sig, var de næste fire år ret barske for Nvidia.
Fra og med HD 4000-serien i 2008 angreb AMD Nvidia med små GPU'er, der havde høj værdi og næsten flagskibsniveauer for ydeevne, og den dynamik blev opretholdt gennem de næste par generationer. Nvidias GTX 280 var ikke omkostningseffektiv nok, så blev GTX 400-serien forsinket, og 500-serien var for varm og strømkrævende.
En af Nvidias traditionelle svagheder var dens ulempe, når det kom til proces, måden processorer fremstilles på. Nvidia stod normalt bag AMD, men det havde endelig indhentet ved at bruge 40nm noden til 400-serien. AMD ønskede dog hurtigt at genvinde procesforspringet og besluttede, at dens næste generation ville være på den nye 28nm-node, og Nvidia besluttede at følge trop.
AMD vandt kapløbet til 28nm med sin HD 7000-serie, hvor dets flagskib HD 7970 satte AMD tilbage på førstepladsen for ydeevne. GTX 680 blev dog lanceret blot to måneder senere, og ikke kun slog den 7970'eren i ydeevne, men også strømeffektivitet og endda matricestørrelse. Som Anandtech udtrykte det, havde Nvidia "landede den tekniske trifecta" og det vendte fuldstændig tabellerne på AMD. AMD genvandt præstationskronen igen ved at lancere HD 7970 GHz Edition senere i 2012 (kendt for er den første 1GHz GPU), men at have føringen i effektivitet og ydeevne pr. millimeter var et godt tegn for Nvidia.
Kampen frem og tilbage mellem Nvidia og AMD var ret spændende efter hvor skuffende GTX 400 og 500 var. serien havde været, og selvom 680'eren ikke var en 8800 GTX, signalerede den Nvidias tilbagevenden til at være virkelig konkurrencedygtig over for AMD. Måske vigtigst af alt, var Nvidia ikke længere tynget af sin traditionelle procesulempe, og det ville i sidste ende betale sig i stor stil.
GeForce GTX 980
Nvidias dominans begynder
Nvidia befandt sig et meget godt sted med GTX 600-serien, og det var på grund af TSMCs 28nm-proces. Under normale omstændigheder ville AMD simpelthen have gået til TSMCs næste proces for at genvinde sin traditionelle fordel, men dette var ikke længere en mulighed. TSMC og alle andre støberier i verden (undtagen Intel) havde ekstraordinært store problemer med at komme videre end 28nm-knuden. Nye teknologier var nødvendige for at komme videre, hvilket betød, at Nvidia ikke behøvede at bekymre sig om, at AMD skulle genvinde procesforspringet på et tidspunkt.
Efter et par år med frem og tilbage og AMD-fladder med begrænsede midler, lancerede Nvidia GTX 900-serien i 2014, indviet af GTX 980. Baseret på den nye Maxwell-arkitektur var det en utrolig forbedring i forhold til GTX 600- og 700-serien på trods af at den var på samme knude. 980'eren var mellem 30% og 40% hurtigere end 780'eren, mens den forbrugte mindre strøm, og den var endda en smule hurtigere end den øverste ende. 780 Ti. Selvfølgelig slog 980'eren også R9 290X, hvilket igen lander trifektaen af ydeevne, strømeffektivitet og matricestørrelse. I sin anmeldelse, sagde Anandtech, at 980 var "meget, meget tæt på at gøre med Radeon 290X, hvad GTX 680 gjorde ved Radeon HD 7970."
AMD var ude af stand til at reagere. Den havde ikke en næste generations GPU klar til at blive lanceret i 2014. Faktisk arbejdede AMD ikke engang på en komplet serie af helt nye GPU'er for at udligne scoren med Nvidia. AMD planlagde i stedet at omdanne Radeon 200-serien til Radeon 300-serien og ville udvikle en ny GPU til at fungere som flagskibet. Alle disse GPU'er skulle lanceres i midten af 2015, hvilket gav hele GPU-markedet til Nvidia i næsten et helt år. Selvfølgelig ønskede Nvidia at trække tæppet lige under AMD og forberedte et helt nyt flagskib.
GTX 980 Ti blev lanceret i midten af 2015 og var omkring 30 % hurtigere end GTX 980, takket være dets betydeligt højere strømforbrug og større matricestørrelse på lidt over 600 mm i kvadrat. Den slog AMDs splinternye R9 Fury X en måned før den overhovedet blev lanceret. Selvom Fury X ikke var dårlig, havde den lavere ydeevne end 980 Ti, højere strømforbrug og meget mindre VRAM. Det var en demonstration af, hvor langt foran Nvidia var med 900-serien; mens AMD hastigt forsøgte at få Fury X ud af døren, kunne Nvidia have lanceret 980 Ti, når som helst det ville.
Anandtech udtrykte det ret godt: “Det faktum, at de kommer så tæt på kun at blive udmanøvreret af Nvidia igen gør den nuværende situation endnu mere smertefuld; det er én ting at tabe til Nvidia med fødder, men at tabe med tommer minder dig kun om, hvor tæt de kom, hvordan de næsten forstyrre Nvidia."
Nvidia var stort set et år foran AMD rent teknologisk, og selvom det, de havde gjort med GTX 900-serien, var imponerende, var det også en smule deprimerende. Folk ønskede at se Nvidia og AMD udslette det, som de havde gjort i 2012 og 2013, men det begyndte at se ud som om, det var alt i fortiden. Nvidias næste GPU ville helt sikkert bekræfte denne følelse.
GeForce GTX 1080
GPU'en uden konkurrence end sig selv
I 2015 havde TSMC endelig afsluttet 16nm-processen, som kunne opnå 40% højere clockhastigheder end 28nm ved samme effekt eller halvdelen af kraften af 28nm ved lignende clockhastigheder. Nvidia planlagde dog at flytte til 16nm i 2016, da noden var mere moden. I mellemtiden havde AMD absolut ingen planer om at bruge TSMC's 16nm, men flyttede i stedet for at lancere nye GPU'er og CPU'er på GlobalFoundries' 14nm-proces. Men lad dig ikke narre af navnene: TSMC's 16nm var og er bedre end GlobalFoundries' 14nm. Efter 28nm blev nomenklaturen for processer baseret på markedsføring snarere end videnskabelige målinger. Dette betød, at Nvidia for første gang i moderne GPU-historie havde procesfordel i forhold til AMD.
GTX 10-serien blev lanceret i midten af 2016, baseret på den nye Pascal-arkitektur og TSMCs 16nm-node. Pascal var faktisk ikke meget anderledes end Maxwell, men springet fra 28nm til 16nm var massivt, ligesom Intel gik fra 14nm på Skylake til 10nm på Alder Lake. GTX 1080 var det nye flagskib, og det er svært at overvurdere, hvor hurtigt det var. GTX 980 var lidt hurtigere end GTX 780 Ti, da den kom ud. Derimod GTX 1080 var over 30 % hurtigere end GTX 980 Ti, og også for 50 $ mindre. Matricestørrelsen på 1080 var også ekstremt imponerende, med lidt over 300 mm i kvadrat, næsten halvdelen af størrelsen af 980 Ti.
Med 1080 og resten af 10-seriens lineup tog Nvidia effektivt hele desktop GPU-markedet for sig selv. AMDs 300-serie og Fury X var simpelthen ingen match. I mellemtonen, AMD lancerede RX 400-serien, men disse var kun tre lav- til mellemklasse-GPU'er, der var et tilbagevenden til strategien for small die, minus den del, hvor Nvidias flagskib var i slående afstand som med GTX 280 og HD 4870. Faktisk var 1080 næsten dobbelt så hurtig som RX 480. Den eneste GPU, AMD virkelig kunne slå, var mellemklassen GTX 1060, da den lidt nedskårne GTX 1070 bare var lidt for hurtig til at tabe til Fury X.
AMD lancerede til sidst nye avancerede GPU'er i form af RX Vega, et helt år efter at 1080 kom ud. Med meget højere strømforbrug og samme salgspris slog flagskibet RX Vega 64 GTX 1080 med et hårstrå, men var ikke særlig konkurrencedygtig. GTX 1080 var dog ikke længere Nvidias flagskib; med relativt lille matricestørrelse og et helt år at forberede, lancerede Nvidia et helt nyt flagskib hele tre måneder før RX Vega overhovedet lancerede; det var en gentagelse af 980 Ti. Den nye GTX 1080 Ti var endnu hurtigere end GTX 1080 og leverede endnu en 30% forbedring af ydeevnen. Som Anandtech udtrykte det, 1080 Ti "yderligere styrke[d] Nvidias dominans af high-end videokortmarkedet."
AMDs manglende evne til at levere en virkelig konkurrencedygtig high-end GPU betød, at 1080'erens eneste rigtige konkurrence var Nvidias egen GTX 1080 Ti. Med 1080 og 1080 Ti opnåede Nvidia, hvad der måske er den mest komplette sejr, vi hidtil har set i moderne GPU historie. I løbet af de sidste 4 år blev Nvidia ved med at øge sin teknologiske fordel i forhold til AMD, og det var svært at se, hvordan Nvidia nogensinde kunne tabe.
GeForce RTX 3080
Korrigerende kursus
Efter en så lang og utrolig række af sejre var det måske uundgåeligt, at Nvidia ville bukke under for hybris og miste af syne, hvad der gjorde Nvidias fantastiske GPU'er så fantastiske. Nvidia fulgte ikke op på GTX 10-serien med endnu en GPU med en fantastisk stigning i ydeevnen, men med den berygtede RTX 20-serie. Måske i et træk for at skære AMD ud af GPU-markedet, fokuserede Nvidia på at introducere hardwareaccelereret strålesporing og A.I. opskalering i stedet for at levere bedre ydeevne generelt. Hvis det lykkes, kan Nvidia gøre AMD GPU'er irrelevante, indtil virksomheden endelig lavede Radeon GPU'er med indbygget ray tracing.
RTX 20-serien var lidt af et flop. Da RTX 2080 og 2080 Ti blev lanceret i slutningen af 2018, var der ikke engang nogen spil, der understøttede ray tracing eller deep learning super sampling (DLSS). Men Nvidia prissatte RTX 20-seriens kort, som om disse funktioner gjorde hele forskellen. Til $699 havde 2080 en meningsløs pris, og 2080 Ti's pris på $1.199 var endnu mere vanvittig. Nvidia konkurrerede ikke engang med sig selv længere.
Ydeevneforbedringen i eksisterende titler var også ekstremt skuffende; RTX 2080 var kun 11 % hurtigere end GTX 1080, selvom RTX 2080 Ti i det mindste var omkring 30 % hurtigere end GTX 1080 Ti.
De næste to år var en kurskorrektion for Nvidia. Truslen fra AMD begyndte at blive ret alvorlig; virksomheden havde endelig genvundet procesfordel ved at flytte til TSMCs 7nm og virksomheden lancerede RX 5700 XT i midten af 2019. Nvidia var i stand til at afværge det endnu en gang ved at lancere nye GPU'er, denne gang RTX 20 Super-serien med fokus på værdi, men 5700 XT må have bekymret Nvidia. RTX 2080 Ti var tre gange så stor, men var kun 50 % hurtigere, hvilket betyder, at AMD opnåede meget højere ydeevne pr. millimeter. Hvis AMD lavede en større GPU, kunne den være svær at slå.
Både Nvidia og AMD planlagde et stort opgør i 2020. Nvidia genkendte AMDs potentiale og trak alle stopperne ud: den nye 8nm-proces fra Samsung, den nye Ampere-arkitektur og en vægt på store GPU'er. AMD forblev i mellemtiden på TSMCs 7nm-proces, men introducerede den nye RDNA 2-arkitektur og ville også lancere en stor GPU, den første siden RX Vega i 2017. Sidste gang begge virksomheder lancerede helt nye flagskibe inden for samme år var 2013, næsten et årti siden. Selvom pandemien truede med at ødelægge begge virksomheders planer, var ingen af virksomhederne villige til at forsinke den næste generation og lancerede som planlagt.
Nvidia startede først med RTX 30-serien, ledet af flagskibet RTX 3090, men det meste af fokus var på RTX 3080, da det til $699 var langt mere overkommeligt end $1.499 3090. I stedet for at være en gentagelse af RTX 20-serien, 3080 leverede et betydeligt 30 % bump i ydeevne ved 4K over RTX 2080 Ti, selvom strømforbruget var lidt højt. Ved lavere opløsninger var ydelsesforstærkningen på 3080 noget mindre, men da 3080 var meget kapabel til 4K, var det let at overse dette. 3080 drager også fordel af et bredere udvalg af spil, der understøtter ray tracing og DLSS, hvilket giver værdi til at have en Nvidia GPU med disse funktioner.
Selvfølgelig ville dette ikke være ligegyldigt, hvis 3080 og resten af RTX 30-serien ikke kunne stå op til AMDs nye RX 6000-serie, som blev lanceret to måneder senere. Til $649 var RX 6800 XT AMDs svar på RTX 3080. Med næsten identisk ydeevne i de fleste spil og ved de fleste opløsninger mindede kampen mellem 3080 og 6800 XT om GTX 680 og HD 7970. Hver virksomhed havde sine fordele og ulemper, med AMD førende inden for strømeffektivitet og ydeevne, mens Nvidia havde bedre ydeevne i strålesporing og understøttelse af andre funktioner som A.I. opskalering.
Spændingen over en ny episode i GPU-krigen døde dog hurtigt ud, for det viste sig hurtigt ingen kunne købe RTX 30 eller RX 6000 eller endda nogen GPU'er overhovedet. Pandemien havde alvorligt reduceret udbuddet, mens krypto øget efterspørgsel, og scalpere snuppede så mange GPU'er, som de kunne. I skrivende stund er manglen for det meste ophørt, men de fleste Nvidia GPU'er sælges stadig for normalt $100 eller mere over MSRP. Heldigvis kan high-end GPU'er som RTX 3080 findes tættere på MSRP end low-end 30-serien kort, hvilket holder 3080 en levedygtig mulighed.
I det hele taget var RTX 3080 en tiltrængt rettelse fra Nvidia. Selvom 3080 har markeret afslutningen på Nvidias næsten totale dominans af desktop GPU-markedet, er det svært ikke at give virksomheden kredit for ikke at tabe til AMD. Når alt kommer til alt, er RX 6000-serien på en meget bedre proces, og AMD har været ekstremt aggressiv de sidste par år. Og desuden er det godt endelig at se et tæt kapløb mellem Nvidia og AMD, hvor begge sider virkelig prøver at vinde.
Så hvad er det næste?
I modsætning til AMD holder Nvidia altid sine kort tæt på brystet og afslører sjældent nogensinde information om kommende produkter. Vi kan være ret sikre den kommende RTX 40-serie lanceres engang i år, men alt andet er usikkert. Et af de mere interessante rygter er, at Nvidia vil bruge TSMCs 5nm til RTX 40 GPU'er, og hvis dette er sandt, betyder det, at Nvidia vil have paritet med AMD igen.
Men jeg tror, at så længe RTX 40 ikke er en anden RTX 20 og giver flere low-end og mid-range muligheder end RTX 30, burde Nvidia have et godt nok produkt næste generation. Jeg ville virkelig gerne have, at den var så god, at den kommer på listen over de bedste Nvidia GPU'er gennem tiden, men vi må vente og se.
Redaktørens anbefalinger
- De første præstationstal for AMD's forventede nye GPU'er lækker ud
- Selv Nvidias partnere tror ikke på den nye RTX 4060 Ti
- Denne mystiske Nvidia GPU er en absolut monstrøsitet - og vi har lige fået et nyt look
- Hvorfor Nvidias helt nye GPU yder dårligere end integreret grafik
- Nvidias vigtigste næste-gen GPU er mindre end 2 uger væk