Nvidia sätter standarden så högt för sitt gaming grafikkort att det faktiskt är svårt att se skillnaden mellan en Nvidia GPU som bara är en vinnare och en Nvidia GPU som är riktigt speciell.
Innehåll
- GeForce 256
- GeForce 8800 GTX
- GeForce GTX 680
- GeForce GTX 980
- GeForce GTX 1080
- GeForce RTX 3080
- Så vad händer härnäst?
Nvidia har länge varit den dominerande aktören på grafikkortsmarknaden, men företaget har då och då satts under rejäl press av huvudkonkurrenten AMD, som har lanserat flera av sina egna ikoniska GPU: er. Dessa gjorde dock bara Nvidia redo för en stor comeback, och ibland ledde det till ett riktigt spelförändrande kort.
Rekommenderade videor
Det var svårt att välja vilka Nvidia GPU: er som verkligen var värda att kallas den bästa genom tiderna, men jag har begränsat listan till sex kort som verkligen var viktiga och skrev historia.
Relaterad
- Fixade Nvidia just RTX 4090:s smältande strömkontakter?
- Här är varför folk är så upprörda över dagens Starfield PC-nyheter
- Nvidias RTX 4060 kanske inte är en sådan besvikelse trots allt
GeForce 256
Den allra första
Fastän Nvidia hävdar ofta GeForce 256 var världens första GPU, det är bara sant om Nvidia är det enda företaget som får definiera vad en GPU är. Innan GeForce fanns RIVA-serien av grafikkort, och det fanns andra företag som tillverkade sina egna konkurrerande grafikkort då också. Vad Nvidia verkligen uppfann var marknadsföringen av grafikkort som GPU: er, för 1999 när 256:an kom ut var termer som grafikkort och grafikkretsuppsättning vanligare.
Nvidia har dock rätt i att 256:an var viktig. Före 256:an spelade processorn en mycket viktig roll i renderingen av grafik, till den punkt där processorn direkt slutförde stegen för att rendera en 3D-miljö. CPU: er var dock inte särskilt effektiva på att göra detta, vilket var där 256 kom in med hårdvarutransformering och belysning, vilket avlastade de två mest CPU-intensiva delarna av renderingen till GPU: n. Detta är en av de främsta anledningarna till att Nvidia hävdar att detta är den första GPU: n.
Som produkt var GeForce 256 inte precis legendarisk: Anandtech var inte superimponerad av priset för prestandan vid tidpunkten för dess utgivning. En del av problemet var 256:ans minne, som var enkel datahastighet eller SDR. På grund av andra framsteg blev SDR otillräcklig för grafikprocessorer med denna prestandanivå. En snabbare dubbel datahastighet eller DDR (samma DDR som i DDR5) lanserades strax före slutet av 1999, som slutligen uppfyllde Anandtechs förväntningar på prestanda, men den ökade prislappen för DDR-versionen var svår att svälja.
GeForce 256, först av dess namn, är verkligen historisk, men inte för att det var en fantastisk produkt. 256:an är viktig eftersom den invigde den moderna eran av GPU: er. Grafikkortsmarknaden var inte alltid ett duopol; tillbaka på 90-talet fanns det flera företag som konkurrerade mot varandra, med Nvidia som bara ett av dem. Strax efter att GeForce 256 lanserades lämnade de flesta av Nvidias rivaler marknaden. 3dfx: s Voodoo 5 GPU: er var okonkurrenskraftiga och innan den gick i konkurs köptes många av dess teknologier av Nvidia; Matrox slutade helt enkelt spela GPU: er för att fokusera på professionell grafik.
I slutet av 2000 var det enda andra grafikföretaget i stan ATI. När AMD förvärvade ATI 2006 skapade det det moderna Nvidia och AMD rivalitet vi alla vet idag.
GeForce 8800 GTX
Ett monumentalt steg framåt
Efter GeForce 256 försökte Nvidia och ATI att bli bäst på den andra med nyare grafikprocessorer med högre prestanda. Men 2002 kastade ATI ner handsken genom att lansera sin Radeon 9000-serie, och med en formstorlek på 200 mm i kvadrat var flaggskeppet Radeon 9800 XT lätt den största grafikprocessorn någonsin. Nvidias flaggskepp GeForce4 Ti 4600 på 100 mm hade inget hopp om att slå ens mellanregistret 9700 Pro, vilket tillfogade Nvidia ett förkrossande nederlag. Att göra en GPU handlade inte längre bara om arkitekturen, minnet eller drivrutinerna; för att vinna skulle Nvidia behöva göra stora grafikprocessorer som ATI.
Under de kommande fyra åren fortsatte storleken på flaggskepps-GPU: er att öka, och 2005 hade båda företagen lanserat en GPU som var runt 300 mm. Även om Nvidia hade återtagit övertaget under denna tid, var ATI aldrig långt efter och dess Radeon X1000-serie var ganska konkurrenskraftig. En GPU med en storlek på 300 mm var dock långt ifrån gränsen för vad Nvidia kunde göra. 2006 släppte Nvidia sin GeForce 8-serie, ledd av flaggskeppet 8800 GTX. Dess GPU, kodnamnet G80, var nästan 500 mm och dess transistorantal var nästan tre gånger högre än det senaste GeForce-flaggskeppet.
8800 GTX gjorde med ATI vad Radeon 9700 Pro och resten av 9000-serien gjorde med Nvidia, med Anandtech som beskriver ögonblicket som "9700 Pro-liknande." En enda 8800 GTX var nästan dubbelt så snabb som ATI: s toppklass X1950 XTX, för att inte tala om mycket effektivare. 599 $ var 8800 GTX dyrare än sina föregångare, men dess höga prestandanivå och DirectX 10-stöd kompenserade för det.
Men detta var för det mesta slutet på den stora GPU-kapprustningen som hade präglat det tidiga 2000-talet av två huvudsakliga skäl. För det första höll 500 mm på att närma sig gränsen för hur stor en GPU kunde vara, och än idag är 500 mm relativt stort för en processor. Även om Nvidia ville, var det helt enkelt inte möjligt att skapa en större GPU. För det andra arbetade ATI inte på sin egen 500 mm GPU i alla fall, så Nvidia hade inte bråttom att få ut en ännu större GPU på marknaden. Nvidia hade i princip vunnit kapprustningen genom att spendera bättre än ATI.
Det året genomfördes också förvärvet av ATI av AMD, som slutfördes strax innan 8800 GTX lanserades. Även om ATI nu hade stöd av AMD, verkade det verkligen som att Nvidia hade ett så stort försprång att Radeon inte skulle utmana GeForce på länge, kanske aldrig igen.
GeForce GTX 680
Slår AMD i sitt eget spel
Nvidias nästa landmärke kom 2008 när det lanserade GTX 200-serien, med början med GTX 280 och GTX 260. Med nästan 600 mm i kvadrat var 280 en värdig monstruös efterträdare till 8800 GTX. Samtidigt signalerade AMD och ATI att de inte längre skulle lansera avancerade GPU: er med stora dies för att tävla, istället fokusera på att göra mindre GPU: er i en gambit som kallas den lilla tärningen strategi. I sin recension, sa Anandtech "Nvidia kommer att lämnas ensam med toppprestanda under överskådlig framtid." Som det visade sig var de kommande fyra åren ganska tuffa för Nvidia.
Från och med HD 4000-serien 2008, attackerade AMD Nvidia med små grafikprocessorer som hade högt värde och nästan flaggskeppsnivåer av prestanda, och den dynamiken bibehölls under de närmaste generationer. Nvidias GTX 280 var inte tillräckligt kostnadseffektiv, sedan blev GTX 400-serien försenad och 500-serien var för varm och strömkrävande.
En av Nvidias traditionella svagheter var dess nackdel när det kom till bearbetning, hur processorer tillverkas. Nvidia låg vanligtvis bakom AMD, men det hade äntligen kommit ikapp genom att använda 40nm-noden för 400-serien. AMD ville dock snabbt återta processledningen och beslutade att nästa generation skulle ligga på den nya 28nm-noden, och Nvidia bestämde sig för att följa efter.
AMD vann loppet till 28nm med sin HD 7000-serie, med sitt flaggskepp HD 7970 som återförde AMD på första plats för prestanda. GTX 680 lanserades dock bara två månader senare, och inte bara slog den 7970 i prestanda, utan också strömeffektivitet och till och med formstorlek. Som Anandtech uttryckte det hade Nvidia "landade den tekniska trifectan" och det vände tabellerna på AMD fullständigt. AMD tog tillbaka prestandakronan ännu en gång genom att lansera HD 7970 GHz Edition senare under 2012 (känd för som den första 1GHz GPU), men att ha ledningen i effektivitet och prestanda per millimeter var ett gott tecken för Nvidia.
Kampen fram och tillbaka mellan Nvidia och AMD var ganska spännande efter hur nedslående GTX 400 och 500 serien hade varit, och även om 680 inte var en 8800 GTX, signalerade den Nvidias återgång till att vara verkligt konkurrenskraftig mot AMD. Kanske viktigast av allt var att Nvidia inte längre tyngdes av sin traditionella processnackdel, och det skulle så småningom löna sig i stor utsträckning.
GeForce GTX 980
Nvidias dominans börjar
Nvidia befann sig på en mycket bra plats med GTX 600-serien, och det var på grund av TSMC: s 28nm-process. Under normala omständigheter skulle AMD helt enkelt ha gått till TSMC: s nästa process för att återfå sin traditionella fördel, men detta var inte längre ett alternativ. TSMC och alla andra gjuterier i världen (förutom Intel) hade en extraordinär svårighet att ta sig längre än 28nm-noden. Ny teknik behövdes för att gå vidare, vilket innebar att Nvidia inte behövde oroa sig för att AMD skulle återta processledningen någon gång snart.
Efter några år av fram och tillbaka och AMD-flondra med begränsade medel, lanserade Nvidia GTX 900-serien 2014, invigd av GTX 980. Baserat på den nya Maxwell-arkitekturen var det en otrolig förbättring jämfört med GTX 600- och 700-serien trots att de var på samma nod. 980:an var mellan 30 % och 40 % snabbare än 780:an samtidigt som den förbrukade mindre ström, och den var till och med en smula snabbare än toppmodellen 780 Ti. Naturligtvis slog 980 också R9 290X och landade återigen trifektan av prestanda, energieffektivitet och formstorlek. I sin recensionAnandtech sa att 980 kom "mycket, mycket nära att göra med Radeon 290X vad GTX 680 gjorde med Radeon HD 7970."
AMD kunde inte svara. Den hade inte en nästa generations GPU redo att lanseras 2014. Faktum är att AMD inte ens arbetade på en komplett serie av helt nya GPU: er för att jämna ut poängen med Nvidia. AMD planerade istället att göra om Radeon 200-serien till Radeon 300-serien och skulle utveckla en ny grafikprocessor som skulle fungera som flaggskeppet. Alla dessa GPU: er skulle lanseras i mitten av 2015, vilket ger hela GPU-marknaden till Nvidia i nästan ett helt år. Naturligtvis ville Nvidia dra mattan direkt under AMD och förberedde ett helt nytt flaggskepp.
GTX 980 Ti lanserades i mitten av 2015 och var cirka 30 % snabbare än GTX 980, tack vare dess betydligt högre strömförbrukning och större formstorlek på drygt 600 mm i kvadrat. Den slog AMD: s helt nya R9 Fury X en månad innan den ens lanserades. Även om Fury X inte var dålig, hade den lägre prestanda än 980 Ti, högre strömförbrukning och mycket mindre VRAM. Det var en demonstration av hur långt framme Nvidia var med 900-serien; medan AMD i all hast försökte få ut Fury X genom dörren, kunde Nvidia ha lanserat 980 Ti när som helst.
Anandtech uttryckte det ganska bra: “Det faktum att de kommer så nära bara för att bli utmanövrerade av Nvidia gör återigen den nuvarande situationen desto mer smärtsam; det är en sak att förlora mot Nvidia med fot, men att förlora med tum påminner dig bara om hur nära de kom, hur de nästan upprörd Nvidia."
Nvidia var i princip ett år före AMD tekniskt sett, och även om det de hade gjort med GTX 900-serien var imponerande, var det också lite deprimerande. Folk ville se Nvidia och AMD släppa ut det som de hade gjort 2012 och 2013, men det började se ut som att det var allt i det förflutna. Nvidias nästa GPU skulle verkligen bekräfta den känslan.
GeForce GTX 1080
GPU: n utan konkurrens utom sig själv
2015 hade TSMC äntligen slutfört 16nm-processen, som kunde uppnå 40 % högre klockhastigheter än 28nm vid samma effekt eller hälften av effekten av 28nm vid liknande klockhastigheter. Nvidia planerade dock att flytta till 16nm 2016 när noden var mer mogen. Samtidigt hade AMD absolut inga planer på att använda TSMC: s 16nm utan flyttade istället för att lansera nya GPU: er och processorer på GlobalFoundries 14nm process. Men låt dig inte luras av namnen: TSMC: s 16nm var och är bättre än GlobalFoundries 14nm. Efter 28nm blev nomenklaturen för processer baserad på marknadsföring snarare än vetenskapliga mätningar. Detta innebar att Nvidia för första gången i modern GPU-historia hade processfördelen gentemot AMD.
GTX 10-serien lanserades i mitten av 2016, baserad på den nya Pascal-arkitekturen och TSMC: s 16nm-nod. Pascal var faktiskt inte så olik Maxwell, men hoppet från 28nm till 16nm var enormt, som att Intel gick från 14nm på Skylake till 10nm på Alder Lake. GTX 1080 var det nya flaggskeppet, och det är svårt att överskatta hur snabbt det var. GTX 980 var lite snabbare än GTX 780 Ti när den kom ut. Däremot GTX 1080 var över 30 % snabbare än GTX 980 Ti, och för $50 mindre också. Formstorleken på 1080 var också extremt imponerande, med drygt 300 mm i kvadrat, nästan hälften av storleken på 980 Ti.
Med 1080 och resten av 10-serien tog Nvidia effektivt hela marknaden för desktop GPU för sig själv. AMDs 300-serie och Fury X var helt enkelt ingen match. I mellanregistret, AMD lanserade RX 400-serien, men dessa var bara tre låg- till mellanklass-GPU: er som var en återgång till strategin för små tärningar, minus den del där Nvidias flaggskepp var på slående avstånd som med GTX 280 och HD 4870. Faktum är att 1080 var nästan dubbelt så snabb som RX 480. Den enda GPU som AMD verkligen kunde slå var mellanklassen GTX 1060, eftersom den något nedskurna GTX 1070 bara var lite för snabb för att förlora mot Fury X.
AMD lanserade så småningom nya avancerade GPU: er i form av RX Vega, ett helt år efter att 1080 kom ut. Med mycket högre strömförbrukning och samma försäljningspris slog flaggskeppet RX Vega 64 GTX 1080 hårstrån men var inte särskilt konkurrenskraftig. GTX 1080 var dock inte längre Nvidias flaggskepp; med relativt liten formstorlek och ett helt år att förbereda, lanserade Nvidia ett helt nytt flaggskepp hela tre månader innan RX Vega ens lanserades; det var en upprepning av 980 Ti. Den nya GTX 1080 Ti var ännu snabbare än GTX 1080 och levererade ytterligare 30 % förbättring av prestanda. Som Anandtech uttryckte det, 1080 Ti "förstärker[d] Nvidias dominans på marknaden för avancerade grafikkort ytterligare."
AMD: s misslyckande med att leverera en verkligt konkurrenskraftig high-end GPU innebar att 1080:s enda riktiga konkurrens var Nvidias egen GTX 1080 Ti. Med 1080 och 1080 Ti uppnådde Nvidia vad som kanske är den mest kompletta segern vi har sett hittills i modern GPU historia. Under de senaste fyra åren har Nvidia hela tiden ökat sin tekniska fördel gentemot AMD, och det var svårt att se hur Nvidia någonsin skulle kunna förlora.
GeForce RTX 3080
Rätta kurs
Efter en så lång och otrolig rad av vinster kanske det var oundvikligt att Nvidia skulle ge efter för hybris och tappa vad som gjorde Nvidias fantastiska grafikprocessorer så bra. Nvidia följde inte upp GTX 10-serien med ännu en GPU med en fantastisk prestandaökning, utan med den ökända RTX 20-serien. Kanske i ett drag för att skära bort AMD från GPU-marknaden fokuserade Nvidia på att introducera hårdvaruaccelererad strålspårning och A.I. uppskalning istället för att leverera bättre prestanda i allmänhet. Om det lyckas kan Nvidia göra AMD GPU: er irrelevanta tills företaget slutligen tillverkade Radeon GPU: er med inbyggd ray tracing.
RTX 20-serien var lite av en flopp. När RTX 2080 och 2080 Ti lanserades i slutet av 2018 fanns det inte ens några spel som stödde ray tracing eller deep learning super sampling (DLSS). Men Nvidia prissatte RTX 20-seriens kort som om dessa funktioner gjorde hela skillnaden. Vid $699 hade 2080 ett orimligt pris, och 2080 Tis prislapp på $1 199 var ännu mer galen. Nvidia konkurrerade inte ens med sig själv längre.
Prestandaförbättringen i befintliga titlar var också extremt nedslående; RTX 2080 var bara 11 % snabbare än GTX 1080, även om åtminstone RTX 2080 Ti var cirka 30 % snabbare än GTX 1080 Ti.
De följande två åren var en kurskorrigering för Nvidia. Hotet från AMD började bli ganska allvarligt; företaget hade äntligen återfått processfördelen genom att flytta till TSMC: s 7nm och företaget lanserade RX 5700 XT i mitten av 2019. Nvidia kunde återigen ta sig ur det genom att lansera nya GPU: er, denna gång RTX 20 Super-serien med fokus på värde, men 5700 XT måste ha oroat Nvidia. RTX 2080 Ti var tre gånger så stor men var bara 50 % snabbare, vilket betyder att AMD uppnådde mycket högre prestanda per millimeter. Om AMD gjorde en större GPU kan den vara svår att slå.
Både Nvidia och AMD planerade för en stor showdown 2020. Nvidia insåg AMD: s potential och drog ut allt: den nya 8nm-processen från Samsung, den nya Ampere-arkitekturen och en betoning på stora GPU: er. AMD stannade under tiden på TSMC: s 7nm-process men introducerade den nya RDNA 2-arkitekturen och skulle också lansera en stor GPU, den första sedan RX Vega i 2017. Senast båda företagen lanserade helt nya flaggskepp under samma år var 2013, för nästan ett decennium sedan. Även om pandemin hotade att förstöra båda företagens planer, var inget av företagen villiga att fördröja nästa generation och lanserade som planerat.
Nvidia sköt först med RTX 30-serien, ledd av flaggskeppet RTX 3090, men det mesta av fokus låg på RTX 3080 eftersom det till $699 var mycket mer överkomligt än $1 499 3090. Istället för att vara en upprepning av RTX 20-serien, 3080 levererade en rejäl 30 % bump i prestanda vid 4K över RTX 2080 Ti, även om strömförbrukningen var lite hög. Vid lägre upplösningar var prestandavinsten för 3080 något mindre, men eftersom 3080 var mycket kapabel vid 4K var det lätt att förbise detta. 3080 gynnades också av ett större utbud av spel som stöder ray tracing och DLSS, vilket ger värde åt att ha en Nvidia GPU med dessa funktioner.
Naturligtvis skulle detta inte spela någon roll om 3080 och resten av RTX 30-serien inte kunde stå emot AMDs nya RX 6000-serie, som lanserades två månader senare. För $649 var RX 6800 XT AMD: s svar på RTX 3080. Med nästan identisk prestanda i de flesta spel och vid de flesta upplösningar påminde striden mellan 3080 och 6800 XT om GTX 680 och HD 7970. Varje företag hade sina fördelar och nackdelar, med AMD ledande inom energieffektivitet och prestanda medan Nvidia hade bättre prestanda i strålspårning och stöd för andra funktioner som A.I. uppskalning.
Spänningen över ett nytt avsnitt i GPU-kriget dog snabbt ut, eftersom det snabbt blev uppenbart ingen kunde köpa RTX 30 eller RX 6000 eller ens några GPU: er alls. Pandemin hade allvarligt minskat utbudet medan krypto ökade efterfrågan och scalpers ryckte upp så många GPU: er de kunde. I skrivande stund har bristen för det mesta upphört, men de flesta Nvidia GPU: er säljs fortfarande för vanligtvis $100 eller mer över MSRP. Tack och lov kan avancerade GPU: er som RTX 3080 hittas närmare MSRP än lägre 30-seriekort, vilket håller 3080 ett hållbart alternativ.
På det hela taget var RTX 3080 en välbehövlig korrigering från Nvidia. Även om 3080 har markerat slutet på Nvidias nästan totala dominans av GPU-marknaden för stationära datorer, är det svårt att inte ge företaget kredit för att inte förlora mot AMD. När allt kommer omkring är RX 6000-serien på en mycket bättre process och AMD har varit extremt aggressiv de senaste åren. Och dessutom är det bra att äntligen se ett tätt race mellan Nvidia och AMD där båda sidor verkligen försöker vinna.
Så vad händer härnäst?
Till skillnad från AMD håller Nvidia alltid sina kort nära bröstet och avslöjar sällan någonsin information om kommande produkter. Vi kan vara ganska säkra den kommande RTX 40-serien kommer att lanseras någon gång i år, men allt annat är osäkert. Ett av de mer intressanta ryktena är att Nvidia kommer att använda TSMC: s 5nm för RTX 40 GPU: er, och om detta är sant betyder det att Nvidia kommer att ha paritet med AMD igen.
Men jag tror att så länge som RTX 40 inte är en annan RTX 20 och ger fler alternativ i låg- och mellanklass än RTX 30, borde Nvidia ha en tillräckligt bra produkt nästa generation. Jag skulle verkligen vilja att den skulle vara så bra att den hamnar på listan över bästa Nvidia GPU: er genom tiderna, men vi får vänta och se.
Redaktörens rekommendationer
- De första prestandasiffrorna för AMD: s förväntade nya GPU: er läcker ut
- Inte ens Nvidias partners tror på den nya RTX 4060 Ti
- Denna mystiska Nvidia GPU är en absolut monstrositet - och vi har precis fått en ny look
- Varför Nvidias helt nya GPU presterar sämre än integrerad grafik
- Nvidias viktigaste nästa generations GPU är mindre än två veckor bort