De sämsta grafikprocessorerna genom tiderna: högljudda, nedslående, innovativa

När du tittar på några av de bästa grafikkort idag är det lätt att glömma det Nvidia och AMD (och på senare tid, Intel) var inte alltid de enda spelarna i GPU-spelet. Även om både AMD och Nvidia har begått sin beskärda del av GPU-misstag, är de inte de enda två märkena bakom några av de sämsta GPU: erna genom tiderna.

Innehåll

  • Intel740
  • S3 VIRGE
  • Nvidia GeForceFX 5800
  • 3dfx Voodoo Rush

Låt oss ta en titt på några av grafikkorten som får dig att uppskatta det nuvarande GPU-landskapet, och ja, även inklusive kort som är gränsöverskridande misstag. (Hallå, RTX 4060 Ti.) Här är grafikprocessorerna som gjorde det fruktansvärt, fruktansvärt fel, även om var och en hade något intressant eller innovativt att ta med till bordet.

Rekommenderade videor

Vi fokuserar på det förflutna här, främst kring varumärken som har försvunnit från rampljuset. Se till att kolla in våra andra sammanfattningar för mer moderna exempel:

  • Sämsta AMD GPU genom tiderna
  • Sämsta Nvidia GPU: er genom tiderna

Intel740

Intel i740-grafikkortet på ett bord.
Vintage3D

Arc Alchemist

var inte Intels första satsning på diskreta GPU: er, och det var inte DG1 heller. Långt innan något av dessa projekt kom Intel i740, och det är en GPU som får alla Intels andra försök att se så mycket bättre ut.

Relaterad

  • Acers nya spelbärbara dator ger Nvidia RTX 40-seriens GPU: er under 1 000 $
  • Någon finjusterade AMD: s RX 7800 XT, och resultaten kan överraska dig
  • Jag köpte Nvidias sämsta prisvärda GPU, men jag ångrar det inte

I mitten till slutet av 1990-talet hoppade Intel på 3D-grafikaccelerationen. Den spirande PC-spelmarknaden, med titlar som Doom, Quake, och Gravplundrare, började verkligen fokusera på hur mycket 3D-grafik skulle betyda i framtiden. Kanske var det detta som frestade Intel att avvika från sin primära domän – vilket redan då gjorde några av bästa processorerna — och försök att göra diskreta GPU: er.

Intel740, även känd som i740, släpptes i början av 1998. Det var en 350nm GPU som förlitade sig på det numera bortglömda AGP-gränssnittet, som såg lovande ut jämfört med PCI (tänk på skillnaden - inte PCIe) på den tiden. Faktum är att det var en av de första GPU: erna som använde AGP, vilket senare visade sig spela en roll i dess fall.

Den klockade till blygsamma 66MHz och hade 2-8MB VRAM över en 64-bitars buss. Dessa specifikationer låter skrattretande när de bedöms utifrån dagens standarder, och redan då var de lite off. Mängden VRAM var lägre än vad vissa av Intels konkurrenter kunde tillhandahålla, men AGP-gränssnittet var tänkt att hjälpa; tyvärr tjänade det bara till att minska CPU-prestanda genom att fylla huvud-RAM med texturer och ta upp processorns kapacitet. GPU: n påverkades också av denna komplicerade process.

Trots mycket hype föll Intel740 platt. Även om det kan ha varit tänkt att bli en lösning för att rendera 3D-grafik, misslyckades den ibland med att hantera dem bra, utan istället levererade artefakter och låg visuell klarhet. Ryktena om dess dåliga prestanda spreds snabbt. Även om Intel mestadels riktade in sig på förbyggda PC-tillverkare (OEM) med denna GPU, tog det bara en kort tid att glömmas bort eftersom spelentusiaster visste att de skulle hålla sig borta från i740.

Grafikmarknaden var mycket volatil då och utvecklades snabbt, så en sådan flopp måste ha varit ett bakslag för Intel. Men efter ytterligare ett par försök att göra diskreta GPU: er bytte den till integrerad grafik, där den fick framgång under de kommande åren.

S3 VIRGE

S3 ViRGE grafikkort.
Retronn

Innan vi slog oss in i det nuvarande landskapet av AMD, Nvidia och Intel, hade GPU-marknaden några fler namn som tävlade om uppmärksamhet. Ett sådant företag var S3, som blev berömmelse mycket snabbt i början till mitten av 1990-talet. Ungefär som Intel utnyttjade S3 3D-grafikboomen och designade grafikkretsar som erbjöd 3D-acceleration. Till slut blev S3 ViRGE känd som en "3D-decelerator" och är nu ihågkommen som en av de sämsta GPU: erna genom tiderna.

Vid lanseringen marknadsfördes S3 ViRGE som "världens första integrerade 3D-grafikaccelerator." Det var verkligen en av de första sådana chipset designade för den vanliga marknaden. Den stödde cirka 2MB till 4MB SDRAM över en 64-bitars buss och hade en kärnklocka på 55MHz. Den kunde återge både 2D- och 3D-grafik och erbjöd upplösningar på upp till 800 x 600 i 3D. Även om den gjorde ett tillräckligt bra jobb i 2D, lyckades den inte imponera i 3D - och det var hela syftet och marknadsföringsschemat för chipet.

När den stod inför relativt enkel 3D-rendering var S3 ViRGE faktiskt lite snabbare än den bästa CPU-baserade lösningen på den tiden. Men när det kom till den allt mer komplexa renderingen som krävs för 3D-spel, inklusive uppgifter som bilinjär filtrering, visade sig GPU: n faktiskt vara långsammare än mjukvarurendering (vilket i huvudsak innebar att använda processorn för grafik syften). Detta är vad som gav den det hånfulla namnet "världens första 3D-decelerator", eftersom användare skulle föredra att stänga av 3D-accelerationen och bara använda processorn istället.

Ryktet om chipets dåliga 3D-prestanda kom snabbt runt, och det snabba skiftet från 2D till 3D på spelmarknaden hjälpte inte här. S3 försökte fixa det som gick fel med framtida grafikprocessorer, som ViRGE/DX och ViRGE/GX, men den hade ganska hårda konkurrenter i Nvidia, ATI (senare AMD) och 3dfx. I slutändan kunde S3 inte konkurrera på den växande 3D-marknaden, även om den fortsatte att tillverka chips för mellansegmentet.

Nvidia GeForceFX 5800

Nvidias GeForce FX 5800 GPU.
Anandtech

Möt GeForce FX 5800 Ultra — den första (och enda?) GPU: n som Nvidia gjorde en falsk video om. Ja, Nvidia själv gjorde en tvåminuters video som hånade denna GPU, men det var inte förrän efter att den släpptes på marknaden och blev känd som "Dustbuster" av grafikkort.

Nvidia hade stora planer för FX-serien. Det var tänkt att vara det här stora steget in i DirectX 9-eran, som var en betydande övergång för PC-spel. Denna GPU kom vid en tidpunkt då Nvidia redan var marknadsledare, även om ATI Technologies låg tätt efter med Radeon-grafikkortslinjen. Nvidias snubblande med FX-serien var ett oväntat bakslag, men som vi nu vet varade ATI: s/AMD: s dominans inte länge och Nvidia kontrollerar nu majoriteten av marknaden, kanske till nackdel för PC-spelare.

FX 5800 Ultra tillverkades på en 130nm-process och klockades till 500MHz (klocka och minne, för en effektiv 1GHz). Den använde 128 MB GDDR2-minne över ett 128-bitars gränssnitt. Nvidia dekorerade den med CineFX-arkitekturen för att förbättra filmisk rendering och byggde den med planen att göra den effektiv vid DirectX 9 shader-bearbetning.

På pappret lät det jättebra. I verkligheten var det definitivt inte. Det gjorde tillräckligt bra i DirectX 8-spel men kämpade med vissa DX9-titlar, och ATI: s Radeon 9700 Pro var ett lockande alternativ som inte hade samma problem. Det största problemet med FX 5800 Ultra var dock bruset.

Nvidia implementerade en innovativ kyllösning i denna GPU kallad FX Flow. Detta var tänkt att hålla GPU: n, som normalt var varm, vid en behaglig temperatur även under tungt spelande. Den lilla fläkten som drev apparaten var dock tvungen att köra i en riktigt hög hastighet för att hänga med. Resultatet var något av det högsta ljudet som en konsument-GPU någonsin varit känd för att producera.

Nvidia höll sig inte till denna kylmodell länge. De flesta av dess partners återgick till traditionella kylningsmetoder för FX 5900 XT och 5900 Ultra, och vi har inte sett något liknande sedan dess.

3dfx Voodoo Rush

Voodoo Rush grafikkort.

3dfx var en gång en formidabel rival till Nvidia och ATI. Den blev berömd i början av 1990-talet, och liksom flera andra GPU-tillverkare på den tiden red den på vågen av 3D-grafik tills den kraschade och brann. Nvidia köpte så småningom de flesta av sina tillgångar år 2000. Även om företagets nedgång inte kan tillskrivas ett enda kort, hade det några intressanta lösningar som slutade upp misslyckas på den vanliga marknaden, och 3dfx Voodoo Rush GPU är kanske en av de mest erkända exempel.

Voodoo Rush-kretsuppsättningen var en uppföljning av företagets första produkt, Voodoo1. Den integrerade 2D- och 3D-acceleration i ett enda kort och parade ihop 3D-kapaciteten hos Voodoo-grafik med en 2D-kärna från andra tillverkare. Det stämmer, jag pratar om en dual-chip-konfiguration här.

GPU: n serverade 6MB EDO DRAM, en maximal kärnklockhastighet på cirka 50MHz och stöd för saker som Glide API, Direct3D och OpenGL, samt en maximal upplösning på 800 x 600 i 3D applikationer. Det lät lovande på pappret, men när den faktiska produkten väl var ute och folk kunde testa den, kikade flera problem igenom hypen.

För det första var det en massiv GPU med en tendens att värmas upp, men huvudproblemet låg i arkitekturen och hur det hela adderades till prestanda som ofta var sämre än Voodoo 1 i 3D-spel. Kompatibilitetsproblem och visuella artefakter var inte ovanliga, och när dessa problem uppdagades vände både granskare och användare ryggen åt denna GPU.

Den dåliga mottagningen av Voodoo Rush var dock inte det som slutligen beseglade 3dfx öde. Det fortsatte med att producera fler grafikprocessorer, inklusive den (också kontroversiella) Voodoo 5 6000 som kom med en egen strömadapter. Låt oss hoppas att Nvidia inte kommer på en liknande idé för en av dem nästa generations behemoth flaggskepp, eftersom slutresultatet var ganska rolig att titta på.

Redaktörens rekommendationer

  • Newegg vill ha din gamla GPU - här är hur mycket du kan få
  • Denna nya GPU-kontakt kan äntligen döda den smältande 12VHPWR
  • Intels nya integrerade grafik kan konkurrera med diskreta GPU: er
  • Asus nya RTX 4090 krossade GPU-överklockningsrekord, och du kommer att kunna köpa den snart
  • AMD kanske fortfarande har några nästa generations GPU: er kvar i tanken - men jag köper den inte