De værste GPU'er nogensinde: højlydte, skuffende, innovative

Når man ser på nogle af de bedste grafikkort i dag er det nemt at glemme det Nvidia og AMD (og for nylig Intel) var ikke altid de eneste spillere i GPU-spillet. Selvom både AMD og Nvidia har begået deres rimelige andel af GPU-fejl, er de ikke de eneste to mærker bag nogle af de værste GPU'er nogensinde.

Indhold

  • Intel740
  • S3 Virge
  • Nvidia GeForceFX 5800
  • 3dfx Voodoo Rush

Lad os tage et kig på nogle af de grafikkort, der vil få dig til at sætte pris på det nuværende GPU-landskab, og ja, endda inklusive kort, der er grænsefejl. (Hej, RTX 4060 Ti.) Her er de GPU'er, der gjorde det frygtelig, frygteligt forkert, selvom de hver især havde noget interessant eller innovativt at bringe på bordet.

Anbefalede videoer

Vi er fokuseret på fortiden her, hovedsageligt omkring mærker, der er forsvundet fra rampelyset. Sørg for at tjekke vores andre roundups for mere moderne eksempler:

  • Værste AMD GPU'er nogensinde
  • Værste Nvidia GPU'er nogensinde

Intel740

Intel i740-grafikkortet på et bord.
Vintage 3D

Arc Alchemist var ikke Intels første satsning på diskrete GPU'er, og det var DG1 heller ikke. Længe før et af disse projekter kom Intel i740, og det er en GPU, der får alle Intels andre forsøg til at se lige så meget bedre ud.

Relaterede

  • Acers nye gaming laptop bringer Nvidia RTX 40-serien GPU'er under $1.000
  • Nogen har justeret AMD's RX 7800 XT, og resultaterne kan overraske dig
  • Jeg købte Nvidias dårligste GPU, men jeg fortryder det ikke

I midten til slutningen af ​​1990'erne hoppede Intel med på 3D-grafikaccelerationsvognen. Det spirende pc-spilmarked, med titler som Doom, Quake, og Tomb Raider, var virkelig begyndt at sætte fokus på, hvor meget 3D-grafik ville betyde noget i fremtiden. Måske var det det, der fristede Intel til at forlade sit primære domæne - hvilket selv dengang gjorde nogle af de bedste processorer - og prøv at lave diskrete GPU'er.

Intel740, også kendt som i740, blev udgivet i begyndelsen af ​​1998. Det var en 350nm GPU, der var afhængig af det nu for længst glemte AGP-interface, som så lovende ud sammenlignet med PCI (pas på forskellen - ikke PCIe) dengang. Faktisk var det en af ​​de første GPU'er, der brugte AGP, som senere viste sig at spille en rolle i dens undergang.

Den klokkede på beskedne 66MHz og havde 2-8MB VRAM på tværs af en 64-bit bus. Disse specifikationer lyder latterlige, når de vurderes ud fra nutidens standarder, og selv dengang var de en smule off. Mængden af ​​VRAM var lavere end nogle af Intels konkurrenter var i stand til at levere, men AGP-grænsefladen var beregnet til at hjælpe; desværre tjente det kun til at reducere CPU-ydeevnen ved at fylde hoved-RAM med teksturer og optage processorens kapacitet. GPU'en blev også påvirket af denne indviklede proces.

Trods en masse hype faldt Intel740 pladask. Selvom det måske var meningen, at det skulle blive en løsning til gengivelse af 3D-grafik, lykkedes det nogle gange ikke at håndtere dem godt og leverede artefakter og lav visuel klarhed i stedet. Rygterne om dens dårlige ydeevne spredte sig hurtigt. Selvom Intel for det meste var rettet mod forudbyggede pc-producenter (OEM'er) med denne GPU, tog det kun kort tid at blive glemt, da spilentusiaster vidste at holde sig væk fra i740.

Grafikmarkedet var meget ustabilt dengang og udviklede sig hurtigt, så et flop som det må have været et tilbageslag for Intel. Efter et par forsøg mere på at lave diskrete GPU'er skiftede den dog til integreret grafik, hvor den fik succes i de kommende år.

S3 Virge

S3 ViRGE grafikkort.
Retronn

Før vi slog os ned i det nuværende landskab med AMD, Nvidia og Intel, havde GPU-markedet et par flere navne, der kæmpede om opmærksomheden. Et sådant firma var S3, som blev berømt meget hurtigt i begyndelsen til midten af ​​1990'erne. Ligesom Intel udnyttede S3 3D-grafikboomet og designede grafikchips, der tilbød 3D-acceleration. I sidste ende blev S3 ViRGE kendt som en "3D-decelerator", og er nu husket som en af ​​de værste GPU'er nogensinde.

Ved lanceringen blev S3 ViRGE markedsført som "verdens første integrerede 3D-grafikaccelerator." Det var faktisk et af de første sådanne chipsæt designet til det almindelige marked. Den understøttede omkring 2MB til 4MB SDRAM på tværs af en 64-bit bus og havde et kerneur på 55MHz. Den kunne gengive både 2D- og 3D-grafik og tilbød opløsninger på op til 800 x 600 i 3D. Selvom det gjorde et anstændigt nok stykke arbejde i 2D, lykkedes det ikke at imponere i 3D - og det var hele formålet og markedsføringsplanen for chippen.

Når den stod over for relativt simpel 3D-gengivelse, var S3 ViRGE faktisk en lille smule hurtigere end den bedste CPU-baserede løsning på det tidspunkt. Men når det kom til den stadig mere komplekse gengivelse, der kræves til 3D-spil, inklusive opgaver som bilineær filtrering, viste GPU'en sig faktisk at være langsommere end softwaregengivelse (hvilket i bund og grund betød at bruge CPU'en til grafik formål). Dette er, hvad der gav den det hånende navn "verdens første 3D-decelerator", fordi brugere foretrækker at slå 3D-accelerationen fra og bare bruge CPU'en i stedet for.

Ordet om chippens dårlige 3D-ydeevne kom hurtigt rundt, og det hurtige skift fra 2D til 3D på spilmarkedet hjalp ikke her. S3 forsøgte at rette op på, hvad der gik galt med fremtidige GPU'er, såsom ViRGE/DX og ViRGE/GX, men den havde ret hårde konkurrenter i Nvidia, ATI (senere AMD) og 3dfx. I sidste ende kunne S3 ikke konkurrere på det voksende 3D-marked, selvom det blev ved med at lave chips til mellemsegmentet.

Nvidia GeForceFX 5800

Nvidias GeForce FX 5800 GPU.
Anandtech

Mød GeForce FX 5800 Ultra - den første (og eneste?) GPU, som Nvidia lavede en spoofvideo om. Ja, Nvidia lavede selv en to-minutters video, der hånede denne GPU, men det var først efter, at den blev frigivet på markedet og blev kendt som "Dustbuster" af grafikkort.

Nvidia havde store planer for FX-serien. Det var meningen, at det skulle være dette store spring ind i DirectX 9-æraen, som var en væsentlig overgang for pc-spil. Denne GPU kom på et tidspunkt, hvor Nvidia allerede var markedsleder, selvom ATI Technologies var tæt bagud med Radeon-grafikkortlinjen. Nvidias snublen med FX-serien var et uventet tilbageslag, men som vi nu ved, varede ATI's/AMD's dominans ikke længe, ​​og Nvidia kontrollerer nu størstedelen af ​​markedet, måske til skade for pc-spillere.

FX 5800 Ultra blev fremstillet på en 130nm-proces og clocket ved 500MHz (ur og hukommelse, for en effektiv 1GHz). Den brugte 128 MB GDDR2-hukommelse på tværs af en 128-bit grænseflade. Nvidia pyntede den med CineFX-arkitekturen for at forbedre filmisk gengivelse og byggede den med planen om at gøre den effektiv ved DirectX 9 shader-behandling.

På papiret lød det fantastisk. I virkeligheden var det bestemt ikke. Det klarede sig godt nok i DirectX 8-spil, men kæmpede med visse DX9-titler, og ATIs Radeon 9700 Pro var et lokkende alternativ, der ikke havde de samme problemer. Det største problem med FX 5800 Ultra var dog støjen.

Nvidia implementerede en innovativ køleløsning i denne GPU kaldet FX Flow. Dette var beregnet til at holde GPU'en, som normalt kørte varm, ved en behagelig temperatur selv under tungt spil. Den lille blæser, der drev apparatet, skulle dog køre med en rigtig høj hastighed for at følge med. Resultatet var noget af den højeste støj, en forbruger-GPU nogensinde var kendt for at producere.

Nvidia holdt sig ikke til denne kølemodel længe. De fleste af dets partnere vendte tilbage til traditionelle kølemetoder til FX 5900 XT og 5900 Ultra, og vi har ikke set noget lignende siden.

3dfx Voodoo Rush

Voodoo Rush grafikkort.

3dfx var engang en formidabel rival til Nvidia og ATI. Den blev berømt i begyndelsen af ​​1990'erne, og ligesom flere andre GPU-producenter på den tid red den på bølgen af ​​3D-grafik, indtil den styrtede ned og brændte. Nvidia købte til sidst de fleste af sine aktiver i 2000. Selvom virksomhedens tilbagegang ikke kan tilskrives et enkelt kort, havde det nogle interessante løsninger, der sluttede op at svigte på det almindelige marked, og 3dfx Voodoo Rush GPU er måske en af ​​de mest anerkendte eksempler.

Voodoo Rush-chipsættet var en opfølgning på virksomhedens oprindelige produkt, Voodoo1. Den integrerede 2D- og 3D-acceleration i et enkelt kort og parrede 3D-egenskaberne i Voodoo-grafik med en 2D-kerne fra andre producenter. Det er rigtigt, jeg taler om en dual-chip-konfiguration her.

GPU'en serverede 6 MB EDO DRAM, en maksimal kerne-clockhastighed på omkring 50MHz og understøttelse af ting som Glide API, Direct3D og OpenGL, samt en maksimal opløsning på 800 x 600 i 3D applikationer. Det lød lovende på papiret, men da det egentlige produkt var ude, og folk kunne teste det, kiggede flere problemer igennem hypen.

For det første var det en massiv GPU med en tendens til at varme op, men hovedproblemet lå i arkitekturen, og hvordan det hele tilføjede til ydeevne, der ofte var værre end Voodoo 1 i 3D-spil. Kompatibilitetsproblemer og visuelle artefakter var ikke ualmindeligt, og da disse problemer kom frem, vendte både anmeldere og brugere ryggen til denne GPU.

Den dårlige modtagelse af Voodoo Rush var dog ikke det, der i sidste ende beseglede 3dfx's skæbne. Det fortsatte med at producere flere GPU'er, inklusive den (også kontroversielle) Voodoo 5 6000, som kom med sin egen strømadapter. Lad os håbe, at Nvidia ikke kommer med en lignende idé til en af ​​dens næste generations behemoth flagskibe, fordi slutresultatet var ret sjovt at se på.

Redaktørens anbefalinger

  • Newegg vil have din gamle GPU - her er, hvor meget du kan få
  • Dette nye GPU-stik kan endelig dræbe den smeltende 12VHPWR
  • Intels nye integrerede grafik kan konkurrere med diskrete GPU'er
  • Asus' nye RTX 4090 knuste GPU-overclocking-rekorder, og du vil snart kunne købe den
  • AMD har muligvis stadig nogle næste generations GPU'er tilbage i tanken - men jeg køber det ikke