De slechtste GPU's aller tijden: luid, teleurstellend, innovatief

Als je naar sommige van de beste grafische kaarten van vandaag is het gemakkelijk om dat te vergeten Nvidia en AMD (en meer recentelijk Intel) waren niet altijd de enige spelers in het GPU-spel. Hoewel zowel AMD als Nvidia een behoorlijk deel van de GPU-blunders hebben begaan, zijn ze niet de enige twee merken achter enkele van de slechtste GPU's aller tijden.

Inhoud

  • Intel740
  • S3 ViRGE
  • Nvidia GeForceFX 5800
  • 3dfx Voodoo-rush

Laten we eens kijken naar enkele grafische kaarten die u het huidige GPU-landschap zullen laten waarderen, en ja, inclusief kaarten die grensfouten zijn. (Hallo, RTX4060Ti.) Hier zijn de GPU's die het vreselijk, vreselijk verkeerd hebben gedaan, ook al hadden ze allemaal iets interessants of innovatiefs te bieden.

Aanbevolen video's

We concentreren ons hier op het verleden, vooral rond merken die uit de schijnwerpers zijn verdwenen. Zorg ervoor dat je onze andere razzia's bekijkt voor modernere voorbeelden:

  • Slechtste AMD GPU's aller tijden
  • Slechtste Nvidia GPU's aller tijden

Intel740

De Intel i740 grafische kaart op een tafel.
Vintage3D

Boog-alchemist was niet Intel's eerste onderneming in discrete GPU's, en de DG1 ook niet. Lang voordat een van deze projecten kwam, kwam de Intel i740, en het is een GPU die ervoor zorgt dat alle andere pogingen van Intel er net zo veel beter uitzien.

Verwant

  • De nieuwe gaming-laptop van Acer brengt GPU's uit de Nvidia RTX 40-serie onder de $ 1.000
  • Iemand heeft AMD's RX 7800 XT aangepast en de resultaten zullen je misschien verrassen
  • Ik heb de slechtste GPU van Nvidia gekocht, maar ik heb er geen spijt van

Halverwege de jaren negentig sprong Intel op de versnellingswagen voor 3D-graphics. De snelgroeiende pc-gamingmarkt, met titels als Doom, Quake, En Grafrover, begon echt duidelijk te maken hoeveel 3D-graphics er in de toekomst toe zouden doen. Misschien was dit wat Intel verleidde om af te wijken van zijn primaire domein – wat zelfs toen al een deel van de beste verwerkers - en probeer discrete GPU's te maken.

De Intel740, ook bekend als i740, werd begin 1998 uitgebracht. Het was een 350 nm GPU die vertrouwde op de inmiddels lang vergeten AGP-interface, die er destijds veelbelovend uitzag vergeleken met PCI (let op het verschil - niet PCIe). In feite was het een van de eerste GPU's die gebruik maakte van AGP, wat later een rol bleek te spelen in de ondergang ervan.

Het klokte op een bescheiden 66 MHz en had 2-8 MB VRAM over een 64-bits bus. Die specificaties klinken lachwekkend als we ze naar de normen van vandaag beoordelen, en zelfs toen zaten ze er een beetje naast. De hoeveelheid VRAM was lager dan sommige concurrenten van Intel konden bieden, maar de AGP-interface was bedoeld om te helpen; helaas diende het alleen om de CPU-prestaties te verminderen door het hoofd-RAM te vullen met texturen en de capaciteit van de processor in beslag te nemen. De GPU werd ook beïnvloed door dit ingewikkelde proces.

Ondanks veel hype viel de Intel740 plat. Hoewel het misschien bedoeld was als een oplossing voor het renderen van 3D-graphics, slaagde het er soms niet in om er goed mee om te gaan, waardoor het artefacten en een lage visuele helderheid opleverde. Geruchten over de slechte prestaties verspreidden zich snel. Hoewel Intel zich met deze GPU vooral richtte op kant-en-klare pc-fabrikanten (OEM's), duurde het slechts een korte tijd om vergeten te worden, omdat gameliefhebbers wisten dat ze weg moesten blijven van de i740.

De grafische markt was toen erg volatiel en ontwikkelde zich snel, dus zo'n flop moet een tegenslag voor Intel zijn geweest. Na nog een paar pogingen om afzonderlijke GPU's te maken, schakelde het echter over op geïntegreerde grafische afbeeldingen, waar het de komende jaren succes boekte.

S3 ViRGE

De S3 ViRGE grafische kaart.
Retron

Voordat we ons in het huidige landschap van AMD, Nvidia en Intel vestigden, had de GPU-markt nog een paar namen die om aandacht streden. Een van die bedrijven was S3, dat begin tot midden jaren negentig zeer snel beroemd werd. Net als Intel profiteerde S3 van de hausse op het gebied van 3D-graphics en ontwierp grafische chips die 3D-versnelling boden. Uiteindelijk werd de S3 ViRGE bekend als een ‘3D-decelerator’ en wordt hij nu herinnerd als een van de slechtste GPU’s aller tijden.

Bij de lancering werd de S3 ViRGE op de markt gebracht als ‘de eerste geïntegreerde 3D grafische versneller ter wereld’. Het was inderdaad een van de eerste chipsets die voor de reguliere markt waren ontworpen. Het ondersteunde ongeveer 2 MB tot 4 MB SDRAM via een 64-bits bus en had een kernklok van 55 MHz. Het kon zowel 2D- als 3D-afbeeldingen weergeven en bood resoluties tot 800 x 600 in 3D. Hoewel het in 2D behoorlijk goed werk deed, maakte het geen indruk in 3D - en dat was het hele doel en marketingplan voor de chip.

Geconfronteerd met relatief eenvoudige 3D-rendering was de S3 ViRGE eigenlijk een beetje sneller dan de beste CPU-gebaseerde oplossing van die tijd. Als het echter ging om de steeds complexere weergave die nodig is voor 3D-games, inclusief taken als bilineair filtering bleek de GPU eigenlijk langzamer te zijn dan softwarerendering (wat in wezen betekende dat de CPU voor grafische afbeeldingen werd gebruikt). doeleinden). Dit is wat het de spottende naam opleverde van ‘’s werelds eerste 3D-decelerator’’, omdat gebruikers er de voorkeur aan geven de 3D-versnelling uit te schakelen en in plaats daarvan gewoon de CPU te gebruiken.

Het nieuws over de slechte 3D-prestaties van de chip deed snel de ronde, en de snelle verschuiving van 2D naar 3D op de gamingmarkt hielp hier niet. S3 probeerde te repareren wat er mis ging met toekomstige GPU's, zoals ViRGE/DX en de ViRGE/GX, maar het had behoorlijk felle concurrenten in Nvidia, ATI (later AMD) en 3dfx. Uiteindelijk kon S3 niet concurreren op de groeiende 3D-markt, hoewel het chips bleef maken voor het middensegment.

Nvidia GeForceFX 5800

Nvidia's GeForce FX 5800 GPU.
Anandtech

Maak kennis met de GeForce FX 5800 Ultra — de eerste (en enige?) GPU waar Nvidia een parodievideo over heeft gemaakt. Ja, Nvidia heeft zelf een twee minuten durende video gemaakt waarin deze GPU belachelijk werd gemaakt, maar dat gebeurde pas nadat deze op de markt werd gebracht en bekend werd als de “Dustbuster” onder de grafische kaarten.

Nvidia had grote plannen voor de FX-serie. Het was bedoeld als een grote sprong naar het DirectX 9-tijdperk, wat een belangrijke overgang betekende voor pc-gaming. Deze GPU kwam op een moment dat Nvidia al marktleider was, al bleef ATI Technologies met de Radeon grafische kaartenlijn dicht achter. Nvidia’s struikelblok met de FX-serie was een onverwachte tegenslag, maar zoals we nu weten duurde de dominantie van ATI/AMD niet lang en heeft Nvidia nu het grootste deel van de markt in handen. misschien ten koste van pc-gamers.

De FX 5800 Ultra is vervaardigd volgens een 130nm-proces en geklokt op 500MHz (klok en geheugen, voor een effectieve 1GHz). Het gebruikte 128 MB GDDR2-geheugen over een 128-bits interface. Nvidia heeft het uitgerust met de CineFX-architectuur om de filmische weergave te verbeteren en gebouwd met het plan om het efficiënt te maken bij DirectX 9-shaderverwerking.

Op papier klonk het geweldig. In werkelijkheid was dat beslist niet het geval. Het deed het goed genoeg in DirectX 8-games, maar had moeite met bepaalde DX9-titels, en ATI's Radeon 9700 Pro was een aantrekkelijk alternatief dat niet dezelfde problemen had. Het grootste probleem met de FX 5800 Ultra was echter het geluid.

Nvidia implementeerde een innovatieve koelingsoplossing in deze GPU genaamd de FX Flow. Dit was bedoeld om de GPU, die normaal warm werd, zelfs tijdens intensief gamen op een comfortabele temperatuur te houden. De kleine ventilator die het apparaat aandreef, moest echter op heel hoge snelheid draaien om bij te blijven. Het resultaat was een van de luidste geluiden die een consumenten-GPU ooit produceerde.

Nvidia hield niet lang vast aan dit koelmodel. De meeste partners zijn voor de FX 5900 XT en 5900 Ultra teruggekeerd naar traditionele koelmethoden, en sindsdien hebben we zoiets niet meer gezien.

3dfx Voodoo-rush

Voodoo Rush grafische kaart.

3dfx was ooit een geduchte concurrent van Nvidia en ATI. Het werd begin jaren negentig beroemd en net als verschillende andere GPU-makers uit die tijd, volgde het de golf van 3D-graphics totdat het crashte en verbrandde. Nvidia kocht uiteindelijk het grootste deel van zijn activa in 2000. Hoewel de achteruitgang van het bedrijf niet aan één enkele kaart kan worden toegeschreven, had het een aantal interessante oplossingen die eindigden faalt op de reguliere markt, en de 3dfx Voodoo Rush GPU is misschien wel een van de meest erkende voorbeelden.

De Voodoo Rush-chipset was een vervolg op het oorspronkelijke product van het bedrijf, de Voodoo1. Het integreerde 2D- en 3D-versnelling in één kaart, waarbij de 3D-mogelijkheden van Voodoo-graphics werden gecombineerd met een 2D-kern van andere fabrikanten. Dat klopt, ik heb het hier over een dual-chip-configuratie.

De GPU leverde 6 MB EDO DRAM, een maximale kernkloksnelheid van ongeveer 50 MHz en ondersteuning voor dingen zoals de Glide API, Direct3D en OpenGL, evenals een maximale resolutie van 800 x 600 in 3D toepassingen. Op papier klonk het veelbelovend, maar toen het daadwerkelijke product eenmaal uitkwam en mensen het konden testen, kwamen er verschillende problemen door de hype heen.

Ten eerste was het een enorme GPU met de neiging om op te warmen, maar het belangrijkste probleem lag in de architectuur en hoe dit allemaal bijdroeg aan prestaties die vaak slechter waren dan die van de Voodoo 1 in 3D-games. Compatibiliteitsproblemen en visuele artefacten waren niet ongewoon, en toen deze problemen eenmaal aan het licht kwamen, keerden zowel recensenten als gebruikers deze GPU de rug toe.

De slechte ontvangst van de Voodoo Rush was echter niet wat uiteindelijk het lot van 3dfx bezegelde. Het ging verder met het produceren van meer GPU's, waaronder de (eveneens controversiële) Voodoo 5 6000 die werd geleverd met een eigen voedingsadapter. Laten we hopen dat Nvidia niet met een soortgelijk idee komt voor een van zijn kolossale vlaggenschepen van de volgende generatie, omdat het eindresultaat was best grappig om naar te kijken.

Aanbevelingen van de redactie

  • Newegg wil je oude GPU – dit is hoeveel je zou kunnen krijgen
  • Deze nieuwe GPU-connector kan eindelijk de smeltende 12VHPWR doden
  • Intel's nieuwe geïntegreerde grafische kaart zou kunnen wedijveren met afzonderlijke GPU's
  • De nieuwe RTX 4090 van Asus verbrak GPU-overklokrecords en je kunt hem binnenkort kopen
  • AMD heeft misschien nog een aantal GPU's van de volgende generatie in de tank, maar ik koop het niet