Når du ser på noen av de beste grafikkort i dag er det lett å glemme det Nvidia og AMD (og mer nylig, Intel) var ikke alltid de eneste spillerne i GPU-spillet. Mens både AMD og Nvidia har begått sin rettferdige andel av GPU-tabber, er de ikke de eneste to merkene bak noen av tidenes verste GPUer.
Innhold
- Intel740
- S3 ViRGE
- Nvidia GeForceFX 5800
- 3dfx Voodoo Rush
La oss ta en titt på noen av grafikkortene som vil få deg til å sette pris på det nåværende GPU-landskapet, og ja, til og med inkludert kort som er grensefeil. (Hallo, RTX 4060 Ti.) Her er GPU-ene som gjorde det fryktelig, fryktelig galt, selv om hver av dem hadde noe interessant eller nyskapende å bringe på bordet.
Anbefalte videoer
Vi fokuserer på fortiden her, hovedsakelig rundt merker som har forsvunnet fra rampelyset. Sørg for å sjekke ut våre andre roundups for mer moderne eksempler:
- Verste AMD GPUer gjennom tidene
- Verste Nvidia GPUer gjennom tidene
Intel740
Arc Alchemist var ikke Intels første satsing på diskrete GPUer, og det var heller ikke DG1. Lenge før et av disse prosjektene kom Intel i740, og det er en GPU som får alle Intels andre forsøk til å se så mye bedre ut.
I slekt
- Acers nye gaming-laptop bringer Nvidia RTX 40-seriens GPUer under $1000
- Noen har justert AMDs RX 7800 XT, og resultatene kan overraske deg
- Jeg kjøpte Nvidias dårligste GPU, men jeg angrer ikke
På midten til slutten av 1990-tallet hoppet Intel på 3D-grafikkakselerasjonsvognen. Det spirende PC-spillmarkedet, med titler som Doom, Quake, og Gravrøver, begynte virkelig å sette fokus på hvor mye 3D-grafikk ville bety i fremtiden. Kanskje dette var det som fristet Intel til å forlate hoveddomenet sitt – som selv den gang gjorde noen av beste prosessorer - og prøv å lage diskrete GPUer.
Intel740, også kjent som i740, ble utgitt tidlig i 1998. Det var en 350nm GPU som stolte på det nå for lengst glemte AGP-grensesnittet, som så lovende ut sammenlignet med PCI (pass på forskjellen – ikke PCIe) på den tiden. Faktisk var det en av de første GPUene som brukte AGP, som senere viste seg å spille en rolle i undergangen.
Den klokket til beskjedne 66MHz og hadde 2-8MB VRAM over en 64-bits buss. Disse spesifikasjonene høres latterlig ut når de bedømmes etter dagens standarder, og selv den gang var de litt dårlige. Mengden VRAM var lavere enn noen av Intels konkurrenter var i stand til å gi, men AGP-grensesnittet var ment å hjelpe; Dessverre tjente det bare til å redusere CPU-ytelsen ved å fylle hoved-RAM med teksturer og ta opp prosessorens kapasitet. GPUen ble også påvirket av denne kronglete prosessen.
Til tross for mye hype, falt Intel740 flatt. Selv om det kan ha vært ment å bli en løsning for å gjengi 3D-grafikk, klarte den noen ganger ikke å håndtere dem godt, og leverte artefakter og lav visuell klarhet i stedet. Ryktene om den dårlige ytelsen spredte seg raskt. Selv om Intel stort sett rettet seg mot forhåndsbygde PC-produsenter (OEM-er) med denne GPUen, tok det bare kort tid å bli glemt, da spillentusiaster visste å holde seg unna i740.
Grafikkmarkedet var veldig flyktig den gang og utviklet seg raskt, så en slik flopp må ha vært et tilbakeslag for Intel. Etter et par forsøk til på å lage diskrete GPUer, byttet den imidlertid til integrert grafikk, hvor den fant suksess i årene som kommer.
S3 ViRGE
Før vi slo oss ned i det nåværende landskapet til AMD, Nvidia og Intel, hadde GPU-markedet noen flere navn som kjempet om oppmerksomhet. Et slikt selskap var S3, som ble berømt veldig raskt på begynnelsen til midten av 1990-tallet. På samme måte som Intel, utnyttet S3 3D-grafikkboomen og designet grafikkbrikker som tilbød 3D-akselerasjon. Til slutt ble S3 ViRGE kjent som en "3D-decelerator", og er nå husket som en av de verste GPUene gjennom tidene.
Ved lansering ble S3 ViRGE markedsført som "verdens første integrerte 3D-grafikkakselerator." Det var faktisk et av de første slike brikkesett designet for det vanlige markedet. Den støttet rundt 2MB til 4MB SDRAM over en 64-bits buss og hadde en kjerneklokke på 55MHz. Den kunne gjengi både 2D- og 3D-grafikk og tilbød oppløsninger på opptil 800 x 600 i 3D. Selv om den gjorde en anstendig nok jobb i 2D, klarte den ikke å imponere i 3D - og det var hele formålet og markedsføringsplanen for brikken.
Når den sto overfor relativt enkel 3D-gjengivelse, var S3 ViRGE faktisk litt raskere enn den beste CPU-baserte løsningen på den tiden. Men når det kom til den stadig mer komplekse gjengivelsen som kreves for 3D-spill, inkludert oppgaver som bilineær filtrering, viste GPU-en seg faktisk å være tregere enn programvaregjengivelse (som i hovedsak betydde å bruke CPU for grafikk formål). Dette er det som ga den det hånende navnet "verdens første 3D-decelerator", fordi brukere foretrekker å slå av 3D-akselerasjonen og bare bruke CPU i stedet.
Ordet om brikkens dårlige 3D-ytelse kom raskt rundt, og det raske skiftet fra 2D til 3D i spillmarkedet hjalp ikke her. S3 forsøkte å fikse det som gikk galt med fremtidige GPUer, som ViRGE/DX og ViRGE/GX, men den hadde ganske harde konkurrenter i Nvidia, ATI (senere AMD) og 3dfx. Til syvende og sist kunne ikke S3 konkurrere i det voksende 3D-markedet, selv om det fortsatte å lage sjetonger for mellomtonesegmentet.
Nvidia GeForceFX 5800
Møt GeForce FX 5800 Ultra – den første (og eneste?) GPUen som Nvidia laget en falsk video om. Ja, Nvidia laget selv en to-minutters video som hånet denne GPUen, men det var ikke før etter at den ble sluppet på markedet og ble kjent som "Dustbuster" av grafikkort.
Nvidia hadde store planer for FX-serien. Det var ment å være dette store spranget inn i DirectX 9-æraen, som var en betydelig overgang for PC-spilling. Denne GPUen kom på et tidspunkt da Nvidia allerede var markedsleder, selv om ATI Technologies var tett bak med Radeon-grafikkkortlinjen. Nvidias snubling med FX-serien var et uventet tilbakeslag, men som vi nå vet, varte ikke ATIs/AMDs dominans lenge og Nvidia kontrollerer nå størstedelen av markedet, kanskje til skade for PC-spillere.
FX 5800 Ultra ble produsert på en 130nm prosess og klokket til 500MHz (klokke og minne, for en effektiv 1GHz). Den brukte 128 MB GDDR2-minne over et 128-bits grensesnitt. Nvidia pyntet den med CineFX-arkitekturen for å forbedre kinematisk gjengivelse og bygde den med planen om å gjøre den effektiv ved DirectX 9 shader-behandling.
På papiret hørtes det flott ut. I virkeligheten var det definitivt ikke det. Den gjorde det bra nok i DirectX 8-spill, men slet med visse DX9-titler, og ATIs Radeon 9700 Pro var et fristende alternativ som ikke hadde de samme problemene. Hovedproblemet med FX 5800 Ultra var imidlertid støyen.
Nvidia implementerte en innovativ kjøleløsning i denne GPUen kalt FX Flow. Dette var ment å holde GPUen, som vanligvis var varm, ved en behagelig temperatur selv under tung spilling. Den lille viften som drev utstyret måtte imidlertid kjøre i veldig høy hastighet for å følge med. Resultatet var noe av den høyeste støyen en forbruker-GPU noen gang var kjent for å produsere.
Nvidia holdt seg ikke til denne kjølemodellen lenge. De fleste av partnerne gikk tilbake til tradisjonelle kjølemetoder for FX 5900 XT og 5900 Ultra, og vi har ikke sett noe lignende siden.
3dfx Voodoo Rush
3dfx var en gang en formidabel rival til Nvidia og ATI. Den ble berømt på begynnelsen av 1990-tallet, og som flere andre GPU-produsenter på den tiden, red den på bølgen av 3D-grafikk til den krasjet og brant. Nvidia kjøpte til slutt mesteparten av eiendelene i 2000. Selv om selskapets nedgang ikke kan tilskrives et enkelt kort, hadde det noen interessante løsninger som endte svikter i det vanlige markedet, og 3dfx Voodoo Rush GPU er kanskje en av de mest anerkjente eksempler.
Voodoo Rush-brikkesettet var en oppfølging av selskapets første produkt, Voodoo1. Den integrerte 2D- og 3D-akselerasjon i et enkelt kort, og paret 3D-funksjonene til Voodoo-grafikk med en 2D-kjerne fra andre produsenter. Det stemmer, jeg snakker om en dual-chip-konfigurasjon her.
GPUen serverte 6 MB EDO DRAM, en maksimal kjerneklokkehastighet på rundt 50MHz og støtte for ting som Glide API, Direct3D og OpenGL, samt en maksimal oppløsning på 800 x 600 i 3D applikasjoner. Det hørtes lovende ut på papiret, men når selve produktet var ute og folk kunne teste det, var det flere problemer som tittet gjennom hypen.
For det første var det en massiv GPU med en tendens til å varmes opp, men hovedproblemet lå i arkitekturen og hvordan det hele la opp til ytelse som ofte var dårligere enn Voodoo 1 i 3D-spill. Kompatibilitetsproblemer og visuelle artefakter var ikke uvanlige, og når disse problemene ble kjent, vendte både anmeldere og brukere ryggen til denne GPUen.
Den dårlige mottakelsen av Voodoo Rush var imidlertid ikke det som til slutt forseglet skjebnen til 3dfx. Den fortsatte med å produsere flere GPUer, inkludert den (også kontroversielle) Voodoo 5 6000 som kom med sin egen strømadapter. La oss håpe at Nvidia ikke kommer opp med en lignende idé for en av dem neste generasjons behemoth flaggskip, fordi sluttresultatet var ganske morsomt å se på.
Redaktørenes anbefalinger
- Newegg vil ha din gamle GPU - her er hvor mye du kan få
- Denne nye GPU-kontakten kan endelig drepe den smeltende 12VHPWR
- Intels nye integrerte grafikk kan konkurrere med diskrete GPUer
- Asus' nye RTX 4090 knuste GPU-overklokkingsrekorder, og du vil snart kunne kjøpe den
- AMD kan fortsatt ha noen neste generasjons GPUer igjen i tanken - men jeg kjøper den ikke