Minden idők legrosszabb GPU-i: hangos, kiábrándító, innovatív

click fraud protection

Ha megnézed néhányat a legjobb grafikus kártyák manapság ezt könnyű elfelejteni Nvidia és AMD (és újabban az Intel) nem mindig voltak az egyedüli játékosok a GPU-játékban. Bár az AMD és az Nvidia is elkövette a rá eső részét a GPU-hibákban, nem ők az egyetlen két márka, akik minden idők legrosszabb GPU-i mögött állnak.

Tartalom

  • Intel740
  • S3 VIRGE
  • Nvidia GeForceFX 5800
  • 3dfx Voodoo Rush

Vessünk egy pillantást néhány grafikus kártyára, amelyek értékelni fogják a jelenlegi GPU-környezetet, és igen, még olyan kártyákat is, amelyek határhibák. (Helló, RTX 4060 Ti.) Itt vannak azok a GPU-k, amelyek borzasztóan, rettenetesen rosszul csinálták, pedig mindegyiknek volt valami érdekes vagy innovatív tennivalója.

Ajánlott videók

Itt a múltra koncentrálunk, főként azokra a márkákra, amelyek elhalványultak a rivaldafényből. Ne felejtse el megnézni a többi összeállításunkat a modernebb példákért:

  • Minden idők legrosszabb AMD GPU-i
  • Minden idők legrosszabb Nvidia GPU-i

Intel740

Az Intel i740 grafikus kártya az asztalon.
Vintage3D

Ív alkimista nem ez volt az Intel első vállalkozása a különálló GPU-k terén, és nem is a DG1. Jóval azelőtt, hogy bármelyik projekt megjelent volna, az Intel i740, és ez egy olyan GPU, amely az Intel összes többi próbálkozását sokkal szebbé teszi.

Összefüggő

  • Az Acer új gaming laptopja 1000 dollár alá hozza az Nvidia RTX 40-es GPU-kat
  • Valaki megcsípte az AMD RX 7800 XT-jét, és az eredmények meglepőek lehetnek
  • Megvettem az Nvidia legrosszabb értékű GPU-ját, de nem bántam meg

Az 1990-es évek közepén és végén az Intel ráugrott a 3D-s grafikus gyorsításra. A virágzó PC-játékpiac, olyan címekkel, mint Doom, Quake, és Tomb Raider, kezdett igazán fókuszba kerülni, hogy a 3D grafika mennyire számít majd a jövőben. Talán ez volt az, ami arra késztette az Intelt, hogy kiszakadjon elsődleges tartományából – ami már akkoriban is hozzájárult a legjobb processzorok - és próbáljon meg különálló GPU-kat készíteni.

Az Intel740, más néven i740, 1998 elején jelent meg. Ez egy 350 nm-es GPU volt, amely a már rég elfeledett AGP interfészre támaszkodott, amely akkoriban ígéretesnek tűnt a PCI-hez képest (ne feledje a különbséget – nem PCIe). Valójában ez volt az egyik első GPU, amely AGP-t használt, amely később bebizonyosodott, hogy közrejátszott a bukásban.

Szerény 66 MHz-en járt, és 2-8 MB VRAM volt egy 64 bites buszon. Ezek a specifikációk nevetségesen hangzanak a mai szabványok alapján, és még akkoriban is kissé eltértek. A VRAM mennyisége alacsonyabb volt, mint amennyit az Intel néhány versenytársa biztosítani tudott, de az AGP interfésznek segíteni kellett; sajnos csak a CPU teljesítményének csökkentését szolgálta azáltal, hogy a fő RAM-ot megtömte textúrákkal és elfoglalta a processzor kapacitását. A GPU-ra is hatással volt ez a bonyolult folyamat.

A nagy hype ellenére az Intel740 elbukott. Bár lehet, hogy megoldást jelenthetett a 3D-s grafikák megjelenítésére, néha nem tudta jól kezelni őket, helyette műtermékeket és gyenge vizuális tisztaságot biztosított. A rossz teljesítményről szóló pletykák gyorsan terjedtek. Bár az Intel leginkább az előre beépített PC-gyártókat (OEM) célozta meg ezzel a GPU-val, csak egy kis időbe telt, mire feledésbe merült, mivel a játékrajongók tudták, hogy távol kell maradniuk az i740-től.

A grafikus piac akkoriban nagyon ingatag volt, és gyorsan fejlődött, így egy ilyen flop biztosan visszalépés volt az Intel számára. Néhány további kísérlet után azonban, hogy különálló GPU-kat készítsen, áttért az integrált grafikára, ahol az elkövetkező években sikert aratott.

S3 VIRGE

Az S3 VIRGE grafikus kártya.
Retronn

Mielőtt belenyugodtunk volna az AMD, az Nvidia és az Intel jelenlegi környezetébe, a GPU-piacon még néhány név versengett a figyelemért. Az egyik ilyen cég az S3 volt, amely az 1990-es évek elején-közepén nagyon gyorsan hírnevet szerzett. Az Intelhez hasonlóan az S3 is kihasználta a 3D grafikus fellendülést, és olyan grafikus chipeket tervezett, amelyek 3D gyorsulást kínáltak. Végül az S3 ViRGE „3D lassítóként” vált ismertté, és ma már minden idők egyik legrosszabb GPU-jaként emlékeznek rá.

A piacra dobáskor az S3 ViRGE a „világ első integrált 3D grafikus gyorsítójaként” került forgalomba. Valójában ez volt az egyik első ilyen lapkakészlet, amelyet a mainstream piacra terveztek. Körülbelül 2–4 MB SDRAM-ot támogatott egy 64 bites buszon, és 55 MHz-es órajele volt. 2D és 3D grafikát is képes megjeleníteni, és 3D-ben akár 800 x 600-as felbontást is kínált. Bár 2D-ben elég tisztességes munkát végzett, 3D-ben nem sikerült lenyűgöznie – és ez volt a chip teljes célja és marketingterve.

A viszonylag egyszerű 3D-s megjelenítéssel szemben az S3 ViRGE valójában egy kicsit gyorsabb volt, mint akkoriban a legjobb CPU-alapú megoldás. Ha azonban a 3D-s játékokhoz szükséges egyre összetettebb renderelésről van szó, beleértve a bilineáris feladatokat is szűrés, a GPU valójában lassabbnak bizonyult, mint a szoftveres renderelés (ami lényegében azt jelentette, hogy a CPU-t kellett használni a grafikához célokra). Ez az oka annak, hogy a „világ első 3D-lassítója” nevetségessé vált, mert a felhasználók legszívesebben kikapcsolnák a 3D-s gyorsítást, és helyette a CPU-t használnák.

A chip gyenge 3D-s teljesítményének híre gyorsan elterjedt, és a játékpiacon a 2D-ről a 3D-re való gyors váltás itt nem segített. Az S3 megpróbálta kijavítani azt, ami elromlott a jövőbeli GPU-knál, mint például a ViRGE/DX és a ViRGE/GX, de elég kemény versenytársai voltak az Nvidia, az ATI (később AMD) és a 3dfx terén. Végül az S3 nem tudott versenyezni a növekvő 3D-s piacon, bár folyamatosan gyártott chipeket a középkategóriás szegmens számára.

Nvidia GeForceFX 5800

Nvidia GeForce FX 5800 GPU.
Anandtech

Ismerje meg a GeForce FX 5800 Ultra-t – az első (és egyetlen?) GPU-t, amelyről az Nvidia hamis videót készített. Igen, maga az Nvidia készített egy kétperces videót, amely ezt a GPU-t gúnyolta, de csak azután, hogy piacra dobták, és a grafikus kártyák „Dustbusterjeként” vált ismertté.

Az Nvidiának nagy tervei voltak az FX sorozattal. Ez volt a nagy ugrás a DirectX 9-korszakba, amely jelentős átmenetet jelentett a PC-s játékokban. Ez a GPU abban az időben jött létre, amikor az Nvidia már piacvezető volt, bár az ATI Technologies nagyon lemaradt a Radeon grafikus kártyákkal. Az Nvidia botlása az FX sorozattal váratlan visszalépés volt, de amint azt ma már tudjuk, az ATI/AMD dominanciája nem tartott sokáig, és most az Nvidia uralja a piac nagy részét. talán a PC-s játékosok kárára.

Az FX 5800 Ultra 130 nm-es eljárással készült, és 500 MHz-es órajellel (órajel és memória, effektív 1 GHz-hez) készült. 128 MB GDDR2 memóriát használt egy 128 bites interfészen keresztül. Az Nvidia a CineFX architektúrával díszítette, hogy javítsa a filmszerű megjelenítést, és azzal a tervvel építette fel, hogy hatékony legyen a DirectX 9 shader feldolgozásban.

Papíron nagyon jól hangzott. A valóságban határozottan nem. A DirectX 8-as játékokban elég jól teljesített, de bizonyos DX9-es játékokkal küszködött, és az ATI Radeon 9700 Pro egy csábító alternatíva volt, amelynél nem voltak ugyanazok a problémák. Az FX 5800 Ultra fő problémája azonban a zaj volt.

Az Nvidia egy innovatív hűtési megoldást vezetett be ebben a GPU-ban, az FX Flow néven. Ennek az volt a célja, hogy az általában melegen futó GPU-t kényelmes hőmérsékleten tartsa még intenzív játék közben is. A szerelvényt hajtó apró ventilátornak azonban nagyon nagy sebességgel kellett futnia, hogy lépést tudjon tartani. Az eredmény a leghangosabb zaj volt, amelyet egy fogyasztói GPU valaha is produkált.

Az Nvidia nem ragaszkodott sokáig ehhez a hűtési modellhez. Partnerei többsége visszatért az FX 5900 XT és 5900 Ultra hagyományos hűtési módszereihez, és azóta sem láttunk hasonlót.

3dfx Voodoo Rush

Voodoo Rush grafikus kártya.

A 3dfx egykor az Nvidia és az ATI félelmetes riválisa volt. Az 1990-es évek elején vált híressé, és több más akkori GPU-gyártóhoz hasonlóan meglovagolta a 3D-s grafika hullámát, amíg összeomlott és leégett. Az Nvidia végül 2000-ben megvásárolta eszközeinek nagy részét. A cég hanyatlása ugyan nem tudható be egyetlen kártyának sem, de volt néhány érdekes megoldás, ami véget ért kudarcot vallott a mainstream piacon, és a 3dfx Voodoo Rush GPU talán az egyik legelismertebb példák.

A Voodoo Rush lapkakészlet a vállalat kezdeti termékének, a Voodoo1-nek a folytatása volt. Egyetlen kártyába integrálta a 2D és 3D gyorsítást, párosítva a Voodoo grafika 3D képességeit más gyártók 2D magjával. Ez így van, itt egy kétchipes konfigurációról beszélek.

A GPU 6 MB EDO DRAM-ot, körülbelül 50 MHz-es maximális mag órajelet és különféle dolgokat támogat mint a Glide API, Direct3D és OpenGL, valamint 800 x 600-as maximális felbontás 3D-ben alkalmazások. Papíron ígéretesen hangzott, de miután a tényleges termék megjelent, és az emberek kipróbálhatták, több probléma is bekukkantott a hírverésből.

Először is, ez egy hatalmas GPU volt, amely hajlamos felmelegedni, de a fő probléma az architektúrában volt, és abban, hogy mindez hogyan járult hozzá a teljesítményhez, amely gyakran rosszabb volt, mint a Voodoo 1 a 3D-s játékokban. A kompatibilitási problémák és a vizuális műtermékek nem voltak ritkák, és miután ezek a problémák napvilágra kerültek, a véleményezők és a felhasználók egyaránt hátat fordítottak ennek a GPU-nak.

A Voodoo Rush rossz fogadtatása azonban nem az, ami végül megpecsételte a 3dfx sorsát. Ezt követően további GPU-kat gyártott, beleértve a (szintén vitatott) Voodoo 5 6000-et, amely saját hálózati adapterrel érkezett. Reméljük, az Nvidia nem áll elő hasonló ötlettel valamelyikhez következő generációs behemoth zászlóshajók, mert a végeredmény az lett elég vicces nézni.

Szerkesztői ajánlások

  • A Newegg a régi GPU-ját akarja – íme, mennyit kaphat
  • Ez az új GPU-csatlakozó végre megölheti az olvadó 12VHPWR-t
  • Az Intel új integrált grafikája vetekedhet a különálló GPU-kkal
  • Az Asus új RTX 4090-je megdöntötte a GPU-túlhúzási rekordokat, és hamarosan megvásárolhatja
  • Lehet, hogy az AMD-nek még marad néhány következő generációs GPU a tartályban – de nem veszem meg