Ha megnézed néhányat a legjobb grafikus kártyák manapság ezt könnyű elfelejteni Nvidia és AMD (és újabban az Intel) nem mindig voltak az egyedüli játékosok a GPU-játékban. Bár az AMD és az Nvidia is elkövette a rá eső részét a GPU-hibákban, nem ők az egyetlen két márka, akik minden idők legrosszabb GPU-i mögött állnak.
Tartalom
- Intel740
- S3 VIRGE
- Nvidia GeForceFX 5800
- 3dfx Voodoo Rush
Vessünk egy pillantást néhány grafikus kártyára, amelyek értékelni fogják a jelenlegi GPU-környezetet, és igen, még olyan kártyákat is, amelyek határhibák. (Helló, RTX 4060 Ti.) Itt vannak azok a GPU-k, amelyek borzasztóan, rettenetesen rosszul csinálták, pedig mindegyiknek volt valami érdekes vagy innovatív tennivalója.
Ajánlott videók
Itt a múltra koncentrálunk, főként azokra a márkákra, amelyek elhalványultak a rivaldafényből. Ne felejtse el megnézni a többi összeállításunkat a modernebb példákért:
- Minden idők legrosszabb AMD GPU-i
- Minden idők legrosszabb Nvidia GPU-i
Intel740
Ív alkimista nem ez volt az Intel első vállalkozása a különálló GPU-k terén, és nem is a DG1. Jóval azelőtt, hogy bármelyik projekt megjelent volna, az Intel i740, és ez egy olyan GPU, amely az Intel összes többi próbálkozását sokkal szebbé teszi.
Összefüggő
- Az Acer új gaming laptopja 1000 dollár alá hozza az Nvidia RTX 40-es GPU-kat
- Valaki megcsípte az AMD RX 7800 XT-jét, és az eredmények meglepőek lehetnek
- Megvettem az Nvidia legrosszabb értékű GPU-ját, de nem bántam meg
Az 1990-es évek közepén és végén az Intel ráugrott a 3D-s grafikus gyorsításra. A virágzó PC-játékpiac, olyan címekkel, mint Doom, Quake, és Tomb Raider, kezdett igazán fókuszba kerülni, hogy a 3D grafika mennyire számít majd a jövőben. Talán ez volt az, ami arra késztette az Intelt, hogy kiszakadjon elsődleges tartományából – ami már akkoriban is hozzájárult a legjobb processzorok - és próbáljon meg különálló GPU-kat készíteni.
Az Intel740, más néven i740, 1998 elején jelent meg. Ez egy 350 nm-es GPU volt, amely a már rég elfeledett AGP interfészre támaszkodott, amely akkoriban ígéretesnek tűnt a PCI-hez képest (ne feledje a különbséget – nem PCIe). Valójában ez volt az egyik első GPU, amely AGP-t használt, amely később bebizonyosodott, hogy közrejátszott a bukásban.
Szerény 66 MHz-en járt, és 2-8 MB VRAM volt egy 64 bites buszon. Ezek a specifikációk nevetségesen hangzanak a mai szabványok alapján, és még akkoriban is kissé eltértek. A VRAM mennyisége alacsonyabb volt, mint amennyit az Intel néhány versenytársa biztosítani tudott, de az AGP interfésznek segíteni kellett; sajnos csak a CPU teljesítményének csökkentését szolgálta azáltal, hogy a fő RAM-ot megtömte textúrákkal és elfoglalta a processzor kapacitását. A GPU-ra is hatással volt ez a bonyolult folyamat.
A nagy hype ellenére az Intel740 elbukott. Bár lehet, hogy megoldást jelenthetett a 3D-s grafikák megjelenítésére, néha nem tudta jól kezelni őket, helyette műtermékeket és gyenge vizuális tisztaságot biztosított. A rossz teljesítményről szóló pletykák gyorsan terjedtek. Bár az Intel leginkább az előre beépített PC-gyártókat (OEM) célozta meg ezzel a GPU-val, csak egy kis időbe telt, mire feledésbe merült, mivel a játékrajongók tudták, hogy távol kell maradniuk az i740-től.
A grafikus piac akkoriban nagyon ingatag volt, és gyorsan fejlődött, így egy ilyen flop biztosan visszalépés volt az Intel számára. Néhány további kísérlet után azonban, hogy különálló GPU-kat készítsen, áttért az integrált grafikára, ahol az elkövetkező években sikert aratott.
S3 VIRGE
Mielőtt belenyugodtunk volna az AMD, az Nvidia és az Intel jelenlegi környezetébe, a GPU-piacon még néhány név versengett a figyelemért. Az egyik ilyen cég az S3 volt, amely az 1990-es évek elején-közepén nagyon gyorsan hírnevet szerzett. Az Intelhez hasonlóan az S3 is kihasználta a 3D grafikus fellendülést, és olyan grafikus chipeket tervezett, amelyek 3D gyorsulást kínáltak. Végül az S3 ViRGE „3D lassítóként” vált ismertté, és ma már minden idők egyik legrosszabb GPU-jaként emlékeznek rá.
A piacra dobáskor az S3 ViRGE a „világ első integrált 3D grafikus gyorsítójaként” került forgalomba. Valójában ez volt az egyik első ilyen lapkakészlet, amelyet a mainstream piacra terveztek. Körülbelül 2–4 MB SDRAM-ot támogatott egy 64 bites buszon, és 55 MHz-es órajele volt. 2D és 3D grafikát is képes megjeleníteni, és 3D-ben akár 800 x 600-as felbontást is kínált. Bár 2D-ben elég tisztességes munkát végzett, 3D-ben nem sikerült lenyűgöznie – és ez volt a chip teljes célja és marketingterve.
A viszonylag egyszerű 3D-s megjelenítéssel szemben az S3 ViRGE valójában egy kicsit gyorsabb volt, mint akkoriban a legjobb CPU-alapú megoldás. Ha azonban a 3D-s játékokhoz szükséges egyre összetettebb renderelésről van szó, beleértve a bilineáris feladatokat is szűrés, a GPU valójában lassabbnak bizonyult, mint a szoftveres renderelés (ami lényegében azt jelentette, hogy a CPU-t kellett használni a grafikához célokra). Ez az oka annak, hogy a „világ első 3D-lassítója” nevetségessé vált, mert a felhasználók legszívesebben kikapcsolnák a 3D-s gyorsítást, és helyette a CPU-t használnák.
A chip gyenge 3D-s teljesítményének híre gyorsan elterjedt, és a játékpiacon a 2D-ről a 3D-re való gyors váltás itt nem segített. Az S3 megpróbálta kijavítani azt, ami elromlott a jövőbeli GPU-knál, mint például a ViRGE/DX és a ViRGE/GX, de elég kemény versenytársai voltak az Nvidia, az ATI (később AMD) és a 3dfx terén. Végül az S3 nem tudott versenyezni a növekvő 3D-s piacon, bár folyamatosan gyártott chipeket a középkategóriás szegmens számára.
Nvidia GeForceFX 5800
Ismerje meg a GeForce FX 5800 Ultra-t – az első (és egyetlen?) GPU-t, amelyről az Nvidia hamis videót készített. Igen, maga az Nvidia készített egy kétperces videót, amely ezt a GPU-t gúnyolta, de csak azután, hogy piacra dobták, és a grafikus kártyák „Dustbusterjeként” vált ismertté.
Az Nvidiának nagy tervei voltak az FX sorozattal. Ez volt a nagy ugrás a DirectX 9-korszakba, amely jelentős átmenetet jelentett a PC-s játékokban. Ez a GPU abban az időben jött létre, amikor az Nvidia már piacvezető volt, bár az ATI Technologies nagyon lemaradt a Radeon grafikus kártyákkal. Az Nvidia botlása az FX sorozattal váratlan visszalépés volt, de amint azt ma már tudjuk, az ATI/AMD dominanciája nem tartott sokáig, és most az Nvidia uralja a piac nagy részét. talán a PC-s játékosok kárára.
Az FX 5800 Ultra 130 nm-es eljárással készült, és 500 MHz-es órajellel (órajel és memória, effektív 1 GHz-hez) készült. 128 MB GDDR2 memóriát használt egy 128 bites interfészen keresztül. Az Nvidia a CineFX architektúrával díszítette, hogy javítsa a filmszerű megjelenítést, és azzal a tervvel építette fel, hogy hatékony legyen a DirectX 9 shader feldolgozásban.
Papíron nagyon jól hangzott. A valóságban határozottan nem. A DirectX 8-as játékokban elég jól teljesített, de bizonyos DX9-es játékokkal küszködött, és az ATI Radeon 9700 Pro egy csábító alternatíva volt, amelynél nem voltak ugyanazok a problémák. Az FX 5800 Ultra fő problémája azonban a zaj volt.
Az Nvidia egy innovatív hűtési megoldást vezetett be ebben a GPU-ban, az FX Flow néven. Ennek az volt a célja, hogy az általában melegen futó GPU-t kényelmes hőmérsékleten tartsa még intenzív játék közben is. A szerelvényt hajtó apró ventilátornak azonban nagyon nagy sebességgel kellett futnia, hogy lépést tudjon tartani. Az eredmény a leghangosabb zaj volt, amelyet egy fogyasztói GPU valaha is produkált.
Az Nvidia nem ragaszkodott sokáig ehhez a hűtési modellhez. Partnerei többsége visszatért az FX 5900 XT és 5900 Ultra hagyományos hűtési módszereihez, és azóta sem láttunk hasonlót.
3dfx Voodoo Rush
A 3dfx egykor az Nvidia és az ATI félelmetes riválisa volt. Az 1990-es évek elején vált híressé, és több más akkori GPU-gyártóhoz hasonlóan meglovagolta a 3D-s grafika hullámát, amíg összeomlott és leégett. Az Nvidia végül 2000-ben megvásárolta eszközeinek nagy részét. A cég hanyatlása ugyan nem tudható be egyetlen kártyának sem, de volt néhány érdekes megoldás, ami véget ért kudarcot vallott a mainstream piacon, és a 3dfx Voodoo Rush GPU talán az egyik legelismertebb példák.
A Voodoo Rush lapkakészlet a vállalat kezdeti termékének, a Voodoo1-nek a folytatása volt. Egyetlen kártyába integrálta a 2D és 3D gyorsítást, párosítva a Voodoo grafika 3D képességeit más gyártók 2D magjával. Ez így van, itt egy kétchipes konfigurációról beszélek.
A GPU 6 MB EDO DRAM-ot, körülbelül 50 MHz-es maximális mag órajelet és különféle dolgokat támogat mint a Glide API, Direct3D és OpenGL, valamint 800 x 600-as maximális felbontás 3D-ben alkalmazások. Papíron ígéretesen hangzott, de miután a tényleges termék megjelent, és az emberek kipróbálhatták, több probléma is bekukkantott a hírverésből.
Először is, ez egy hatalmas GPU volt, amely hajlamos felmelegedni, de a fő probléma az architektúrában volt, és abban, hogy mindez hogyan járult hozzá a teljesítményhez, amely gyakran rosszabb volt, mint a Voodoo 1 a 3D-s játékokban. A kompatibilitási problémák és a vizuális műtermékek nem voltak ritkák, és miután ezek a problémák napvilágra kerültek, a véleményezők és a felhasználók egyaránt hátat fordítottak ennek a GPU-nak.
A Voodoo Rush rossz fogadtatása azonban nem az, ami végül megpecsételte a 3dfx sorsát. Ezt követően további GPU-kat gyártott, beleértve a (szintén vitatott) Voodoo 5 6000-et, amely saját hálózati adapterrel érkezett. Reméljük, az Nvidia nem áll elő hasonló ötlettel valamelyikhez következő generációs behemoth zászlóshajók, mert a végeredmény az lett elég vicces nézni.
Szerkesztői ajánlások
- A Newegg a régi GPU-ját akarja – íme, mennyit kaphat
- Ez az új GPU-csatlakozó végre megölheti az olvadó 12VHPWR-t
- Az Intel új integrált grafikája vetekedhet a különálló GPU-kkal
- Az Asus új RTX 4090-je megdöntötte a GPU-túlhúzási rekordokat, és hamarosan megvásárolhatja
- Lehet, hogy az AMD-nek még marad néhány következő generációs GPU a tartályban – de nem veszem meg