Wenn man sich einige davon ansieht beste Grafikkarten Von heute vergisst man das leicht Nvidia und AMD (und neuerdings auch Intel) waren nicht immer die einzigen Spieler im GPU-Spiel. Obwohl sowohl AMD als auch Nvidia eine ganze Reihe von GPU-Fehlern begangen haben, sind sie nicht die einzigen beiden Marken, die hinter einigen der schlechtesten GPUs aller Zeiten stehen.
Inhalt
- Intel740
- S3 ViRGE
- Nvidia GeForceFX 5800
- 3dfx Voodoo Rush
Werfen wir einen Blick auf einige der Grafikkarten, mit denen Sie die aktuelle GPU-Landschaft zu schätzen wissen, und ja, sogar mit Karten, die grenzwertige Fehler darstellen. (Hallo, RTX 4060 Ti.) Hier sind die GPUs, die es furchtbar falsch gemacht haben, obwohl jeder etwas Interessantes oder Innovatives zu bieten hatte.
Empfohlene Videos
Wir konzentrieren uns hier auf die Vergangenheit, hauptsächlich auf Marken, die aus dem Rampenlicht verschwunden sind. Schauen Sie sich unbedingt unsere anderen Zusammenfassungen an, um modernere Beispiele zu finden:
- Die schlechtesten AMD-GPUs aller Zeiten
- Die schlechtesten Nvidia-GPUs aller Zeiten
Intel740
Arc-Alchemist war nicht Intels erster Versuch, diskrete GPUs zu entwickeln, und der DG1 war es auch nicht. Lange vor einem dieser Projekte kam der Intel i740 auf den Markt, und es ist eine GPU, die alle anderen Versuche von Intel noch viel besser aussehen lässt.
Verwandt
- Der neue Gaming-Laptop von Acer bringt GPUs der Nvidia RTX 40-Serie unter 1.000 US-Dollar
- Jemand hat AMDs RX 7800 XT optimiert und die Ergebnisse werden Sie vielleicht überraschen
- Ich habe Nvidias GPU mit dem schlechtesten Preis-Leistungs-Verhältnis gekauft, aber ich bereue es nicht
Mitte bis Ende der 1990er Jahre sprang Intel auf den Zug der 3D-Grafikbeschleunigung auf. Der aufstrebende PC-Gaming-Markt mit Titeln wie Untergang, Beben, Und Grabräuber, begann sich wirklich darüber im Klaren zu sein, wie wichtig 3D-Grafiken in Zukunft sein würden. Vielleicht war es das, was Intel dazu verleitete, sich von seinem Hauptgeschäftsfeld abzuwenden – das schon damals einen Teil davon ausmachte beste Prozessoren – und versuchen, diskrete GPUs herzustellen.
Der Intel740, auch bekannt als i740, wurde Anfang 1998 veröffentlicht. Es handelte sich um eine 350-nm-GPU, die auf der inzwischen längst vergessenen AGP-Schnittstelle basierte, die damals im Vergleich zu PCI (beachten Sie den Unterschied – nicht PCIe) vielversprechend aussah. Tatsächlich war es eine der ersten GPUs, die AGP nutzte, was später zu ihrem Untergang beitrug.
Es taktete mit bescheidenen 66 MHz und verfügte über 2–8 MB VRAM über einen 64-Bit-Bus. Diese Spezifikationen klingen nach heutigen Maßstäben lächerlich, und selbst damals lagen sie etwas daneben. Die Menge an VRAM war geringer als bei manchen Intel-Konkurrenten, aber die AGP-Schnittstelle sollte Abhilfe schaffen; Leider verringerte es nur die CPU-Leistung, indem es den Hauptspeicher mit Texturen füllte und die Kapazität des Prozessors beanspruchte. Auch die GPU war von diesem komplizierten Prozess betroffen.
Trotz viel Hype scheiterte der Intel740. Obwohl es möglicherweise als Lösung für die Darstellung von 3D-Grafiken gedacht war, konnte es manchmal nicht gut damit umgehen und lieferte stattdessen Artefakte und eine geringe visuelle Klarheit. Gerüchte über die schlechte Leistung verbreiteten sich schnell. Obwohl sich Intel mit dieser GPU vor allem an Hersteller vorgefertigter PCs (OEMs) richtete, geriet sie schon nach kurzer Zeit in Vergessenheit, da Gaming-Enthusiasten wussten, dass sie sich vom i740 fernhalten sollten.
Der Grafikmarkt war damals sehr volatil und entwickelte sich schnell, sodass ein solcher Flop ein Rückschlag für Intel gewesen sein muss. Nach einigen weiteren Versuchen, diskrete GPUs herzustellen, wechselte das Unternehmen jedoch zu integrierten Grafiken, wo es in den folgenden Jahren Erfolg hatte.
S3 ViRGE
Bevor wir uns in der aktuellen Landschaft von AMD, Nvidia und Intel niederließen, gab es auf dem GPU-Markt noch ein paar weitere Namen, die um Aufmerksamkeit wetteiferten. Ein solches Unternehmen war S3, das Anfang bis Mitte der 1990er Jahre sehr schnell berühmt wurde. Ähnlich wie Intel nutzte S3 den Boom der 3D-Grafik und entwickelte Grafikchips, die 3D-Beschleunigung boten. Am Ende wurde der S3 ViRGE als „3D-Verzögerer“ bekannt und gilt heute als eine der schlechtesten GPUs aller Zeiten.
Bei der Markteinführung wurde der S3 ViRGE als „weltweit erster integrierter 3D-Grafikbeschleuniger“ vermarktet. Es war tatsächlich einer der ersten Chipsätze dieser Art, die für den Mainstream-Markt entwickelt wurden. Es unterstützte etwa 2 MB bis 4 MB SDRAM über einen 64-Bit-Bus und hatte einen Kerntakt von 55 MHz. Es konnte sowohl 2D- als auch 3D-Grafiken rendern und bot Auflösungen von bis zu 800 x 600 in 3D. Während er in 2D recht gute Arbeit leistete, konnte er in 3D nicht überzeugen – und das war der ganze Zweck und das Marketingschema des Chips.
Beim relativ einfachen 3D-Rendering war der S3 ViRGE tatsächlich etwas schneller als die damals beste CPU-basierte Lösung. Wenn es jedoch um das immer komplexer werdende Rendering ging, das für 3D-Spiele erforderlich ist, einschließlich Aufgaben wie bilinear Beim Filtern erwies sich die GPU tatsächlich als langsamer als das Software-Rendering (was im Wesentlichen bedeutete, dass die CPU für Grafiken verwendet wurde). Zwecke). Dies brachte ihm den spöttischen Namen „weltweit erster 3D-Verzögerer“ ein, da Benutzer die 3D-Beschleunigung am liebsten ausschalten und stattdessen einfach die CPU nutzen würden.
Die schlechte 3D-Leistung des Chips sprach sich schnell herum, auch der rasante Wechsel von 2D zu 3D im Gaming-Markt half hier nicht weiter. S3 versuchte zu beheben, was bei zukünftigen GPUs wie ViRGE/DX und ViRGE/GX schief lief, hatte aber mit Nvidia, ATI (später AMD) und 3dfx ziemlich starke Konkurrenten. Letztlich konnte S3 im wachsenden 3D-Markt nicht mithalten, obwohl das Unternehmen weiterhin Chips für das Mittelklasse-Segment herstellte.
Nvidia GeForceFX 5800
Lernen Sie die GeForce FX 5800 Ultra kennen – die erste (und einzige?) GPU, über die Nvidia ein gefälschtes Video erstellt hat. Ja, Nvidia selbst hat ein zweiminütiges Video gemacht, in dem sie sich über diese GPU lustig gemacht hat, aber das geschah erst, nachdem sie auf den Markt kam und als „Dustbuster“ unter den Grafikkarten bekannt wurde.
Nvidia hatte große Pläne für die FX-Serie. Es sollte dieser große Sprung in die DirectX 9-Ära sein, die einen bedeutenden Übergang für PC-Spiele bedeutete. Diese GPU kam zu einer Zeit, als Nvidia bereits Marktführer war, obwohl ATI Technologies mit der Radeon-Grafikkartenreihe knapp dahinter lag. Das Stolpern von Nvidia bei der FX-Serie war ein unerwarteter Rückschlag, aber wie wir jetzt wissen, hielt die Dominanz von ATI/AMD nicht lange an und Nvidia kontrolliert mittlerweile den Großteil des Marktes. vielleicht zum Nachteil der PC-Spieler.
Der FX 5800 Ultra wurde in einem 130-nm-Prozess hergestellt und mit 500 MHz getaktet (Takt und Speicher, also effektiv 1 GHz). Es nutzte 128 MB GDDR2-Speicher über eine 128-Bit-Schnittstelle. Nvidia hat es mit der CineFX-Architektur ausgestattet, um das filmische Rendering zu verbessern, und es mit dem Plan entwickelt, es bei der DirectX 9-Shader-Verarbeitung effizient zu machen.
Auf dem Papier klang es großartig. In Wirklichkeit war dies eindeutig nicht der Fall. In DirectX-8-Spielen schnitt es ganz gut ab, hatte aber bei bestimmten DX9-Titeln Probleme, und die Radeon 9700 Pro von ATI war eine verlockende Alternative, die nicht die gleichen Probleme hatte. Das Hauptproblem beim FX 5800 Ultra war jedoch der Lärm.
Nvidia hat in dieser GPU eine innovative Kühllösung namens FX Flow implementiert. Dadurch sollte die normalerweise heiß laufende GPU auch bei intensivem Gaming auf einer angenehmen Temperatur gehalten werden. Allerdings musste der winzige Ventilator, der das Gerät antreibt, mit sehr hoher Geschwindigkeit laufen, um mithalten zu können. Das Ergebnis war eines der lautesten Geräusche, die jemals von einer Consumer-GPU erzeugt wurden.
Nvidia hielt nicht lange an diesem Kühlmodell fest. Die meisten Partner haben für die FX 5900 XT und 5900 Ultra auf traditionelle Kühlmethoden zurückgegriffen, und so etwas haben wir seitdem nicht mehr gesehen.
3dfx Voodoo Rush
3dfx war einst ein gewaltiger Rivale von Nvidia und ATI. Es erlangte in den frühen 1990er-Jahren Berühmtheit, und wie mehrere andere GPU-Hersteller dieser Zeit ritt es auf der Welle der 3D-Grafik, bis es abstürzte und brannte. Nvidia kaufte schließlich im Jahr 2000 die meisten seiner Vermögenswerte. Obwohl der Niedergang des Unternehmens nicht auf eine einzelne Karte zurückzuführen ist, gab es einige interessante Lösungen, die zu Ende gingen scheitert auf dem Mainstream-Markt, und die 3dfx Voodoo Rush GPU ist vielleicht eine der bekanntesten Beispiele.
Der Voodoo Rush-Chipsatz war eine Weiterentwicklung des ersten Produkts des Unternehmens, des Voodoo1. Es integrierte 2D- und 3D-Beschleunigung in einer einzigen Karte und kombinierte die 3D-Fähigkeiten der Voodoo-Grafik mit einem 2D-Kern anderer Hersteller. Das ist richtig, ich spreche hier von einer Dual-Chip-Konfiguration.
Die GPU stellte 6 MB EDO-DRAM, eine maximale Kerntaktrate von etwa 50 MHz und Unterstützung für Dinge bereit wie die Glide API, Direct3D und OpenGL sowie eine maximale Auflösung von 800 x 600 in 3D Anwendungen. Auf dem Papier klang es vielversprechend, aber als das eigentliche Produkt auf den Markt kam und die Leute es testen konnten, lugten durch den Hype mehrere Probleme hervor.
Zum einen handelte es sich um eine riesige GPU mit einer Tendenz zur Erwärmung, aber das Hauptproblem lag in der Architektur und wie sich das alles zu einer Leistung zusammenfügte, die in 3D-Spielen oft schlechter war als die des Voodoo 1. Kompatibilitätsprobleme und visuelle Artefakte waren keine Seltenheit, und als diese Probleme ans Licht kamen, kehrten sowohl Rezensenten als auch Benutzer dieser GPU den Rücken.
Der schlechte Empfang des Voodoo Rush war jedoch nicht der Ausschlag für das Schicksal von 3dfx. Es wurden weitere GPUs produziert, darunter die (ebenfalls umstrittene) Voodoo 5 6000, die mit einem eigenen Netzteil geliefert wurde. Hoffen wir, dass Nvidia bei einem davon nicht auf eine ähnliche Idee kommt Giganten-Flaggschiffe der nächsten Generation, denn das Endergebnis war ziemlich lustig anzusehen.
Empfehlungen der Redaktion
- Newegg möchte Ihre alte GPU – so viel könnten Sie bekommen
- Dieser neue GPU-Anschluss könnte dem schmelzenden 12VHPWR endlich den Garaus machen
- Intels neue integrierte Grafik könnte mit diskreten GPUs konkurrieren
- Die neue RTX 4090 von Asus hat GPU-Übertaktungsrekorde gebrochen und Sie können sie bald kaufen
- AMD hat möglicherweise noch einige GPUs der nächsten Generation im Tank – aber ich kaufe sie nicht