Quand vous regardez certains des meilleures cartes graphiques d'aujourd'hui, il est facile d'oublier que Nvidia et AMD (et plus récemment, Intel) n’ont pas toujours été les seuls acteurs du jeu GPU. Bien qu'AMD et Nvidia aient commis leur part d'erreurs en matière de GPU, elles ne sont pas les deux seules marques à l'origine de certains des pires GPU de tous les temps.
Contenu
- Intel740
- S3 ViRGE
- Nvidia GeForceFX 5800
- Ruée vers le vaudou 3dfx
Jetons un coup d'œil à certaines des cartes graphiques qui vous feront apprécier le paysage GPU actuel, et oui, y compris même les cartes qui sont à la limite des erreurs. (Bonjour, RTX 4060Ti.) Voici les GPU qui ont fait des choses terriblement, terriblement mauvaises, même si chacun avait quelque chose d'intéressant ou d'innovant à apporter.
Vidéos recommandées
Nous nous concentrons ici sur le passé, principalement autour de marques qui ont disparu du devant de la scène. Assurez-vous de consulter nos autres résumés pour des exemples plus modernes :
- Les pires GPU AMD de tous les temps
- Les pires GPU Nvidia de tous les temps
Intel740
Alchimiste des Arcs Ce n’était pas la première aventure d’Intel dans le domaine des GPU discrets, et le DG1 non plus. Bien avant l’un de ces projets, l’Intel i740 est apparu, et c’est un GPU qui rend toutes les autres tentatives d’Intel encore meilleures.
En rapport
- Le nouvel ordinateur portable de jeu d'Acer propose des GPU Nvidia RTX série 40 à moins de 1 000 $
- Quelqu'un a peaufiné le RX 7800 XT d'AMD et les résultats pourraient vous surprendre
- J'ai acheté le GPU le moins cher de Nvidia, mais je ne le regrette pas
Entre le milieu et la fin des années 1990, Intel a pris le train de l’accélération graphique 3D. Le marché en plein essor des jeux sur PC, avec des titres comme Doom, tremblement de terre, et Tomb Raider, commençait vraiment à mettre en évidence l’importance des graphiques 3D à l’avenir. C'est peut-être ce qui a tenté Intel de s'éloigner de son domaine principal – qui, même à l'époque, faisait partie des meilleurs processeurs - et essayez de créer des GPU discrets.
L'Intel740, également connu sous le nom de i740, est sorti début 1998. Il s’agissait d’un GPU 350 nm qui reposait sur l’interface AGP, désormais oubliée depuis longtemps, qui semblait prometteuse par rapport au PCI (attention à la différence – pas au PCIe) à l’époque. En fait, il a été l’un des premiers GPU à utiliser l’AGP, ce qui a ensuite joué un rôle dans sa chute.
Il cadencé à une modeste fréquence de 66 MHz et disposait de 2 à 8 Mo de VRAM sur un bus 64 bits. Ces spécifications semblent risibles si on les juge par rapport aux normes actuelles, et même à l’époque, elles étaient un peu fausses. La quantité de VRAM était inférieure à celle que certains concurrents d’Intel étaient en mesure de fournir, mais l’interface AGP était censée aider; malheureusement, cela n’a servi qu’à réduire les performances du processeur en remplissant la RAM principale de textures et en occupant la capacité du processeur. Le GPU a également été affecté par ce processus alambiqué.
Malgré beaucoup de battage médiatique, l'Intel740 est tombé à plat. Bien qu'il ait pu être destiné à devenir une solution pour le rendu de graphiques 3D, il n'a parfois pas réussi à les gérer correctement, produisant à la place des artefacts et une faible clarté visuelle. Les rumeurs de ses mauvaises performances n’ont pas tardé à se répandre. Bien qu'Intel ait principalement ciblé les fabricants de PC pré-construits (OEM) avec ce GPU, il n'a fallu que peu de temps pour être oublié, car les amateurs de jeux savaient qu'il fallait rester à l'écart du i740.
Le marché graphique était alors très volatil et évoluait rapidement, donc un échec comme celui-là a dû être un revers pour Intel. Cependant, après quelques tentatives supplémentaires pour créer des GPU discrets, il est passé aux graphiques intégrés, où il a connu du succès pour les années à venir.
S3 ViRGE
Avant de nous installer dans le paysage actuel d’AMD, Nvidia et Intel, le marché des GPU comptait quelques noms supplémentaires en lice pour attirer l’attention. L’une de ces sociétés était S3, qui est devenue célèbre très rapidement entre le début et le milieu des années 1990. Tout comme Intel, S3 a capitalisé sur le boom des graphiques 3D et a conçu des puces graphiques offrant une accélération 3D. En fin de compte, le S3 ViRGE est devenu connu comme un « décélérateur 3D » et est désormais considéré comme l’un des pires GPU de tous les temps.
Lors de son lancement, le S3 ViRGE a été commercialisé comme « le premier accélérateur graphique 3D intégré au monde ». Il s’agissait en effet de l’un des premiers chipsets de ce type conçus pour le marché grand public. Il prenait en charge environ 2 Mo à 4 Mo de SDRAM sur un bus 64 bits et avait une horloge centrale de 55 MHz. Il pouvait restituer des graphiques 2D et 3D et offrait des résolutions allant jusqu'à 800 x 600 en 3D. Bien qu'il ait fait un travail assez décent en 2D, il n'a pas réussi à impressionner en 3D – et c'était tout l'objectif et le plan marketing de la puce.
Face à un rendu 3D relativement simple, le S3 ViRGE était en fait un peu plus rapide que la meilleure solution basée sur CPU de l'époque. Cependant, lorsqu'il s'agissait du rendu de plus en plus complexe requis pour les jeux 3D, y compris des tâches telles que le rendu bilinéaire filtrage, le GPU s'est en fait avéré plus lent que le rendu logiciel (ce qui signifiait essentiellement utiliser le CPU pour les graphiques fins). C’est ce qui lui a valu le surnom moqueur de « premier décélérateur 3D au monde », car les utilisateurs préféreraient désactiver l’accélération 3D et simplement utiliser le processeur à la place.
La nouvelle des mauvaises performances 3D de la puce s’est rapidement répandue, et le passage rapide de la 2D à la 3D sur le marché des jeux n’a pas aidé. S3 a tenté de corriger ce qui n'allait pas avec les futurs GPU, tels que ViRGE/DX et ViRGE/GX, mais il avait des concurrents assez féroces chez Nvidia, ATI (plus tard AMD) et 3dfx. En fin de compte, S3 n’a pas pu rivaliser sur le marché en pleine croissance de la 3D, même s’il a continué à fabriquer des puces pour le segment milieu de gamme.
Nvidia GeForceFX 5800
Découvrez la GeForce FX 5800 Ultra, le premier (et le seul ?) GPU sur lequel Nvidia a réalisé une parodie de vidéo. Oui, Nvidia lui-même a réalisé une vidéo de deux minutes se moquant de ce GPU, mais ce n’est qu’après sa sortie sur le marché et qu’il est devenu connu sous le nom de « Dustbuster » des cartes graphiques.
Nvidia avait de grands projets pour la série FX. Il s’agissait d’un grand saut vers l’ère DirectX 9, qui représentait une transition importante pour les jeux sur PC. Ce GPU est arrivé à une époque où Nvidia était déjà leader du marché, même si ATI Technologies était juste derrière avec la gamme de cartes graphiques Radeon. L'échec de Nvidia avec la série FX a été un revers inattendu, mais comme nous le savons maintenant, la domination d'ATI/AMD n'a pas duré longtemps et Nvidia contrôle désormais la majorité du marché. peut-être au détriment des joueurs PC.
Le FX 5800 Ultra a été fabriqué selon un processus de 130 nm et cadencé à 500 MHz (horloge et mémoire, pour un 1 GHz effectif). Il utilisait 128 Mo de mémoire GDDR2 sur une interface 128 bits. Nvidia l'a doté de l'architecture CineFX pour améliorer le rendu cinématographique et l'a construit avec le plan de le rendre efficace pour le traitement des shaders DirectX 9.
Sur le papier, ça sonnait bien. En réalité, ce n’était décidément pas le cas. Il fonctionnait assez bien dans les jeux DirectX 8, mais avait des difficultés avec certains titres DX9, et la Radeon 9700 Pro d'ATI était une alternative séduisante qui ne présentait pas les mêmes problèmes. Cependant, le principal problème du FX 5800 Ultra était le bruit.
Nvidia a implémenté une solution de refroidissement innovante dans ce GPU appelée FX Flow. Cela visait à maintenir le GPU, qui chauffait normalement, à une température confortable, même pendant les jeux intensifs. Cependant, le petit ventilateur qui alimentait l’engin devait fonctionner à une vitesse très élevée pour pouvoir suivre le rythme. Le résultat a été l’un des bruits les plus forts qu’un GPU grand public ait jamais produit.
Nvidia n’est pas resté longtemps fidèle à ce modèle de refroidissement. La plupart de ses partenaires sont revenus aux méthodes de refroidissement traditionnelles pour les FX 5900 XT et 5900 Ultra, et nous n’avons plus rien vu de tel depuis.
Ruée vers le vaudou 3dfx
3dfx était autrefois un redoutable rival de Nvidia et d'ATI. Il est devenu célèbre au début des années 1990 et, comme plusieurs autres fabricants de GPU de l'époque, il a surfé sur la vague des graphiques 3D jusqu'à ce qu'il s'écrase et brûle. Nvidia a finalement racheté la plupart de ses actifs en 2000. Bien que le déclin de l’entreprise ne puisse être attribué à une seule carte, elle a proposé des solutions intéressantes qui ont mis fin en échec sur le marché grand public, et le GPU 3dfx Voodoo Rush est peut-être l'un des plus reconnus exemples.
Le chipset Voodoo Rush faisait suite au produit initial de la société, le Voodoo1. Il a intégré l'accélération 2D et 3D dans une seule carte, associant les capacités 3D des graphiques Voodoo avec un noyau 2D d'autres fabricants. C'est vrai, je parle ici d'une configuration à double puce.
Le GPU servait 6 Mo de DRAM EDO, une vitesse d'horloge de base maximale d'environ 50 MHz et une prise en charge des éléments comme l'API Glide, Direct3D et OpenGL, ainsi qu'une résolution maximale de 800 x 600 en 3D applications. Cela semblait prometteur sur le papier, mais une fois le produit réel sorti et que les gens ont pu le tester, plusieurs problèmes sont apparus à travers le battage médiatique.
D'une part, il s'agissait d'un GPU massif avec une tendance à chauffer, mais le principal problème résidait dans l'architecture et dans la façon dont tout cela s'ajoutait à des performances souvent pires que celles du Voodoo 1 dans les jeux 3D. Les problèmes de compatibilité et les artefacts visuels n’étaient pas rares, et une fois ces problèmes révélés, les critiques et les utilisateurs ont tourné le dos à ce GPU.
La mauvaise réception du Voodoo Rush n’est cependant pas ce qui a finalement scellé le sort de 3dfx. Elle a ensuite produit davantage de GPU, notamment le (également controversé) Voodoo 5 6000, livré avec son propre adaptateur secteur. Espérons que Nvidia ne proposera pas une idée similaire pour l'un de ses produits phares géants de nouvelle génération, parce que le résultat final était assez drôle à regarder.
Recommandations des rédacteurs
- Newegg veut votre ancien GPU – voici combien vous pourriez obtenir
- Ce nouveau connecteur GPU pourrait enfin tuer le 12VHPWR en fusion
- Les nouveaux graphiques intégrés d'Intel pourraient rivaliser avec les GPU discrets
- Le nouveau RTX 4090 d'Asus a battu les records d'overclocking GPU, et vous pourrez bientôt l'acheter
- AMD a peut-être encore quelques GPU de nouvelle génération dans le réservoir – mais je ne les achète pas