Quando você olha para alguns dos melhores placas gráficas de hoje, é fácil esquecer que Nvidia e AMD (e, mais recentemente, a Intel) nem sempre foram os únicos participantes no jogo da GPU. Embora tanto a AMD quanto a Nvidia tenham cometido seu quinhão de erros de GPU, elas não são as únicas duas marcas por trás de algumas das piores GPUs de todos os tempos.
Conteúdo
- Intel740
- S3 ViRGE
- Nvidia GeForce FX 5800
- 3dfx Voodoo Rush
Vamos dar uma olhada em algumas das placas gráficas que farão você apreciar o cenário atual da GPU e, sim, incluindo até mesmo placas que estão no limite dos erros. (Olá, RTX 4060Ti.) Aqui estão as GPUs que fizeram isso terrivelmente errado, embora cada uma tivesse algo interessante ou inovador para trazer para a mesa.
Vídeos recomendados
Estamos focados no passado aqui, principalmente em marcas que desapareceram dos holofotes. Certifique-se de verificar nossos outros resumos para exemplos mais modernos:
- As piores GPUs AMD de todos os tempos
- As piores GPUs Nvidia de todos os tempos
Intel740
Alquimista do Arco não foi o primeiro empreendimento da Intel em GPUs discretas, nem o DG1. Muito antes de qualquer um desses projetos surgir o Intel i740, e é uma GPU que faz com que todas as outras tentativas da Intel pareçam muito melhores.
Relacionado
- O novo laptop para jogos da Acer oferece GPUs Nvidia RTX série 40 por menos de US$ 1.000
- Alguém ajustou o RX 7800 XT da AMD e os resultados podem surpreendê-lo
- Comprei a GPU de pior valor da Nvidia, mas não me arrependo
Em meados da década de 1990, a Intel aderiu ao movimento da aceleração gráfica 3D. O crescente mercado de jogos para PC, com títulos como Perdição, terremoto, e Tomb Raider, estava realmente começando a enfatizar o quanto os gráficos 3D seriam importantes no futuro. Talvez tenha sido isso que levou a Intel a se desviar de seu domínio principal – que, mesmo naquela época, estava fazendo parte do mercado. melhores processadores – e tente fazer GPUs discretas.
O Intel740, também conhecido como i740, foi lançado no início de 1998. Era uma GPU de 350nm que dependia da agora esquecida interface AGP, que parecia promissora em comparação com o PCI (cuidado com a diferença – não o PCIe) naquela época. Na verdade, foi uma das primeiras GPUs a utilizar AGP, o que mais tarde provou ter um papel importante em sua queda.
Ele tinha uma freqüência modesta de 66 MHz e tinha de 2 a 8 MB de VRAM em um barramento de 64 bits. Essas especificações parecem ridículas quando julgadas pelos padrões de hoje e, mesmo naquela época, eram um pouco erradas. A quantidade de VRAM era menor do que alguns concorrentes da Intel conseguiam fornecer, mas a interface AGP foi criada para ajudar; infelizmente, serviu apenas para reduzir o desempenho da CPU, enchendo a RAM principal com texturas e ocupando a capacidade do processador. A GPU também foi afetada por esse processo complicado.
Apesar de muito hype, o Intel740 caiu por terra. Embora pudesse ter sido concebido para se tornar uma solução para renderização de gráficos 3D, às vezes não conseguia lidar bem com eles, gerando artefatos e baixa clareza visual. Rumores sobre seu fraco desempenho se espalharam rapidamente. Embora a Intel tenha como alvo principal os fabricantes de PCs pré-construídos (OEMs) com esta GPU, demorou pouco para ser esquecida, pois os entusiastas de jogos sabiam que deveriam ficar longe do i740.
O mercado gráfico era muito volátil naquela época e evoluiu rapidamente, então um fracasso como esse deve ter sido um revés para a Intel. No entanto, depois de mais algumas tentativas de fabricar GPUs discretas, ela mudou para gráficos integrados, onde obteve sucesso nos anos seguintes.
S3 ViRGE
Antes de nos estabelecermos no cenário atual da AMD, Nvidia e Intel, o mercado de GPU tinha mais alguns nomes disputando atenção. Uma dessas empresas foi a S3, que alcançou a fama muito rapidamente no início e meados da década de 1990. Assim como a Intel, a S3 aproveitou o boom dos gráficos 3D e projetou chips gráficos que ofereciam aceleração 3D. No final das contas, o S3 ViRGE ficou conhecido como um “desacelerador 3D” e hoje é lembrado como uma das piores GPUs de todos os tempos.
Após o lançamento, o S3 ViRGE foi comercializado como o “primeiro acelerador gráfico 3D integrado do mundo”. Foi, de fato, um dos primeiros chipsets projetados para o mercado convencional. Ele suportava cerca de 2 MB a 4 MB de SDRAM em um barramento de 64 bits e tinha um clock central de 55 MHz. Ele podia renderizar gráficos 2D e 3D e oferecia resoluções de até 800 x 600 em 3D. Embora tenha feito um trabalho decente em 2D, não conseguiu impressionar em 3D – e esse era todo o propósito e esquema de marketing do chip.
Quando confrontado com uma renderização 3D relativamente simples, o S3 ViRGE foi na verdade um pouco mais rápido do que a melhor solução baseada em CPU da época. No entanto, quando se tratava da renderização cada vez mais complexa necessária para jogos 3D, incluindo tarefas como bilinear filtragem, a GPU na verdade provou ser mais lenta do que a renderização de software (o que essencialmente significava usar a CPU para gráficos propósitos). Foi isso que lhe valeu o nome zombeteiro de “o primeiro desacelerador 3D do mundo”, porque os usuários preferem desligar a aceleração 3D e usar apenas a CPU.
A notícia do baixo desempenho 3D do chip se espalhou rapidamente, e a rápida mudança de 2D para 3D no mercado de jogos não ajudou aqui. S3 tentou consertar o que deu errado com GPUs futuras, como ViRGE/DX e ViRGE/GX, mas tinha concorrentes bastante ferozes como Nvidia, ATI (mais tarde AMD) e 3dfx. No final das contas, a S3 não conseguiu competir no crescente mercado 3D, embora continuasse fabricando chips para o segmento médio.
Nvidia GeForce FX 5800
Conheça a GeForce FX 5800 Ultra – a primeira (e única?) GPU sobre a qual a Nvidia fez um vídeo falso. Sim, a própria Nvidia fez um vídeo de dois minutos zombando dessa GPU, mas só depois que ela foi lançada no mercado e ficou conhecida como a “Dustbuster” das placas gráficas.
A Nvidia tinha grandes planos para a série FX. Era para ser um grande salto para a era DirectX 9, que foi uma transição significativa para jogos de PC. Esta GPU surgiu em um momento em que a Nvidia já era líder de mercado, embora a ATI Technologies estivesse logo atrás com a linha de placas gráficas Radeon. O tropeço da Nvidia com a série FX foi um revés inesperado, mas como sabemos agora, o domínio da ATI/AMD não durou muito e a Nvidia agora controla a maior parte do mercado, talvez em detrimento dos jogadores de PC.
O FX 5800 Ultra foi fabricado em um processo de 130 nm e com freqüência de 500 MHz (relógio e memória, para 1 GHz efetivo). Ele usava 128 MB de memória GDDR2 em uma interface de 128 bits. A Nvidia o equipou com a arquitetura CineFX para aprimorar a renderização cinematográfica e o construiu com o plano de torná-lo eficiente no processamento de shader DirectX 9.
No papel, parecia ótimo. Na realidade, decididamente não foi. Ele se saiu bem em jogos DirectX 8, mas teve dificuldades com alguns títulos DX9, e o Radeon 9700 Pro da ATI era uma alternativa atraente que não apresentava os mesmos problemas. Porém, o principal problema do FX 5800 Ultra era o ruído.
A Nvidia implementou uma solução de resfriamento inovadora nesta GPU chamada FX Flow. O objetivo era manter a GPU, que normalmente esquentava, em uma temperatura confortável, mesmo durante jogos pesados. No entanto, o pequeno ventilador que alimentava a engenhoca tinha que funcionar a uma velocidade muito alta para poder acompanhar. O resultado foi um dos ruídos mais altos que uma GPU de consumidor já produziu.
A Nvidia não se agarrou a este modelo de refrigeração por muito tempo. A maioria de seus parceiros voltou aos métodos tradicionais de resfriamento para o FX 5900 XT e 5900 Ultra, e não vimos nada parecido desde então.
3dfx Voodoo Rush
A 3dfx já foi uma rival formidável da Nvidia e da ATI. Ele alcançou a fama no início da década de 1990 e, como vários outros fabricantes de GPU da época, aproveitou a onda dos gráficos 3D até travar e queimar. A Nvidia acabou comprando a maior parte de seus ativos em 2000. Embora o declínio da empresa não possa ser atribuído a um único cartão, ela teve algumas soluções interessantes que acabaram falhando no mercado mainstream, e a GPU 3dfx Voodoo Rush é talvez uma das mais reconhecidas exemplos.
O chipset Voodoo Rush foi uma continuação do produto inicial da empresa, o Voodoo1. Ele integrou aceleração 2D e 3D em uma única placa, combinando os recursos 3D dos gráficos Voodoo com um núcleo 2D de outros fabricantes. Isso mesmo, estou falando de uma configuração de chip duplo aqui.
A GPU oferece 6 MB de EDO DRAM, uma velocidade máxima de clock de cerca de 50 MHz e suporte para coisas como Glide API, Direct3D e OpenGL, bem como uma resolução máxima de 800 x 600 em 3D formulários. Parecia promissor no papel, mas depois que o produto real foi lançado e as pessoas puderam testá-lo, vários problemas surgiram em meio ao hype.
Por um lado, era uma GPU enorme com tendência a esquentar, mas o principal problema estava na arquitetura e como tudo isso resultava em um desempenho que muitas vezes era pior do que o Voodoo 1 em jogos 3D. Problemas de compatibilidade e artefatos visuais não eram incomuns e, assim que esses problemas vieram à tona, revisores e usuários viraram as costas para esta GPU.
A má recepção do Voodoo Rush não foi o que selou o destino da 3dfx. Ela passou a produzir mais GPUs, incluindo o (também polêmico) Voodoo 5 6000, que veio com seu próprio adaptador de energia. Esperemos que a Nvidia não tenha uma ideia semelhante para um de seus Flagships gigantes da próxima geração, porque o resultado final foi muito engraçado de se ver.
Recomendações dos Editores
- Newegg quer sua GPU antiga – veja quanto você pode conseguir
- Este novo conector GPU pode finalmente matar o derretimento 12VHPWR
- Os novos gráficos integrados da Intel podem rivalizar com GPUs discretas
- O novo RTX 4090 da Asus quebrou recordes de overclock de GPU e você poderá comprá-lo em breve
- A AMD ainda pode ter algumas GPUs de última geração no tanque – mas eu não acredito nisso