Le peggiori GPU di tutti i tempi: rumorose, deludenti, innovative

Quando guardi alcuni dei le migliori schede grafiche di oggi, è facile dimenticarlo Nvidia e AMD (e più recentemente, Intel) non sono sempre stati gli unici attori nel gioco delle GPU. Sebbene sia AMD che Nvidia abbiano commesso la loro giusta dose di errori GPU, non sono gli unici due marchi dietro alcune delle peggiori GPU di tutti i tempi.

Contenuti

  • Intel740
  • S3 ViRGE
  • Nvidia GeForceFX 5800
  • 3dfx Voodoo Rush

Diamo un'occhiata ad alcune delle schede grafiche che ti faranno apprezzare l'attuale panorama delle GPU e sì, incluse anche le schede che sono errori limite. (Ciao, RTX4060Ti.) Ecco le GPU che hanno fatto qualcosa di terribilmente, terribilmente sbagliato, anche se ognuna aveva qualcosa di interessante o innovativo da portare sul tavolo.

Video consigliati

Qui ci concentriamo sul passato, principalmente sui marchi che sono scomparsi dalle luci della ribalta. Assicurati di controllare le nostre altre raccolte per esempi più moderni:

  • Le peggiori GPU AMD di tutti i tempi
  • Le peggiori GPU Nvidia di tutti i tempi

Intel740

La scheda grafica Intel i740 su un tavolo.
Vintage3D

Arco Alchimista non è stata la prima avventura di Intel nel campo delle GPU discrete, e nemmeno la DG1. Molto prima di questi progetti arrivò l'Intel i740, ed è una GPU che fa sembrare tutti gli altri tentativi di Intel decisamente migliori.

Imparentato

  • Il nuovo laptop da gioco di Acer porta le GPU Nvidia RTX serie 40 a meno di $ 1.000
  • Qualcuno ha ottimizzato l'RX 7800 XT di AMD e i risultati potrebbero sorprenderti
  • Ho acquistato la GPU di Nvidia dal valore peggiore, ma non me ne pento

Tra la metà e la fine degli anni '90, Intel saltò sul carro dell'accelerazione grafica 3D. Il fiorente mercato dei giochi per PC, con titoli come Destino, Quake, E Tomb Raider, stava davvero iniziando a mettere a fuoco quanto la grafica 3D avrebbe avuto importanza in futuro. Forse è stato questo che ha indotto Intel ad allontanarsi dal suo dominio principale, che, già allora, stava facendo parte del migliori processori - e prova a creare GPU discrete.

L'Intel740, noto anche come i740, è stato rilasciato all'inizio del 1998. Era una GPU da 350 nm che si basava sull'ormai dimenticata interfaccia AGP, che a quei tempi sembrava promettente rispetto a PCI (attenzione alla differenza, non PCIe). In effetti, è stata una delle prime GPU a utilizzare AGP, che in seguito si è rivelato un fattore determinante nel suo declino.

Aveva un clock modesto di 66 MHz e aveva 2-8 MB di VRAM su un bus a 64 bit. Queste specifiche sembrano ridicole se giudicate secondo gli standard odierni e anche allora erano un po’ fuori luogo. La quantità di VRAM era inferiore a quella che alcuni concorrenti di Intel erano in grado di fornire, ma l’interfaccia AGP doveva essere d’aiuto; sfortunatamente, è servito solo a ridurre le prestazioni della CPU riempiendo la RAM principale di texture e occupando la capacità del processore. Anche la GPU è stata colpita da questo processo contorto.

Nonostante tanto clamore, l'Intel740 non ha funzionato. Sebbene potesse essere pensato per diventare una soluzione per il rendering della grafica 3D, a volte non riusciva a gestirla bene, producendo invece artefatti e scarsa chiarezza visiva. Le voci sulla sua scarsa performance si diffusero rapidamente. Sebbene Intel si rivolgesse principalmente ai produttori di PC pre-costruiti (OEM) con questa GPU, ci è voluto solo poco tempo per essere dimenticata poiché gli appassionati di giochi sapevano di stare lontani dall'i740.

All'epoca il mercato della grafica era molto volatile e si evolveva rapidamente, quindi un flop del genere deve essere stato una battuta d'arresto per Intel. Tuttavia, dopo un altro paio di tentativi di realizzare GPU discrete, passò alla grafica integrata, dove trovò successo negli anni a venire.

S3 ViRGE

La scheda grafica S3 ViRGE.
Retronn

Prima di stabilirci nel panorama attuale di AMD, Nvidia e Intel, il mercato delle GPU aveva alcuni altri nomi in lizza per l'attenzione. Una di queste società fu S3, che divenne famosa molto rapidamente nella prima metà degli anni '90. Proprio come Intel, S3 ha capitalizzato il boom della grafica 3D e ha progettato chip grafici che offrivano l'accelerazione 3D. Alla fine, l'S3 ViRGE divenne noto come un "deceleratore 3D" e ora è ricordato come una delle peggiori GPU di tutti i tempi.

Al momento del lancio, S3 ViRGE è stato commercializzato come “il primo acceleratore grafico 3D integrato al mondo”. È stato, infatti, uno dei primi chipset di questo tipo progettati per il mercato mainstream. Supportava da 2 MB a 4 MB di SDRAM su un bus a 64 bit e aveva un core clock di 55 MHz. Potrebbe eseguire il rendering di grafica sia 2D che 3D e offrire risoluzioni fino a 800 x 600 in 3D. Anche se ha fatto un lavoro abbastanza decente in 2D, non è riuscito a impressionare in 3D – e questo era lo scopo e lo schema di marketing del chip.

Di fronte ad un rendering 3D relativamente semplice, l'S3 ViRGE era in realtà un po' più veloce della migliore soluzione basata su CPU di quei tempi. Tuttavia, quando si è trattato del rendering sempre più complesso richiesto per i giochi 3D, comprese attività come quella bilineare filtraggio, la GPU si è effettivamente rivelata più lenta del rendering software (che essenzialmente significava utilizzare la CPU per la grafica scopi). Questo è ciò che gli è valso il nome beffardo di “primo deceleratore 3D al mondo”, perché gli utenti preferirebbero disattivare l’accelerazione 3D e utilizzare invece solo la CPU.

La notizia delle scarse prestazioni 3D del chip si è diffusa rapidamente e il rapido passaggio dal 2D al 3D nel mercato dei giochi non ha aiutato in questo caso. S3 ha tentato di risolvere ciò che è andato storto con le future GPU, come ViRGE/DX e ViRGE/GX, ma aveva concorrenti piuttosto agguerriti in Nvidia, ATI (in seguito AMD) e 3dfx. Alla fine, S3 non riuscì a competere nel crescente mercato 3D, anche se continuò a produrre chip per il segmento di fascia media.

Nvidia GeForceFX 5800

La GPU GeForce FX 5800 di Nvidia.
Anandtech

Ti presentiamo la GeForce FX 5800 Ultra: la prima (e unica?) GPU su cui Nvidia ha realizzato un video parodia. Sì, Nvidia stessa ha realizzato un video di due minuti in cui prendeva in giro questa GPU, ma è stato solo dopo che è stata lanciata sul mercato ed è diventata nota come il "Dustbuster" delle schede grafiche.

Nvidia aveva grandi progetti per la serie FX. Doveva essere un grande salto nell'era DirectX 9, una transizione significativa per i giochi per PC. Questa GPU è arrivata in un momento in cui Nvidia era già leader di mercato, sebbene ATI Technologies fosse molto indietro con la linea di schede grafiche Radeon. L’inciampo di Nvidia con la serie FX è stato una battuta d’arresto inaspettata, ma come ora sappiamo, il dominio di ATI/AMD non è durato a lungo e Nvidia ora controlla la maggior parte del mercato. forse a scapito dei giocatori PC.

L'FX 5800 Ultra è stato prodotto con un processo produttivo a 130 nm e ha un clock di 500 MHz (clock e memoria, per 1 GHz effettivo). Utilizzava 128 MB di memoria GDDR2 su un'interfaccia a 128 bit. Nvidia lo ha dotato dell'architettura CineFX per migliorare il rendering cinematografico e lo ha realizzato con l'obiettivo di renderlo efficiente nell'elaborazione degli shader DirectX 9.

Sulla carta sembrava fantastico. In realtà, decisamente no. Ha funzionato abbastanza bene con i giochi DirectX 8 ma ha faticato con alcuni titoli DX9 e la Radeon 9700 Pro di ATI era un'alternativa allettante che non presentava gli stessi problemi. Tuttavia, il problema principale dell'FX 5800 Ultra era il rumore.

Nvidia ha implementato una soluzione di raffreddamento innovativa in questa GPU chiamata FX Flow. Questo aveva lo scopo di mantenere la GPU, che normalmente era calda, a una temperatura confortevole anche durante i giochi pesanti. Tuttavia, la minuscola ventola che alimentava il congegno doveva funzionare a una velocità molto elevata per tenere il passo. Il risultato è stato il rumore più forte che una GPU consumer abbia mai prodotto.

Nvidia non si è attenuta a lungo a questo modello di raffreddamento. La maggior parte dei suoi partner è tornata ai metodi di raffreddamento tradizionali per FX 5900 XT e 5900 Ultra, e da allora non abbiamo più visto nulla di simile.

3dfx Voodoo Rush

Scheda grafica Voodoo Rush.

3dfx una volta era un formidabile rivale di Nvidia e ATI. Divenne famoso all'inizio degli anni '90 e, come molti altri produttori di GPU dell'epoca, cavalcò l'onda della grafica 3D finché non si schiantò e bruciò. Nvidia alla fine acquistò la maggior parte delle sue attività nel 2000. Anche se il declino dell’azienda non può essere attribuito a una singola carta, ha trovato alcune soluzioni interessanti che si sono concluse fallendo nel mercato mainstream, e la GPU 3dfx Voodoo Rush è forse una delle più riconosciute esempi.

Il chipset Voodoo Rush era il seguito del prodotto iniziale dell'azienda, Voodoo1. Ha integrato l'accelerazione 2D e 3D in un'unica scheda, abbinando le funzionalità 3D della grafica Voodoo con un core 2D di altri produttori. Esatto, sto parlando di una configurazione a doppio chip qui.

La GPU offriva 6 MB di EDO DRAM, una velocità di clock massima del core di circa 50 MHz e supporto per cose come Glide API, Direct3D e OpenGL, nonché una risoluzione massima di 800 x 600 in 3D applicazioni. Sembrava promettente sulla carta, ma una volta che il prodotto vero e proprio fu lanciato e le persone poterono testarlo, diversi problemi fecero capolino attraverso l'hype.

Innanzitutto, era una GPU enorme con la tendenza a surriscaldarsi, ma il problema principale risiedeva nell'architettura e nel modo in cui tutto si sommava a prestazioni che erano spesso peggiori del Voodoo 1 nei giochi 3D. Problemi di compatibilità e artefatti visivi non erano rari e, una volta venuti alla luce, sia i revisori che gli utenti hanno voltato le spalle a questa GPU.

Tuttavia, la scarsa accoglienza del Voodoo Rush non è stata ciò che alla fine ha segnato il destino di 3dfx. Ha continuato a produrre più GPU, incluso il (anche controverso) Voodoo 5 6000 fornito con il proprio alimentatore. Speriamo che Nvidia non abbia un'idea simile per uno dei suoi ammiraglie del colosso di nuova generazione, perché il risultato finale è stato piuttosto divertente da guardare.

Raccomandazioni degli editori

  • Newegg vuole la tua vecchia GPU: ecco quanto potresti ottenere
  • Questo nuovo connettore GPU potrebbe finalmente uccidere il 12VHPWR che si scioglie
  • La nuova grafica integrata di Intel potrebbe competere con le GPU discrete
  • La nuova RTX 4090 di Asus ha infranto i record di overclocking della GPU e presto potrai acquistarla
  • AMD potrebbe avere ancora alcune GPU di nuova generazione nel serbatoio, ma non ci credo