Kiedy spojrzysz na niektóre najlepsze karty graficzne dziś łatwo o tym zapomnieć Nvidii i AMD (a ostatnio Intel) nie zawsze byli jedynymi graczami w grze GPU. Chociaż zarówno AMD, jak i Nvidia popełniły sporo błędów związanych z GPU, nie są jedynymi dwiema markami stojącymi za niektórymi z najgorszych procesorów graficznych wszechczasów.
Zawartość
- Intel740
- S3 ViRGE
- Nvidia GeForceFX 5800
- 3dfx Gorączka Voodoo
Rzućmy okiem na niektóre karty graficzne, które pozwolą Ci docenić obecny krajobraz GPU, i tak, nawet włączając karty, które popełniają błędy graniczne. (Cześć, RTX 4060Ti.) Oto procesory graficzne, które zrobiły to strasznie, strasznie źle, mimo że każdy miał do zaoferowania coś interesującego lub innowacyjnego.
Polecane filmy
Skupiamy się tutaj na przeszłości, głównie wokół marek, które odeszły w niepamięć. Koniecznie sprawdź nasze inne podsumowania, aby poznać bardziej nowoczesne przykłady:
- Najgorsze procesory graficzne AMD wszechczasów
- Najgorsze procesory graficzne Nvidia wszechczasów
Intel740
Łuk Alchemik nie było pierwszym przedsięwzięciem Intela w dziedzinie dyskretnych procesorów graficznych, podobnie jak DG1. Na długo przed którymkolwiek z tych projektów pojawił się Intel i740 i to właśnie dzięki procesorowi graficznemu wszystkie inne próby Intela wyglądają o wiele lepiej.
Powiązany
- Nowy laptop do gier firmy Acer oferuje procesory graficzne Nvidia RTX z serii 40 w cenie poniżej 1000 dolarów
- Ktoś ulepszył AMD RX 7800 XT, a wyniki mogą Cię zaskoczyć
- Kupiłem najtańszą kartę graficzną Nvidii, ale nie żałuję
Od połowy do końca lat 90. Intel wkroczył na modę akceleracji grafiki 3D. Rosnący rynek gier komputerowych, z tytułami takimi jak Zagłada, Quake, I Tomb Raider, naprawdę zaczynał skupiać się na tym, jak duże znaczenie będzie miała grafika 3D w przyszłości. Być może to właśnie skusiło firmę Intel do opuszczenia swojej podstawowej domeny, która już wtedy zapewniała część zysków najlepsze procesory — i spróbuj stworzyć oddzielne procesory graficzne.
Intel740, znany również jako i740, został wypuszczony na rynek na początku 1998 roku. Był to procesor graficzny wykonany w technologii 350 nm, oparty na dawno zapomnianym interfejsie AGP, który wyglądał obiecująco w porównaniu z ówczesnym PCI (pamiętaj o różnicy, a nie PCIe). W rzeczywistości był to jeden z pierwszych procesorów graficznych wykorzystujący protokół AGP, co później okazało się odegrać rolę w jego upadku.
Taktowany był skromną częstotliwością 66 MHz i miał 2–8 MB pamięci VRAM na 64-bitowej magistrali. Te specyfikacje brzmią śmiesznie, biorąc pod uwagę dzisiejsze standardy, a nawet wtedy były nieco odbiegające od normy. Ilość pamięci VRAM była mniejsza niż niektórzy konkurenci Intela byli w stanie zapewnić, ale interfejs AGP miał pomóc; niestety, służyło to jedynie zmniejszeniu wydajności procesora poprzez wypchanie głównej pamięci RAM teksturami i zajęcie mocy procesora. Ten skomplikowany proces miał również wpływ na procesor graficzny.
Pomimo dużego szumu, Intel740 upadł. Chociaż mogło mieć stać się rozwiązaniem do renderowania grafiki 3D, czasami nie radziło sobie z nimi dobrze, powodując zamiast tego artefakty i niską klarowność wizualną. Pogłoski o jego słabych wynikach szybko się rozeszły. Chociaż Intel celował w ten procesor graficzny głównie w producentów gotowych komputerów PC (OEM), szybko o nim zapomniano, ponieważ entuzjaści gier wiedzieli, że powinni trzymać się z daleka od i740.
Rynek graficzny był wówczas bardzo zmienny i szybko ewoluował, więc taka klapa musiała być porażką dla Intela. Jednak po kilku kolejnych próbach stworzenia oddzielnych procesorów graficznych przerzucił się na zintegrowaną grafikę, gdzie odniósł sukces w nadchodzących latach.
S3 ViRGE
Zanim osiedliliśmy się w obecnym krajobrazie AMD, Nvidii i Intela, na rynku procesorów graficznych było jeszcze kilka nazw rywalizujących o uwagę. Jedną z takich firm była S3, która bardzo szybko zyskała sławę od początku do połowy lat 90-tych. Podobnie jak Intel, S3 wykorzystał boom na grafikę 3D i zaprojektował układy graficzne oferujące akcelerację 3D. Ostatecznie S3 ViRGE stał się znany jako „decelerator 3D” i jest obecnie pamiętany jako jeden z najgorszych procesorów graficznych wszechczasów.
W momencie premiery S3 ViRGE był reklamowany jako „pierwszy na świecie zintegrowany akcelerator grafiki 3D”. Był to rzeczywiście jeden z pierwszych tego typu chipsetów przeznaczonych na rynek głównego nurtu. Obsługiwał około 2 MB do 4 MB SDRAM-u na 64-bitowej magistrali i miał zegar rdzenia 55 MHz. Może renderować grafikę 2D i 3D i oferować rozdzielczości do 800 x 600 w 3D. Chociaż radził sobie całkiem przyzwoicie w 2D, nie zrobił wrażenia w 3D — i taki był cały cel i plan marketingowy chipa.
W obliczu stosunkowo prostego renderowania 3D S3 ViRGE był w rzeczywistości nieco szybszy niż najlepsze wówczas rozwiązanie oparte na procesorze. Jednak jeśli chodzi o coraz bardziej złożone renderowanie wymagane w grach 3D, włączając w to zadania typu bilinear filtrowania, procesor graficzny faktycznie okazał się wolniejszy niż renderowanie programowe (co zasadniczo oznaczało używanie procesora do grafiki cele). To właśnie dzięki temu zyskało szyderczą nazwę „pierwszego na świecie zwalniacza 3D”, ponieważ użytkownicy woleliby wyłączyć akcelerację 3D i zamiast tego używać procesora.
Wieść o słabej wydajności 3D chipa szybko się rozeszła, a szybkie przejście z 2D na 3D na rynku gier nie pomogło. S3 próbowało naprawić to, co poszło nie tak z przyszłymi procesorami graficznymi, takimi jak ViRGE/DX i ViRGE/GX, ale miało dość zaciekłych konkurentów, takich jak Nvidia, ATI (później AMD) i 3dfx. Ostatecznie S3 nie było w stanie konkurować na rosnącym rynku 3D, choć nadal produkowało chipy dla segmentu średniotonowego.
Nvidia GeForceFX 5800
Poznaj GeForce FX 5800 Ultra — pierwszą (i jedyną?) kartę graficzną, o której Nvidia nakręciła fałszywy film. Tak, sama Nvidia nakręciła dwuminutowy film, w którym kpi z tego procesora graficznego, ale dopiero po jego wypuszczeniu na rynek i zasłynięciu jako „Pogromca kurzu” kart graficznych.
Nvidia miała duże plany co do serii FX. Miał to być wielki skok w erę DirectX 9, która była znaczącym przejściem dla gier komputerowych. Ten procesor graficzny pojawił się w czasie, gdy Nvidia była już liderem na rynku, chociaż firma ATI Technologies pozostawała blisko linii kart graficznych Radeon. Potknięcia Nvidii z serią FX były nieoczekiwanym niepowodzeniem, ale jak już wiemy, dominacja ATI/AMD nie trwała długo i Nvidia kontroluje obecnie większość rynku, być może ze szkodą dla graczy PC.
FX 5800 Ultra został wyprodukowany w procesie 130 nm i taktowany zegarem 500 MHz (zegar i pamięć, co daje efektywną częstotliwość 1 GHz). Wykorzystywał 128 MB pamięci GDDR2 w 128-bitowym interfejsie. Nvidia wyposażyła go w architekturę CineFX, aby ulepszyć renderowanie kinowe i zbudowała go z myślą o zapewnieniu wydajności w przetwarzaniu shaderów DirectX 9.
Na papierze brzmiało to świetnie. W rzeczywistości zdecydowanie tak nie było. Radził sobie wystarczająco dobrze w grach DirectX 8, ale miał problemy z niektórymi tytułami DX9, a Radeon 9700 Pro firmy ATI był kuszącą alternatywą, która nie miała tych samych problemów. Jednak głównym problemem FX 5800 Ultra był hałas.
Nvidia wdrożyła w tym GPU innowacyjne rozwiązanie chłodzenia o nazwie FX Flow. Miało to na celu utrzymanie procesora graficznego, który zwykle był gorący, w komfortowej temperaturze nawet podczas intensywnych gier. Jednak malutki wentylator napędzający urządzenie musiał pracować z naprawdę dużą prędkością, aby dotrzymać kroku. W rezultacie powstał jeden z najgłośniejszych dźwięków, jakie kiedykolwiek wytwarzał konsumencki procesor graficzny.
Nvidia nie trzymała się długo tego modelu chłodzenia. Większość jej partnerów powróciła do tradycyjnych metod chłodzenia w modelach FX 5900 XT i 5900 Ultra i od tamtej pory nie widzieliśmy czegoś podobnego.
3dfx Gorączka Voodoo
3dfx był kiedyś potężnym rywalem Nvidii i ATI. Zyskał sławę na początku lat 90. i podobnie jak kilku innych ówczesnych producentów procesorów graficznych, płynął na fali grafiki 3D, aż do momentu, w którym rozbił się i spłonął. Nvidia ostatecznie kupiła większość swoich aktywów w 2000 roku. Choć upadku firmy nie można przypisać jednej karcie, to jednak skończyło się na kilku ciekawych rozwiązaniach zawodzi na głównym rynku, a procesor graficzny 3dfx Voodoo Rush jest prawdopodobnie jednym z najbardziej rozpoznawalnych przykłady.
Chipset Voodoo Rush był kontynuacją początkowego produktu firmy, Voodoo1. Zintegrowała akcelerację 2D i 3D w jednej karcie, łącząc możliwości 3D grafiki Voodoo z rdzeniem 2D innych producentów. Zgadza się, mówię tutaj o konfiguracji dwuchipowej.
Procesor graficzny obsługiwał 6 MB pamięci EDO DRAM, maksymalną częstotliwość taktowania rdzenia około 50 MHz i obsługę rzeczy jak Glide API, Direct3D i OpenGL, a także maksymalna rozdzielczość 800 x 600 w 3D Aplikacje. Na papierze brzmiało to obiecująco, ale kiedy produkt pojawił się na rynku i ludzie mogli go przetestować, przez szum szumu wypłynęło kilka problemów.
Po pierwsze, był to ogromny procesor graficzny z tendencją do nagrzewania się, ale główny problem leżał w architekturze i tym, jak to wszystko składało się na wydajność, która często była gorsza niż Voodoo 1 w grach 3D. Problemy ze zgodnością i artefakty wizualne nie były rzadkością, a kiedy te problemy wyszły na światło dzienne, zarówno recenzenci, jak i użytkownicy odwrócili się od tego procesora graficznego.
Jednak kiepski odbiór Voodoo Rush nie był tym, co ostatecznie przypieczętowało los 3dfx. Następnie wyprodukował więcej procesorów graficznych, w tym (również kontrowersyjny) Voodoo 5 6000, który był dostarczany z własnym zasilaczem. Miejmy nadzieję, że Nvidia nie wpadnie na podobny pomysł na któryś ze swoich flagowe statki Behemoth nowej generacji, bo efekt końcowy był taki całkiem zabawnie na to patrzeć.
Zalecenia redaktorów
- Newegg chce twój stary procesor graficzny — oto, ile możesz dostać
- To nowe złącze GPU może w końcu zabić topniejące 12VHPWR
- Nowa zintegrowana grafika Intela może konkurować z dyskretnymi procesorami graficznymi
- Nowy Asus RTX 4090 pobił rekordy podkręcania GPU i wkrótce będzie można go kupić
- AMD może jeszcze mieć w zbiorniku kilka procesorów graficznych nowej generacji – ale ja ich nie kupuję