Spośród wszystkich graczy w świecie informatyki Intel jest jednym z najstarszych, a także jednym z najbardziej tytanicznych. Może być trudno ekscytować się Intelem, niezależnie od tego, czy firma dominuje, jak to miało miejsce w 2010 roku, czy fruwa, jak w 2020 roku; ludziom dość trudno jest zakochać się w status quo lub dużej firmie, która przegrywa z mniejszymi. Odwrotnie jest dla Rywal Intela AMD, który zawsze był słabszy, a wszyscy (zwykle) kochają słabszego.
Zawartość
- Intel 8086
- Celeron 300A
- Core 2 Duo E6300
- Core i5-2500K
- Core i7-8700K
- Core i9-12900K
- Niepewna przyszłość Intela
Ale Intel nie mógłby stać się monolitycznym gigantem, jakim jest dzisiaj, nie będąc kiedyś gorącym i innowacyjnym nowicjuszem. Od czasu do czasu Intelowi udało się wstrząsnąć sytuacją na scenie procesorów na lepsze. Oto sześć najlepszych procesorów Intel wszechczasów.
Polecane filmy
Intel 8086
Intel zostaje liderem
Procesor Intel 8086 w zasadzie spełnia wszystkie kryteria tego, co sprawia, że procesor jest świetny: odniósł ogromny sukces komercyjny, reprezentuje znaczący postęp technologiczny, a jego dziedzictwo przetrwało tak dobrze, że jest protoplastą wszystkich x86 procesory. W rzeczywistości nazwa architektury x86 pochodzi od tego właśnie układu.
Powiązany
- Te dwa procesory to jedyne, o które powinieneś dbać w 2023 roku
- Nadchodzący AMD Ryzen 5 5600X3D może całkowicie zdetronizować Intela w kompilacjach budżetowych
- Intel uważa, że twój następny procesor potrzebuje procesora AI — oto dlaczego
Chociaż Intel twierdzi, że 8086 był pierwszym 16-bitowym procesorem, jaki kiedykolwiek pojawił się na rynku, to prawda tylko z bardzo konkretnymi zastrzeżeniami. Trend przetwarzania 16-bitowego pojawił się w latach 60. XX wieku dzięki użyciu wielu układów scalonych w celu utworzenia jednego kompletnego procesora zdolnego do operacji 16-bitowych. 8086 nie był nawet pierwszym jednoukładowym procesorem z 16-bitowymi możliwościami, jak inne procesory, ponieważ został zastąpiony przez General Instrument CP1600 i Texas Instruments TMS9900. W rzeczywistości 8086 został wprowadzony w pośpiechu, aby postawić Intela na równi z rywalami, i ostatecznie pojawił się w 1978 roku, po okresie rozwoju wynoszącym zaledwie 18 miesięcy.
Początkowo sprzedaż 8086 była słaba z powodu presji ze strony konkurencyjnych 16-bitowych procesorów i aby temu zaradzić, Intel zdecydował się zaryzykować i rozpocząć masową kampanię reklamową swojego procesora. Operacja Crush o kryptonimie Intel przeznaczyła 2 miliony dolarów tylko na reklamę poprzez seminaria, artykuły i programy sprzedaży. Kampania okazała się wielkim sukcesem, a 8086 znalazł zastosowanie w około 2500 projektach, z których najważniejszym był prawdopodobnie komputer osobisty IBM.
Wyposażony w Intel 8088, tańszą odmianę 8086, IBM Personal Computer (oryginalny PC) pojawił się na rynku w 1981 roku i szybko podbił cały rynek komputerów domowych. Do 1984 r. przychody IBM z komputerów osobistych były dwukrotnie większe niż Apple, a udział w rynku tego urządzenia wahał się od 50% do ponad 60%. Kiedy pojawił się IBM PS/2, w końcu użyto samego 8086 wraz z innymi procesorami Intela.
Ogromny sukces IBM PC, a co za tym idzie rodziny procesorów Intel 8086, miał ogromne znaczenie dla przebiegu historii komputerów. Ponieważ układ 8086 był używany w tak popularnym urządzeniu, Intel oczywiście chciał raczej iterować jego architekturę niż tworzyć nową i chociaż Intel stworzył wiele różnych mikroarchitektur od tego czasu nadrzędny x86 zestaw instrukcji architektura (lub ISA) utknęła od tamtej pory.
Drugą konsekwencją był wypadek. IBM zażądał od Intela znalezienia partnera, który mógłby wyprodukować dodatkowe procesory x86, na wypadek gdyby Intel nie był w stanie wyprodukować wystarczającej ilości. Firmą, z którą Intel nawiązał współpracę, był nikt inny jak AMD, które w tamtym czasie było tylko małym producentem chipów. Chociaż Intel i AMD zaczynali jako partnerzy, aspiracje AMD i niechęć Intela do ustąpienia sprawiły, że obie firmy znalazły się na kursie kolizyjnym, na którym pozostają do dziś.
Celeron 300A
Najlepszy budżetowy procesor w mieście
W ciągu dwóch dekad po 8086 zaczął powstawać nowoczesny ekosystem komputerów PC, w którym entuzjaści budowali własne maszyny z gotowych części, tak jak robimy to dzisiaj. Pod koniec lat 90. stało się całkiem jasne, że jeśli chcesz zbudować komputer osobisty, potrzebujesz systemu Windows, który działa tylko na sprzęcie x86. Oczywiście Intel stał się niezwykle dominującą postacią na rynku komputerów PC, ponieważ tylko dwie inne firmy miały licencję x86 (AMD i VIA).
W 1993 roku Intel wprowadził na rynek pierwszy procesor Pentium i przez wiele lat miał wprowadzać procesory pod tą marką. Każdy nowy Pentium był szybszy od poprzedniego, ale żaden z tych procesorów nie był szczególnie niezwykły i zdecydowanie nie tak wpływowy jak 8086. Nie oznacza to, że te wczesne Pentium były złe, po prostu spełniały standardowe oczekiwania. Wszystko było w porządku, dopóki AMD nie wypuściło procesora K6, który oferował podobny poziom wydajności jak procesory Pentium za niższą cenę. Intel musiał odpowiedzieć AMD i zrobił to z zupełnie nową linią procesorów: Celeron.
Na pierwszy rzut oka procesory Celeron nie wydawały się niczym więcej niż okrojonymi Pentiumami z niższą ceną. Ale przetaktowywanie tych układów przekształciło je w pełnoprawne Pentium. Procesory oparte na projekcie Mendocino (nie mylić z APU AMD oparte na Mendocino) były szczególnie dobrze oceniane, ponieważ miały pamięć podręczną L2, podobnie jak procesory Pentium z wyższej półki, choć nie tak dużo.
Spośród chipów Mendocino 300A był najwolniejszy, ale można go było przetaktować do ekstremalnego stopnia. W swojej recenzji, Anandtech był w stanie podnieść go do 450 MHz, przetaktowany o 50%. Pentium II 450 MHz Intela sprzedawany był za około 700 USD, a Celeron 300A za 180 USD, co sprawiło, że Celeron niezwykle atrakcyjne dla tych, którzy mogli sobie poradzić z nieco niższą wydajnością wynikającą z mniejszej liczby L2 Pamięć podręczna. Anandtech doszedł do wniosku, że pomiędzy K6 AMD i Celeronem Intela ten ostatni był procesorem do kupienia.
W rzeczywistości 300A był tak przekonujący dla Anandtech, że przez jakiś czas po prostu zalecał zakup 300A zamiast nieco szybszych Celeronów. A kiedy 300A stał się zbyt stary, publikacja zaczęła zalecać w jego miejsce nowsze Celerony z niższej półki. Wśród recenzji procesorów Anandtech z późnych lat 90. i wczesnych 2000. te Celerony z niższej półki były jedynymi procesorami Intela, które konsekwentnie otrzymywały aprobaty; nawet własne procesory AMD z niższej półki nie zostały przyjęte tak ciepło, dopóki firma nie wprowadziła serii Duron.
Core 2 Duo E6300
Imperium kontratakuje
Chociaż Intel miał niezwykle silne imperium pod koniec lat 90., pęknięcia zaczęły pojawiać się począwszy od roku 2000. To był rok, w którym Intel wypuścił Pentium 4, oparty na niesławnej architekturze NetBurst. W przypadku NetBurst firma Intel zdecydowała, że rozwiązaniem będzie szybkie zwiększenie szybkości zegara; Intel nawet miał planuje osiągnąć 10 GHz do 2005 r. Jeśli chodzi o biznes serwerowy firmy, Intel wypuścił Itanium, pierwszą na świecie 64-bitową implementację architektury x86 i miejmy nadzieję (w przypadku Intela) serwerowy procesor, z którego wszyscy będą korzystać.
Na nieszczęście dla Intela strategia ta szybko się rozpadła, ponieważ stało się jasne, że NetBurst nie jest w stanie osiągać prędkości zegara, o których myślał Intel. Itanium też nie radził sobie dobrze i był powoli wdrażany, nawet gdy był to jedyny 64-bitowy procesor w mieście. AMD skorzystało z okazji, aby zacząć budować własne miejsce na słońcu, a Intel zaczął szybko tracić udziały w rynku zarówno komputerów stacjonarnych, jak i serwerów. Częścią odpowiedzi Intela było po prostu przekupywać producentów OEM, aby nie sprzedawali systemów, które korzystały z AMD, ale Intel wiedział również, że potrzebuje konkurencyjnego procesora, ponieważ firma nie mogła w nieskończoność płacić Dellowi, HP i innym miliardom dolarów.
W 2006 roku firma Intel ostatecznie wprowadziła na rynek serię procesorów Core 2, całkowicie zastępując wszystkie procesory do komputerów stacjonarnych i urządzeń przenośnych oparte na technologii NetBurst, a także oryginalne procesory Core, które zostały wprowadzone wyłącznie do laptopy wcześniej w roku. Te nowe procesory nie tylko przyniosły w pełni odnowioną architekturę (architektura Core prawie w ogóle nie przypominała NetBurst), ale także pierwsze czterordzeniowe procesory x86. Core 2 nie tylko stawia Intela na równi z AMD, ale przywraca Intelowi pozycję lidera wprost.
Chociaż zaawansowane procesory Core 2, takie jak Core 2 Extreme X6800 i Core 2 Quad Q6600, zadziwiały ludzi wysoką wydajnością (X6800 nie stracił ani jednego testu porównawczego w recenzji Anandtech), był jeden procesor, który zrobił na wszystkich ogromne wrażenie: Core 2 Duo E6300. E6300 był dwurdzeniowym procesorem o przyzwoitej ogólnej wydajności, ale podobnie jak 300A był świetnym overclockerem. Anandtech był w stanie przetaktować E6300 do 2,59 GHz (od 1,86 GHz w magazynie), co pozwoliło mu pokonać topowego Athlona FX-62 AMD (kolejny dwurdzeniowy) w prawie każdym teście porównawczym przeprowadzonym w publikacji.
Seria Core 2 i architektura Core ożywiły przywództwo technologiczne Intela, jakiego nie widziano od lat 90. AMD w międzyczasie bardzo trudno było nadrobić zaległości, nie mówiąc już o utrzymaniu konkurencyjności; nie wypuścił nawet własnego czterordzeniowego procesora do 2007 roku. Core 2 był jednak dopiero początkiem, a Intel nie chciał zwalniać. Przynajmniej jeszcze nie.
Core i5-2500K
Pozostawiając AMD w tyle
W przeciwieństwie do NetBurst, Core nie był ślepym zaułkiem, co pozwoliło Intelowi na iterację i ulepszanie architektury z każdą generacją. Jednocześnie firma w stałym tempie tworzyła nowe procesy produkcyjne lub węzły. Doprowadziło to do powstania modelu „tik-tak”, w którym „tik” oznacza ulepszenie procesu, a „tak” reprezentuje ulepszenie architektury. Pierwsze procesory Core 2 były strzałem w dziesiątkę (ponieważ wykorzystywały ten sam proces 65 nm co NetBurst), a późniejsze procesory Core 2 były tikiem, ponieważ zostały wyprodukowane w procesie 45 nm.
Do 2011 roku Intel przeszedł już przez dwa pełne cykle tik-tak, dostarczając coraz lepsze procesory jak w zegarku. Tymczasem AMD bardzo trudno było nadrobić zaległości. Jego nowe chipy Phenom w końcu wprowadziły czterordzeniowe (a później sześciordzeniowe) do oferty AMD, ale te procesory rzadko (jeśli w ogóle) były liderami wydajności, a AMD powróciło do swojej starej strategii zorientowanej na wartość. AMD wywierało presję, gdy Intel wypuścił procesory drugiej generacji w 2011 roku.
Procesory Core drugiej generacji o nazwie kodowej Sandy Bridge były strzałem w dziesiątkę i znacznie poprawiły instrukcje na zegar (lub IPC), oprócz zwiększenia samej częstotliwości. Efektem końcowym była poprawa wydajności o 10-50% w porównaniu z procesorami pierwszej generacji. Sandy Bridge też miał ładny przyzwoitą zintegrowaną grafikę i był pierwszym procesorem, który wprowadził Quick Sync, kodowanie wideo akcelerator.
W swoich Core i7-2600K i Core i5-2500K, Anandtech zalecił 2500K zamiast 2600K. 2500K kosztował zaledwie 216 USD, miał większość wydajności 2600K (który kosztował 100 USD więcej) i pokonał prawie każdy układ ostatniej generacji, z wyjątkiem Core i7-980X klasy stacji roboczej. Do dziś 2500K jest czule wspominany jako procesor średniej klasy z dużą wydajnością za dobrą cenę.
Tymczasem AMD zostało po prostu w tyle; Anandtech nawet nie wspomniał o procesorach Phenom jako realnej alternatywie dla drugiej generacji. AMD musiało wypuścić procesor, który mógłby konkurować z Sandy Bridge, jeśli chciał być czymś więcej niż tylko budżetową alternatywą. Później, w 2011 roku, AMD w końcu wypuściło nową serię FX opartą na architekturze Bulldozer.
AMD poszło słabo. Flagowy FX-8150 czasami dorównywał Core i5-2500K, ale ogólnie był wolniejszy, szczególnie w jednowątkowych testach porównawczych; czasami nawet przegrywał ze starymi procesorami Phenom. Ogólnie rzecz biorąc, Bulldozer był katastrofą zarówno dla użytkowników AMD, jak i komputerów PC. Bez konkurencyjnego AMD, które trzymałoby rywala w ryzach, Intel mógł robić w zasadzie wszystko, co chciał, coś, o co martwił się Anandtech:
„Wszyscy potrzebujemy AMD, aby odnieść sukces” – napisano w ówczesnej relacji. „Widzieliśmy, co się dzieje bez silnego AMD jako konkurenta. Dostajemy procesory, które są sztucznie ograniczane i surowe ograniczenia dotyczące przetaktowywania, szczególnie na końcu segmentu pod względem wartości. Odmawia się nam wyboru po prostu dlatego, że nie ma innej alternatywy”.
Niestety, ta prognoza okazała się aż nazbyt trafna.
Core i7-8700K
Intel idzie z duchem czasu
Chociaż Sandy Bridge był świetny, zwiastował mroczną erę dla użytkowników komputerów PC, którzy zawsze oczekiwali, że następna generacja będzie szybsza i tańsza niż poprzednia. Ale skoro AMD nie wchodziło w grę, Intel nie miał powodu, by oferować lepsze procesory za mniej. W ciągu następnych sześciu lat Intel oferował czterordzeniowe procesory tylko na swoich głównych platformach i zawsze za tę samą cenę: 200 USD za i5 i 300 USD za i7. Co więcej, zgodnie z przewidywaniami Anandtech, Intel zaczął blokować swoje procesory bardziej agresywnie niż kiedykolwiek wcześniej. Wszystkie procesory klasy i3 do 2017 roku nie miały żadnej obsługi przetaktowywania, a większość i5 i i7 nie potrzebowała dużo czasu, aby uzyskać to samo traktowanie.
Sprawy stały się bardzo frustrujące, gdy na początku 2017 roku pojawił się Kaby Lake siódmej generacji firmy Intel. Zgodnie z modelem tik-tak, Intel powinien był wypuścić procesor 10 nm wykorzystujący podobną architekturę, jak procesory Skylake szóstej generacji 14 nm z 2015 roku. Zamiast tego procesory siódmej generacji były identyczne z procesorami szóstej generacji: ten sam stary proces 14 nm, ta sama stara architektura Skylake. W ten sposób Intel ogłosił koniec modelu tik-tak i wprowadził model optymalizacji architektury procesów, przy czym 7. generacja jest optymalizacją. Ludzie, co zrozumiałe, nie byli zadowoleni z Intela, ponieważ kończyły się nawet ulepszenia generacyjne.
Ostatecznie to AMD musiało zmienić sytuację i wstrząsnąć, i zdecydowanie tak się stało, gdy wypuściło Ryzen zaledwie kilka miesięcy po pojawieniu się procesorów 7. generacji. Oparta na nowej architekturze Zen, Procesory Ryzen 1000 w końcu sprawiły, że AMD wróciło do gry dzięki wystarczająco dobrej wydajności jednowątkowej i niezwykle wysokiej wydajności wielowątkowej, wprowadzając po raz pierwszy do głównego nurtu osiem wysokowydajnych rdzeni. Konkurencyjna 7. generacja Intela prowadziła w jednowątkowych aplikacjach i grach, ale nie na tyle, aby Zen stał się nowym Bulldozerem. Po raz pierwszy od lat firma Intel została zmuszona do zaoferowania czegoś naprawdę nowego i wartościowego.
Intel bardzo poważnie potraktował Ryzen i jak najszybciej wypuścił nową generację. Siódma generacja działała tylko przez 9 miesięcy, zanim została zastąpiona przez 8. generację Coffee Lake, która była kolejną optymalizacją Skylake, ale z jeszcze wyższymi częstotliwościami taktowania i, co najważniejsze, większą liczbą rdzeni. Procesory Core i7 miały teraz 6 rdzeni i 12 wątków, Core i5 miały 6 rdzeni i 6 wątków, a Core i3 miały 4 rdzenie i 4 wątki (co było identyczne ze starymi i5). Ale jedna rzecz, która się nie zmieniła, to cena, co oznaczało, że wartość ósmej generacji była znacznie, znacznie wyższa niż w przypadku poprzednich procesorów Core.
Wyposażony w szybką jednowątkową wydajność 7700K i dodatkowe dwa rdzenie, Core i7-8700K był najlepszym okrętem flagowym Intela od lat. W porównaniu z Ryzenem 7 1800X AMD, 8700K był tylko trochę w tyle w wielowątkowych testach porównawczych i znacznie wyprzedzał we wszystkim innym. zakończył Techspot „To prawie nie był nawet konkurs”. Za 360 USD był również o 100 USD tańszy niż flagowiec AMD. 8700K był bardzo wszechstronnym procesorem o stosunkowo niskiej cenie; gdyby 8700K był czymś innym, po prostu nie byłby tak dobry.
Perspektywy dla Intela były jednak ponure. Już w przypadku procesorów ósmej generacji model optymalizacji architektury procesów był porażką, ponieważ ósma generacja była drugą optymalizacją z rzędu. Kiedy w 2018 roku w końcu pojawiły się procesory Cannon Lake 10 nm, stało się jasne, że najnowszy proces Intela był bardzo zepsuty. Ile jeszcze optymalizacji przeszedłby Intel, zanim w końcu zrobiłby coś nowego?
Okazuje się, że całkiem sporo.
Core i9-12900K
Bardzo potrzebny powrót
W 2018 r. technologia 10 nm nadawała się tylko do słabo działających układów mobilnych. Sytuacja poprawiła się w 2019 roku, kiedy Intel wypuścił swoje mobilne procesory Ice Lake, ale były to tylko czterordzeniowe z przyzwoitą zintegrowaną grafiką; nigdzie w pobliżu klasy komputerów stacjonarnych. Sytuacja ponownie się poprawiła w 2020 roku wraz z wprowadzeniem procesorów Tiger Lake 11. generacji, które były optymalizacją Ice Lake z jeszcze lepszą grafiką, ale wciąż niewystarczająco dobrą dla komputerów stacjonarnych.
Intel rozpaczliwie potrzebował 10 nm procesorów do komputerów stacjonarnych. Jego proces 14 nm był bardzo stary i zapobiegał wzrostowi liczby rdzeni i szybkości zegara. W przeciwieństwie do tego, AMD rosło w siłę dzięki procesorom Ryzen 3000 Zen 2, a następnie Ryzen 5000 Zen 3 procesory, każdy bardziej imponujący niż poprzedni, a teraz nawet kradnący koronę wydajności w grach Intel. Potrzebny był wielki powrót.
Wreszcie, pod koniec 2021 roku, Intel wprowadził na rynek swoje pierwsze procesory 10 nm do komputerów stacjonarnych, Jezioro Olchowe 12. generacji. Te procesory radykalnie różniły się od poprzednich; jego architektura hybrydowa połączone duże i wydajne rdzenie wydajności (lub rdzenie P) z mniejszymi i bardziej wydajnymi rdzeniami wydajności (lub rdzeniami E) zapewniając niewiarygodną wydajność wielowątkową dla najlepszych chipów i znacznie ulepszoną wydajność jednowątkową dla wszystkiego w przeciwnym razie.
Core i9-12900K, nowy flagowy produkt firmy Intel, miał konfigurację rdzeni składającą się z 8 rdzeni P i 8 rdzeni E, dzięki czemu świetnie sprawdza się zarówno w zadaniach wielowątkowych, jak i jednowątkowych. W naszej recenzji, odkryliśmy, że 12900K nie tylko postawiło Intela na równi z AMD, ale także mocno wróciło na prowadzenie w każdym pojedynczym wskaźniku. Ryzen 9 5950X, który pojawił się na rynku jako drogi flagowiec klasy premium, nagle wyglądał na budżetową alternatywę, ale 12900K był również znacznie tańszy. Opisywanie Alder Lake jako powrotu to niedopowiedzenie.
Jedynym minusem było to, że 12900K (i ogólnie Alder Lake) spóźnił się o rok na imprezę, a także zużywał dużo energii, co oznacza, że 10 nm nie był gotowy na najlepszy czas. Niemniej jednak wznowienie konkurencji miało bardzo pozytywny wpływ na w zasadzie wszystkich. Ceny procesorów Ryzen 5000 spadły, aby dorównać Intelowi, a AMD w końcu wprowadziło nowe modele dla nabywców budżetowych w odpowiedzi na niższej klasy procesory Alder Lake, takie jak Core i5-12400, który był o 100 USD tańszy niż 5600X, a jednocześnie był znacznie szybciej. Alder Lake po raz kolejny udowodniło, że potrzebujemy zarówno Intela, jak i AMD, aby konkurować, w przeciwnym razie użytkownicy komputerów osobistych otrzymają złą ofertę.
Niepewna przyszłość Intela
Alder Lake ma już około roku, a Intel śledzi jego rozwój Jezioro Raptorów: optymalizacja. To trochę rozczarowujące, ale Intel nie zamierza wracać do swoich starych praktyk, ponieważ procesory 13. generacji oferują więcej rdzeni niż 12. generacji za tę samą cenę, co jest podobne do tego, co stało się z 8. generacją. Raptor Lake nie jest super ekscytujące i może nie być wystarczająco szybki, aby odzyskać prowadzenie z serii AMD Ryzen 7000, ale wszyscy mogą się zgodzić, że więcej rdzeni w tej samej cenie to dobry interes.
Ale dalej, przyszłość Intela jest niepewna. Firma najwyraźniej robi duże postępy w procesie 7 nm (oficjalnie nazwany Intel 4), który zadebiutuje w Meteor Lake, ale Wyraziłem pewne zaniepokojenie strategią Intela. Przy tak złożonym projekcie, który obejmuje nie mniej niż cztery różne procesy, czuję się bardzo nieswojo z powodu liczby punktów awarii Meteor Lake. Miejmy nadzieję, że Intel dobrze wykona swoje przyszłe procesory zgodnie z tą filozofią projektowania, ponieważ nie może sobie pozwolić na dalsze opóźnienia.
Nawet jeśli Meteor Lake odniesie sukces, trudno wyobrazić sobie powrót Intela do poziomu dominacji, którym cieszył się w przeszłości. Wcześniej w tym roku, AMD prześcignęło Intela pod względem kapitalizacji rynkowej, co oznacza, że AMD nie jest już przegraną, ale pełnoprawnym konkurentem. W tej nowej erze rywalizacji Intel-AMD będziemy musieli zobaczyć, jak potoczą się sprawy, gdy obie firmy będą konkurować na równych prawach. Intel wciąż się kurczy i sceduje udział w rynku na AMD, ale miejmy nadzieję, że może pozostać równy i nie rozpadać się dalej. W teorii równowaga sił może być najlepszym rozwiązaniem dla wszystkich.
Zalecenia redaktorów
- Najpotężniejsze procesory Intela mogą zostać wprowadzone na rynek dopiero w 2024 roku
- Kolejne budżetowe procesory Intela mogą wreszcie być warte zakupu dla graczy
- Intel właśnie przyznał się do porażki
- Intel Meteor Lake czternastej generacji: aktualności, plotki, spekulacje dotyczące daty premiery
- Intel zajmuje się tajemniczą poprawką, która pojawi się na prawie wszystkich komputerach PC w tym tygodniu