Rodzaje procesorów komputerowych
Od czasu powstania komputerów elektrycznych istnieje zapotrzebowanie na centralną jednostkę obliczeniową do sterowania czynnościami i przepływem danych w maszynach. Wczesne metody procesorów komputerowych były duże i nieefektywne. Najszerzej stosowaną metodą sterowania komputerem jest nowoczesny mikroprocesor. Chociaż w branży pozostały tylko dwie duże firmy produkujące procesory, niektórzy inżynierowie i technicy pracują nad zastąpieniem chipów krzemowych innymi formatami.
Korzyści
Procesor komputerowy to część komputera, która analizuje, kontroluje i rozprasza dane. Powszechnie określany jako jednostka centralna lub procesor, procesor komputerowy działa jak mózg komputera, informując, który program i aplikacja ma robić co w określonym czasie i odstępie czasu. Nowoczesne procesory komputerowe działają z szybkością od 2,6 do 3,66 gigaherca. Najbardziej zaawansowane modele są jeszcze szybsze. Przybiera postać małego mikroczipa, który pasuje do szeregu gniazd na płycie głównej. Im mocniejszy procesor komputera, tym szybciej i wydajniej będzie działać maszyna.
Wideo dnia
Rodzaje
Nowoczesne procesory są projektowane przez dwie różne firmy: Intel i Advanced Micro Devices (AMD). Procesory Intel są najczęściej używane w prefabrykowanych systemach komputerowych, takich jak te firmy Dell i HP. Firma skupia się na dwóch różnych liniach procesorów: Pentium i Celeron. Procesory Pentium to większy mikrochip, który działa na większości komputerów stacjonarnych i niektórych laptopach. Mogą obsługiwać przetwarzanie o wysokim zapotrzebowaniu, takie jak w grach 3D, edycji wideo i innych aplikacjach intensywnie korzystających z multimediów. Procesory Celeron to bardziej kompaktowe modele z możliwością wydajnego i ekonomicznego uruchamiania podstawowego komputera. Linię procesorów komputerowych AMD można znaleźć w modelach prefabrykowanych, jednak najczęściej są one stosowane w systemach budowanych w domu lub specjalnie zaprojektowanych maszynach. Firma AMD jako pierwsza zbudowała 64-bitowy procesor, zdolny do obsługi zaawansowanych aplikacji przy intensywnych operacjach graficznych. Poprzednim standardem branżowym było przetwarzanie 32-bitowe. Niektóre procesory AMD oferują wbudowaną ochronę antywirusową.
Rozważania
Inne linie procesorów są używane w starszych modelach komputerów. Komputery Macintosh specjalnie używały własnej linii przez wiele lat w latach 1984-2006. Po tym okresie firma przeszła na procesory Intela we wszystkich swoich nowych maszynach. We wczesnych latach Apple Computers, 1984-1996, firma używała procesorów komputerowych marki Motorola do obsługi swoich systemów operacyjnych i przepływu danych. Były one znane jako seria 68000 i zawierały procesory o szybkości od 16 do 33 megaherców. Po 1996 roku firma Apple używała zaprojektowanych przez IBM procesorów w prawie wszystkich swoich maszynach. W 2006 r. wahały się one w zakresie prędkości od 66 megaherców do 2,5 gigaherca.
Historia
Najwcześniejsze formy procesorów komputerowych były projektowane z lamp próżniowych i przekaźników elektrycznych. W latach pięćdziesiątych zostały one zastąpione przez pojawienie się tranzystora. Tranzystory te zostały zbudowane na płytkach obwodów drukowanych, miedzi wytrawionej na płytce nieelektrycznej i dodano różne komponenty. Te procesory komputerowe były duże i nieporęczne, czasami zajmując całe pomieszczenia. Podczas budowy komputera naprowadzania Apollo dla NASA naukowcy byli w stanie skonstruować: układy scalone, które pozwoliły na wyprodukowanie dużej liczby tranzystorów w jednym półprzewodnik. Stwierdzono, że jest to bardziej niezawodne niż poprzednie modele i znacznie bardziej kompaktowe. Mikroprocesor został wynaleziony przez firmę Intel w 1970 roku. 4004 był tak samo szybki jak jego więksi kuzyni, ale mógł być używany w znacznie mniejszych urządzeniach. Wraz z pojawieniem się komputerów osobistych większość technologii procesorowych wykorzystuje model mikroprocesorowy.
Potencjał
Inżynierowie i technicy rutynowo dochodzą do punktu w projektowaniu procesora, w którym napotykają ograniczenia w przyspieszaniu urządzenia. Zostały zakwestionowane przez rozmiar i materiały. Kiedyś projektanci wierzyli, że nie mogą przekroczyć poziomu prędkości 1 gigaherca, który został osiągnięty przez AMD Athlon w 2000 roku. Bariera 64-bitów została przełamana przez tę samą firmę w 2003 roku. Od tego czasu procesory stały się dwurdzeniowe i czterordzeniowe, co oznacza, że są w stanie wykonywać prawie dwa razy więcej transferów i przepływu danych niż procesory jednordzeniowe. Wiele płyt głównych jest teraz wyposażonych w dwa lub więcej procesorów, które współpracują ze sobą. Najbardziej zaawansowane badania, jakie są realizowane, to te, w których wykorzystuje się nowe technologie w celu zwiększenia szybkości i możliwości procesora. IBM zaprojektował technologię procesorów komputerowych przy użyciu laserów, podobnie jak światłowody. Georgia Institute of Technology opracowała biologiczne procesory komputerowe wykorzystujące komórki mózgowe pijawek. Inni naukowcy opracowują sposoby przekazywania danych wzdłuż zjawisk gazowych.