Jeśli korzystasz z komputera lub myślisz o jego zakupie, prawdopodobnie często spotykasz się z terminem „GB”. Jest to termin używany do pomiaru rozmiaru pamięci cyfrowej informacji.
Definicja
GB oznacza „gigabajt”. Gigabajt to 1 miliard bajtów. Bajt jest jedną z najmniejszych jednostek miary przechowywania informacji cyfrowych. W niektórych przypadkach (takich jak w pamięci RAM, opisane poniżej) gigabajt odnosi się do ilości większej niż 1 miliard (w szczególności 1 073 741 824 bajtów).
Wideo dnia
Historia
Termin „bajt” pierwotnie odnosił się do najmniejszej ilości danych, jaką komputer mógł „ugryźć” lub obsłużyć za jednym razem. Zapisano go bajt, z y, aby uniknąć pomyłki z innym terminem obliczeniowym: bit. Giga to prefiks oznaczający 1 miliard.
Konwersja
Najczęściej będziesz musiał dokonać konwersji między megabajtami (1 milion bajtów) a gigabajtami. W 1 gigabacie jest 1000 megabajtów. Czasami możesz napotkać TB (terabajt), który ma 1000 gigabajtów.
Wspólne użycie
Bardzo duże pliki, takie jak filmy i dyski twarde, są zwykle mierzone w gigabajtach. Na przykład Apple sprzedaje swoje komputery z dyskami twardymi o pojemności od 120 GB do 640 GB.
Baran
GB służy również do pomiaru pamięci RAM (Random Access Memory). Pamięć RAM mierzy zdolność systemu do wykonywania wielu zadań jednocześnie, wykonując kilka operacji. Dla przeciętnego użytkownika wystarczy 1 lub 2 GB pamięci RAM. Dla użytkownika o większych wymaganiach, takich jak zaawansowany montaż filmów lub efekty animacji, preferowany może być system z 3 lub 4 GB pamięci RAM.