Возможно, вы этого не увидите, но цифровое кодирование есть повсюду.
Цифровое кодирование - это процесс использования двоичных цифр для представления букв, знаков и других символов в цифровом формате. Сегодня широко используются несколько типов цифровых кодов, но они используют тот же принцип объединения двоичных чисел для представления символа.
Цифровое и двоичное кодирование
Компьютеры и электронные устройства нуждаются в систематическом и точном алгоритме чтения информации. Эта система требует, чтобы каждый символ, буква или символ был уникальным и легко отличался от других символов. Для этого требуется цифровое кодирование. В цифровом кодировании буквы или символы представлены определенными наборами двоичных чисел или символов. Например, числа 01000001 представляют собой символ «А» в двоичном коде. Двоичный код, хотя и не является конкретным методом цифрового кодирования, предлагает простейшее объяснение понимания цифрового кодирования.
Видео дня
Базовая техника кодирования
Как следует из этого термина, цифровое кодирование превращает информацию в цифры, легко распознаваемые компьютерами и другими электронными устройствами. Эти цифры представляют собой наборы информации, разделенные на очень маленькие части, известные как биты. Бит - сокращение от двоичной цифры - это наименьшее назначенное измерение. Наиболее распространенные методы цифрового кодирования используют от 8 до 16 бит на символ. Это означает, что каждый символ имеет не менее восьми буквенно-цифровых символов, установленных в отдельной последовательности.
Обычно используемые цифровые коды
Сегодня в компьютерах используется несколько типов цифровых кодов, но три из них наиболее широко используются: Американский стандартный код обмена информацией, расширенный двоичный десятичный код обмена и Юникод. ASCII содержит около 128 различных кодов, представляющих американские буквы, символы и цифры. Например, буква «M» представлена в ASCII как «077» в цифровом коде. EBCDIC и Unicode используют один и тот же процесс кодирования, но они назначают разные наборы символов для каждого символа.
Буквенно-цифровое кодирование
Чаще всего при создании цифровых кодов используются буквенно-цифровые символы. Алфавитно-цифровое кодирование объединяет буквы и цифры для создания определенного представления символа в компьютерной программе. Например, код «U + 0041», который представляет «A» в Юникоде, состоит из букв, цифр и символа «+».