Что такое цифровое кодирование?

...

Возможно, вы этого не увидите, но цифровое кодирование есть повсюду.

Цифровое кодирование - это процесс использования двоичных цифр для представления букв, знаков и других символов в цифровом формате. Сегодня широко используются несколько типов цифровых кодов, но они используют тот же принцип объединения двоичных чисел для представления символа.

Цифровое и двоичное кодирование

Компьютеры и электронные устройства нуждаются в систематическом и точном алгоритме чтения информации. Эта система требует, чтобы каждый символ, буква или символ был уникальным и легко отличался от других символов. Для этого требуется цифровое кодирование. В цифровом кодировании буквы или символы представлены определенными наборами двоичных чисел или символов. Например, числа 01000001 представляют собой символ «А» в двоичном коде. Двоичный код, хотя и не является конкретным методом цифрового кодирования, предлагает простейшее объяснение понимания цифрового кодирования.

Видео дня

Базовая техника кодирования

Как следует из этого термина, цифровое кодирование превращает информацию в цифры, легко распознаваемые компьютерами и другими электронными устройствами. Эти цифры представляют собой наборы информации, разделенные на очень маленькие части, известные как биты. Бит - сокращение от двоичной цифры - это наименьшее назначенное измерение. Наиболее распространенные методы цифрового кодирования используют от 8 до 16 бит на символ. Это означает, что каждый символ имеет не менее восьми буквенно-цифровых символов, установленных в отдельной последовательности.

Обычно используемые цифровые коды

Сегодня в компьютерах используется несколько типов цифровых кодов, но три из них наиболее широко используются: Американский стандартный код обмена информацией, расширенный двоичный десятичный код обмена и Юникод. ASCII содержит около 128 различных кодов, представляющих американские буквы, символы и цифры. Например, буква «M» представлена ​​в ASCII как «077» в цифровом коде. EBCDIC и Unicode используют один и тот же процесс кодирования, но они назначают разные наборы символов для каждого символа.

Буквенно-цифровое кодирование

Чаще всего при создании цифровых кодов используются буквенно-цифровые символы. Алфавитно-цифровое кодирование объединяет буквы и цифры для создания определенного представления символа в компьютерной программе. Например, код «U + 0041», который представляет «A» в Юникоде, состоит из букв, цифр и символа «+».