Може да не го видите, но цифровото кодиране е навсякъде.
Цифровото кодиране е процесът на използване на двоични цифри за представяне на букви, знаци и други символи в цифров формат. Има няколко вида цифрови кодове, широко използвани днес, но те използват същия принцип на комбиниране на двоични числа за представяне на символ.
Цифрово и двоично кодиране
Компютрите и електронните устройства се нуждаят от систематичен и точен алгоритъм за четене на информация. Тази система изисква всеки знак, буква или символ да е уникален и лесно различим от другите знаци. За да направите това, е необходимо цифрово кодиране. В цифровото кодиране буквите или символите са представени от специфични набори от двоични числа или знаци. Например, числата 01000001 представляват знака "A" в двоичен код. Двоичният код, въпреки че не е специфична техника за цифрово кодиране, предлага най-простото обяснение за разбиране на цифровото кодиране.
Видео на деня
Основна техника за кодиране
Както подсказва терминът, цифровото кодиране превръща информацията в цифри, лесно разпознаваеми от компютрите и други електронни устройства. Тези цифри са набори от информация, разделени на много малки парчета, известни като битове. Битът - съкратено за двоична цифра - е най-малкото присвоено измерване. Най-често срещаните техники за цифрово кодиране използват около 8 до 16 бита на знак. Това означава, че всеки знак има най-малко осем буквено-цифрови символа, зададени в отделна последователност.
Често използвани цифрови кодове
Има няколко вида цифрови кодове, използвани в компютрите днес, но три от най-широко използваните са американския стандартен код за обмен на информация, разширен двоичен кодиран десетичен обменен код и Unicode. ASCII съдържа около 128 различни кода, които представляват американските букви, символи и цифри. Например, буквата "M" е представена в ASCII като "077" в цифров код. EBCDIC и Unicode използват един и същ процес на кодиране, но присвояват различен набор от символи за всеки знак.
Буквено-цифрово кодиране
Най-честата практика при създаването на цифрови кодове използва буквено-цифрови знаци. Буквено-цифрово кодиране комбинира букви и цифри, за да създаде конкретно представяне на символ в компютърна програма. Например, кодът "U+0041", който представлява "A" в Unicode, има букви, цифри и символа "+".