Morda ga ne vidite, a digitalno kodiranje je povsod.
Digitalno kodiranje je postopek uporabe binarnih števk za predstavitev črk, znakov in drugih simbolov v digitalni obliki. Danes se pogosto uporablja več vrst digitalnih kod, vendar uporabljajo enako načelo kombiniranja binarnih števil za predstavljanje znaka.
Digitalno in binarno kodiranje
Računalniki in elektronske naprave potrebujejo sistematičen in natančen algoritem za branje informacij. Ta sistem zahteva, da je vsak znak, črka ali simbol edinstven in zlahka ločljiv od drugih znakov. Za to je potrebno digitalno kodiranje. V digitalnem kodiranju so črke ali simboli predstavljeni s posebnimi nizi binarnih številk ali znakov. Številke 01000001 na primer predstavljajo znak "A" v binarni kodi. Binarna koda, čeprav ni posebna tehnika digitalnega kodiranja, ponuja najpreprostejšo razlago za razumevanje digitalnega kodiranja.
Video dneva
Osnovna tehnika kodiranja
Kot pove že izraz, digitalno kodiranje pretvori informacije v številke, ki jih računalniki in druge elektronske naprave zlahka prepoznajo. Te števke so nizi informacij, razdeljeni na zelo majhne koščke, znane kot biti. Bit – okrajšava za binarno številko – je najmanjša dodeljena meritev. Najpogostejše tehnike digitalnega kodiranja uporabljajo približno 8 do 16 bitov na znak. To pomeni, da ima vsak znak vsaj osem alfanumeričnih simbolov, nastavljenih v ločenem zaporedju.
Pogosto uporabljene digitalne kode
Danes se v računalnikih uporablja več vrst digitalnih kod, vendar so tri najbolj razširjene ameriško standardno kodno izmenjavo informacij, razširjeno binarno kodirano decimalno kodo in Unicode. ASCII vsebuje približno 128 različnih kod, ki predstavljajo ameriške črke, simbole in številke. Na primer, črka "M" je v ASCII predstavljena kot "077" v digitalni kodi. EBCDIC in Unicode uporabljata isti postopek kodiranja, vendar vsakemu znaku dodelita drugačen nabor simbolov.
Alfanumerično kodiranje
Najpogostejša praksa pri ustvarjanju digitalnih kod uporablja alfanumerične znake. Alfanumerično kodiranje združuje črke in številke, da ustvari določeno predstavitev znaka v računalniškem programu. Na primer, koda "U+0041", ki predstavlja "A" v Unicode, ima črke, številke in simbol "+".