Was ist digitale Codierung?

...

Sie sehen es vielleicht nicht, aber digitale Codierung ist überall.

Digitale Codierung ist der Prozess, bei dem binäre Ziffern verwendet werden, um Buchstaben, Zeichen und andere Symbole in einem digitalen Format darzustellen. Heutzutage sind verschiedene Arten von digitalen Codes weit verbreitet, aber sie verwenden das gleiche Prinzip der Kombination von Binärzahlen, um ein Zeichen darzustellen.

Digitale und binäre Codierung

Computer und elektronische Geräte benötigen einen systematischen und präzisen Algorithmus, um Informationen zu lesen. Dieses System erfordert, dass jedes Zeichen, jeder Buchstabe oder jedes Symbol einzigartig und leicht von anderen Zeichen unterscheidbar ist. Dazu ist eine digitale Codierung erforderlich. Bei der digitalen Codierung werden Buchstaben oder Symbole durch bestimmte Sätze von Binärzahlen oder Zeichen dargestellt. Beispielsweise repräsentieren die Zahlen 01000001 das Zeichen "A" in einem Binärcode. Binärcode, obwohl keine spezielle digitale Codierungstechnik, bietet die einfachste Erklärung zum Verständnis der digitalen Codierung.

Video des Tages

Grundlegende Codierungstechnik

Wie der Begriff schon sagt, verwandelt die digitale Codierung Informationen in Zahlen, die von Computern und anderen elektronischen Geräten leicht erkennbar sind. Diese Ziffern sind Sätze von Informationen, die in sehr kleine Teile, die als Bits bekannt sind, unterteilt sind. Ein Bit – kurz für Binärziffer – ist die kleinste zugeordnete Messung. Die gebräuchlichsten digitalen Codierungstechniken verwenden etwa 8 bis 16 Bits pro Zeichen. Dies bedeutet, dass jedes Zeichen mindestens acht alphanumerische Symbole in einer bestimmten Reihenfolge aufweist.

Häufig verwendete digitale Codes

Heutzutage werden verschiedene Arten von digitalen Codes in Computern verwendet, aber drei der am weitesten verbreiteten sind der American Standard Code Information Interchange, Extended Binary Coded Decimal Interchange Code und Unicode. ASCII enthält etwa 128 verschiedene Codes, die die amerikanischen Buchstaben, Symbole und Zahlen darstellen. Beispielsweise wird der Buchstabe "M" in ASCII als "077" im digitalen Code dargestellt. EBCDIC und Unicode verwenden denselben Kodierungsprozess, weisen jedoch jedem Zeichen einen anderen Satz von Symbolen zu.

Alphanumerische Kodierung

Die gängigste Praxis beim Erstellen digitaler Codes verwendet alphanumerische Zeichen. Alphanumerische Codierung kombiniert Buchstaben und Zahlen, um eine spezifische Darstellung eines Zeichens in einem Computerprogramm zu erstellen. Der Code "U+0041", der in Unicode "A" darstellt, enthält beispielsweise Buchstaben, Zahlen und das Symbol "+".