Computer „denken“ in Zahlen – Buchstaben und andere Zeichen muss man ihnen erst beibringen. Dazu benötigt man eine Kodierung, die jedem Buchstaben eine Zahl zuordnet – ähnlich dem Morse-Code, aber mit Zeichen fester Länge, damit der Computer sie einfacher verarbeiten kann. Damit alle Computer dieselbe Zeichenkodierung verwenden wurde 1963 der „Amerikanische Standard-Code für den Informationsaustausch“ (ASCII) definiert. Er unterscheidet 128 verschiedene Zeichen – eine „krumme“ Anzahl, weil Computer im Binärsystem arbeiten: mit sieben Binärziffern kann man 27 = 128 verschiedene Werte darstellen. So wird beispielsweise der Buchstabe „d“ im ASCII-Code als die Binärzahl „110 0100“ kodiert. Dezimal, also in der uns gewohnten Darstellung im Zehnersystem entspricht das der Zahl 100. Der ASCII-Code ist also keine Verschlässelung – er ist öffentlich bekannt, und jeder kann Zeichen in ASCII kodieren. Wenn ein Angreifer allerdings nicht weiß, dass die resultierenden Zeichen in ASCII kodiert sind, kann ihn das vor eine zusätzliche Herausforderung stellen: Er kennt zwar den Klartext, versteht aber seine Bedeutung nicht.

ASCII-Code umrechnen