Während ISO-ASCII 8 Bits zur Kodierung von Zeichen verwendet, nutzt Unicode 16 Bits, was bedeutet, dass es mehr als 65.000 Zeichen darstellen kann, von denen die ersten 256 Zeichen mit Latin-1 identisch sind. Somit bietet Unicode eine eindeutige Nummer für jedes Zeichen, unabhängig von Plattform, Programm oder Sprache. Während dies für Englisch und westeuropäische Sprachen kaum notwendig ist, ist es für Chinesisch, Japanisch, Koreanisch und andere Sprachen mit einer großen Anzahl ideographischer Zeichen notwendig.
Ein Erweiterungsmechanismus ermöglicht die Kodierung von bis zu 1 Million zusätzlicher Zeichen. Diese Kapazität ist ausreichend für alle bekannten Zeichenkodierungsanforderungen, einschließlich der vollständigen Abdeckung aller historischen Schriften der Welt. Es gibt sogar einen Vorschlag, die sumerisch-akkadische Keilschrift, das altorientalische Schriftsystem, das vom Ende des vierten Jahrtausends v. Chr. bis zum ersten Jahrhundert v. Chr. für eine Reihe von Sprachen verwendet wurde, in Unicode unterzubringen. Der Zweck der Kodierung der Keilschrift in Unicode besteht darin, das Studium und die Übersetzung antiker Texte über Computer und Netzwerke zu erweitern.
Die Arbeiten an Unicode begannen 1988, aber das Projekt wurde erst 1991 durch die Gründung des Unicode-Konsortiums umfassend bekannt gemacht. Unicode ist auch unter der Bezeichnung ISO 10646 bekannt und wurde zur Verwendung in den Produkten von Branchenführern wie Apple, Hewlett-Packard, IBM, Microsoft, Oracle, PeopleSoft, Sun, Sybase, Unisys und vielen anderen angenommen. Da die Wirtschaft globaler wird und die Volkswirtschaften immer stärker voneinander abhängig sind, verwenden viele Betriebssysteme, Datenbanken und Programmiersprachen jetzt Unicode anstelle von ASCII als Zeichensatz.
Stand: 08.11.2020