
Ich arbeite mit einer Anwendung, die sogenannte „Symbolfonts“ verwendet, eine bestimmte Art von TrueType-Schriftart. Soweit ich weiß, verhalten sich diese Fonts etwas anders als üblich, insbesondere in der Art und Weise, wie die Zeichen/Glyphen zugeordnet werden. Ich konnte jedoch nicht herausfinden, was eine TrueType-Schriftart eigentlich zu einer Symbolfont macht.
Meine Suche hat bisher so gut wie nichts ergeben. Alles, was ich an Einzelheiten gefunden habe, ist das Benutzerhandbuch eines Schriftarteneditors, den ich besitze. Darin steht, dass Symbolschriftarten Glyphen haben, die dem privaten Unicode-Bereich bei 0xF000 zugeordnet sind, aber im Bereich 0x00 bis 0xFF „aufgezählt“ werden (was auch immer das bedeuten soll). Und tatsächlich sehe ich beim Untersuchen der Daten einiger Symbolschriftarten in der cmap-Tabelle, dass die Glyphen nur im Bereich 0xF000 zugeordnet sind … also durch welchen Mechanismus gelangen sie dann in den Bereich 0x00? Eine scheinbar einfache Frage, die aber anscheinend nirgends beantwortet wird.
Was genau macht eine TrueType-Schriftart zu einer Symbolschriftart?
(Randbemerkung/Frage: Ich habe gehört, dass Symbolschriftarten veraltet sind und größtenteils durch sogenannte „Unicode-Schriftarten“ ersetzt wurden, die Unicode-Zeichenzuordnungen für Unicode-fähige Systeme bereitstellen. Wie können in diesem Fall Symbolschriftarten, die vor Unicode entstanden sind, überhaupt Zuordnungen im privaten Unicode-Bereich bereitstellen? Liegen nicht ohnehin alle Zeichen im Bereich 0x00 bis 0xFF und es ist keine magische Neuzuordnung von „Symbolschriftarten“ erforderlich?)