Was es zu beachten gilt: Die Length-Eigenschaft gibt die Anzahl enthaltener Char zurück. Je nach enthaltenem Unicode-Zeichen kann die Length-Eigenschaft also grösser als die tatsächliche Anzahl Zeichen sein (dann, wenn z.B. zur Codierung eines Zeichens zwei Char verwendet werden müssen).
Das meinst Du nicht ernst oder? Der letzte Satz ist bestimmt nur ein Spaß. (Nur für den Fall, dass das hier ein Programmier-Neuling mitliest und das wirklich so umsetzen möchte ;-))
Sebstverständlich ist das nicht wirklich ernst gemeint. Ich wollte nur eine möglichst kurze (und dennoch richtige!) Antwort auf die doch sehr allgemein gehaltene Frage geben. :-)
Das hängt zum einen davon ab, von welcher Programmier-Umgebung wir hier reden, viel wichtiger ist aber noch die Frage, wie Länge überhaupt definiert ist:
Anzahl der Bytes im Speicher
Anzahl der Oktette im Speicher
Anzahl der chars
Anzahl der Unicode-Codepoints
Anzahl der Zeichen vor der Kombination
Anzahl der Zeichen nach der Kombination
Anzahl der Spalten (bei einer dicktengleichen Schriftart)
Breite auf dem Bildschirm
Anzahl der Worte
Anzahl der Silben
Anzahl der Zeilen
Anzahl der Absätze
... und vieles mehr
Die ersten vier sind relativ trivial, die nächsten zwei sind schon ziemlich kompliziert, aber die notwendigen Algorithmen sind glücklicherweise Bestandteil der Unicode-Spezifikation und können dort nachgeschlagen werden. Die anderen benötigen mehr oder weniger aufwändiges Parsing.