Die gängigsten Formeln sind der Flesch-Reading-Ease-Score und der Flesch-Kincaid-Grade-Level. Beide messen hauptsächlich Satzlänge und Silbenzahl pro Wort. Je kürzer beides, desto besser der Score.
Ich nahm zwanzig meiner Artikel und optimierte zehn davon strikt nach diesen Metriken. Das bedeutete: Sätze kürzen, lange Wörter durch kurze ersetzen, komplexe Gedanken vereinfachen. Die anderen zehn ließ ich wie sie waren.
Nach drei Monaten verglich ich verschiedene Kennzahlen. Verweildauer auf der Seite, Absprungrate und Scroll-Tiefe dienten als Indikatoren ob Leute die Texte tatsächlich lasen.
Die Ergebnisse waren gemischt. Optimierte Artikel zeigten 12 Prozent niedrigere Absprungraten. Soweit gut. Aber die durchschnittliche Verweildauer sank um 8 Prozent. Wie passt das zusammen?
Meine Vermutung: Kürzere einfachere Texte lesen sich schneller. Menschen bleiben also kürzer weil sie schneller fertig sind, nicht weil sie abspringen. Die niedrigere Absprungrate deutet darauf hin dass mehr Leute zu Ende lesen.
Ein Problem fiel mir auf: Bei analytischen Themen führten die Formeln zu merkwürdigen Verrenkungen. Fachbegriffe mussten umschrieben werden was Texte manchmal länger und umständlicher machte. Ein Artikel über Datenschutzeinstellungen wurde durch die Optimierung tatsächlich schwerer verständlich weil ich ständig um technische Begriffe herumschreiben musste.
Für unsere Zielgruppe ist relevant: Die Formeln wurden in den 1940er Jahren entwickelt und basieren auf englischen Texten. Ihre Anwendung auf deutsche Sprache ist methodisch fragwürdig. Deutsche Komposita zählen als ein Wort mit vielen Silben was den Score verschlechtert obwohl sie oft klarer sind als Umschreibungen.
Mein Fazit nach diesem Experiment: Nutzen Sie Lesbarkeitsscores als groben Indikator nicht als starre Regel. Wenn Ihr Text unter 30 Punkte fällt, schauen Sie kritisch drüber. Aber optimieren Sie nicht blind auf hohe Werte.