CMS-Systeme – von WordPress über Shopify bis Wix – haben sich längst zu den stillen Taktgebern des modernen Webs entwickelt. Was sie standardmäßig einbauen, wird für Millionen Seiten zur faktischen SEO-Norm, noch bevor ein SEO überhaupt Hand anlegt.
Im Folgenden findest du eine sehr persönliche, aber sachlich fundierte Zusammenfassung der wichtigsten Gedanken, Erkenntnisse und Daten aus einer groß angelegten Analyse der „Web‑Almanac“-Reports – aufbereitet in rund 2500 Wörtern und im Ton eines Experten, der seit Jahren mit CMS, Plugins und technischen Audits arbeitet.
Die stille Macht der CMS‑Defaults
Wenn du schon länger mit Websites arbeitest, kennst du das: Egal, wie sorgfältig du deine Meta‑Daten oder Canonicals planst – der eigentliche Grund, warum sie überhaupt vorhanden sind, liegt fast immer am CMS.
Mehr als die Hälfte aller existierenden Websites läuft heute auf einem Content‑Management‑System. Das bedeutet im Klartext: die Basis‑Konfiguration des CMS bestimmt den Ausgangspunkt für die Suchmaschinenoptimierung.
Stell dir das wie eine Autobahn vor, die schon asphaltiert ist, bevor du dein Auto startest. Ein SEO kann zwar noch an der Geschwindigkeit, an der Fahrspur und an der Effizienz arbeiten – aber die Richtung, die Spurlage und die Schilder stehen bereits.
Interessant daran: Diese Standards entstehen nicht in SEO‑Foren oder Best‑Practice‑Guides, sondern in Entwicklungs‑Teams der CMS‑Anbieter und ihrer Plugin‑Ökosysteme.
Wachstum und Verteilung der großen Systeme
Laut aktuellen Web‑Daten befinden sich inzwischen über 50 % von 16 Millionen analysierten Websites auf einem CMS. Damit ist diese Schwelle erstmals klar überschritten. WordPress dominiert mit deutlichem Vorsprung. Auch wenn der prozentuale Anteil leicht rückläufig ist, ist der Vorsprung zu Shopify, Wix, Squarespace oder Joomla nach wie vor enorm.
Shopify spielt innerhalb des E‑Commerce eine entscheidende Rolle. Wix und Squarespace punkten vor allem bei kleineren Projekten und Kreativ‑Freelancern, während Drupal, TYPO3 oder Joomla tendenziell von technisch versierteren Teams genutzt werden.
Was alle eint: Sie liefern technische SEO‑Grundlagen – ob man will oder nicht.
Welche SEO‑Funktionen heute „out of the box“ sind
Vor 15 Jahren musstest du noch per Hand Meta‑Tags anlegen, XML‑Sitemaps generieren oder Robots.txt‑Dateien schreiben. Heute ist all das meist vorausgefüllt oder über eine grafische Oberfläche steuerbar.
Die folgenden Punkte gehören bei nahezu allen CMS zum Standard‑Lieferumfang:
- sprechende (URL‑strukturierte) Permalinks
- Bearbeitung von Title‑Tag und Meta‑Description
- automatische XML‑Sitemap
- Canonical‑Tag‑Generierung
- einfache Steuerung von Index/Nofollow
- grundlegende Struktur‑Daten (z. B. Artikel, Produkte)
- eine anpassbare robots.txt
Klar, die Umsetzung unterscheidet sich: Während WordPress bei der Meta‑Pflege stark von Themes und Plugins abhängt, bietet Wix einen geführten Assistenten, Shopify legt Sitemaps automatisch an, erlaubt aber an anderen Stellen kaum Feineinstellungen. Squarespace wiederum regelt vieles intern und lässt wenig direkten Zugriff zu.
Wer schon länger SEO betreibt, erkennt: diese Werkzeuge bilden das technische Fundament, auf dem alle weiteren Optimierungen aufbauen. Trotzdem ist nicht jede Lösung perfekt – Limitierungen auf Plattform‑Ebene bleiben, besonders wenn Geschäftslogik oder Spezialfälle beachtet werden müssen.
Wie stark CMS‑Nutzung und SEO‑Signale korrelieren
Ein spannender Teil der Untersuchung bestand darin, sogenannte Korrelationen zwischen CMS‑Verbreitung und bestimmten SEO‑Features aus HTTP‑Archive‑Daten herzustellen.
Canonical‑Tags:
Der Einsatz von Canonical‑Tags stieg in den letzten vier Jahren nahezu im Gleichschritt mit der CMS‑Adoption. Es scheint, als ob jedes CMS, das sie standardmäßig integriert, die globale Quote automatisch nach oben zieht. Besonders deutlich ist der Effekt im Desktop‑Bereich.
Strukturierte Daten:
Auch hier zeigt sich die Handschrift der Systeme. Typen wie „Article“, „Product“, „Organization“ oder „BreadcrumbList“ verbreiten sich parallel zum Wachstum der CMS‑Landschaft, wobei WordPress mit seinen SEO‑Plugins den Großteil beiträgt. Trotzdem bleibt die allgemeine Verbreitung niedriger, da nicht jedes System diese Markups vollständig liefert.
Robots.txt:
Das einfache, unscheinbare Textfile ist viel aussagekräftiger, als es scheint. CMS‑Websites bieten signifikant häufiger eine gültige, korrekt antwortende robots.txt (HTTP 200) als Eigenentwicklungen. Eigenentwickelte Projekte liefern zudem häufiger fehlerhafte oder unnötig aufgeblähte Varianten.
Der Grund liegt auf der Hand: CMS‑Systeme liefern Vorlagen – reduzierte, valide und meist frei von syntaktischen Fehlern.
Warum Plugin‑Ökosysteme die eigentlichen Normgeber sind
Gerade bei WordPress fällt auf, dass die wirklich interessanten SEO‑Funktionen nicht aus dem Kernsystem, sondern aus den großen Plugins stammen. Drei Namen stehen hier im Vordergrund: Yoast SEO, All‑in‑One SEO und Rank Math.
Diese Erweiterungen erreichen Millionen Websites, und sie tun dabei genau das, was Standardisierung ausmacht: Sie automatisieren Entscheidungen.
Was die Plugins neben den Basics liefern:
- per‑Seite‑Steuerung von Meta‑Robots und Canonical
- automatische „self‑canonicals“
- umfangreiche Schema.org‑Generatoren im JSON‑LD‑Format
- Sitemap‑Management und Indexierungs‑Exklusion
- Redirect‑Verwaltung
- Social‑Markup (Open Graph, Twitter Cards)
- und seit Kurzem sogar das Erzeugen einer llms.txt für KI‑Crawler
All‑in‑One SEO aktiviert dieses neue KI‑Steuerfile standardmäßig; andere Plugins lassen es mit einem Klick zu. So verbreiten sich Features blitzartig im gesamten Netz – unabhängig davon, ob Site‑Owner oder SEOs deren Bedeutung verstehen.
Alle drei Plugins setzen außerdem standardmäßig auf „index, follow“ als Meta‑Robots‑Angabe – obwohl Suchmaschinen dieselbe Interpretation auch ohne Eintrag wählen würden. Das Ergebnis: Millionen Seiten enthalten redundante, aber konsistente Tags – ein Paradebeispiel dafür, wie Plugins Tatsachen setzen, die anschließend als Standard gelten.
Entwicklungsstand: CMS als technische Basis – Plugins als Multiplikator
Wenn man sich die HTTP‑Archive‑Statistiken für strukturierte Daten anschaut, ergibt sich ein klares Bild:
Bei WordPress‑Sites mit aktivem SEO‑Plugin liegt der Anteil strukturierter Datensätze, die zu SEO‑relevanten Typen gehören, mehr als doppelt so hoch wie bei WordPress‑Sites ohne Plugin. Und diese wiederum liegen weit vor Non‑CMS‑Websites.
Sprich: Was Plugins implementieren, bestimmt den Mainstream.
Ähnlich sieht es bei Robots‑Meta und Canonical‑Tags aus. WordPress‑Seiten mit Plugin haben auf über 75 % der Homepages explizit gesetzte „index, follow“‑Meta‑Codes. Seiten ohne Plugin kaum über 5 %.
Natürlich, kein entscheidender Ranking‑Boost – aber ein Beweis dafür, wie technische Muster in Milliarden Kopien einfließen.
Die Sache mit der llms.txt – KI‑Steuerung als neues Terrain
Ein noch junges Beispiel verdeutlicht den Einfluss dieser „automatischen“ Normbildung besonders stark: die llms.txt.
Sie soll ähnlich wie robots.txt definieren, was große Sprachmodelle (LLMs) auslesen dürfen.
Zum Zeitpunkt der Datenanalyse enthielten etwa 2 % aller Sites eine gültige llms.txt – ein minimaler, aber rasant wachsender Anteil. Und fast 40 % davon stammten nachweislich von einer Plugin‑Automatik im All‑in‑One SEO, weitere 3–4 % von der Konkurrenz Yoast SEO.
Der spannende Punkt: Viele Betreiber wussten gar nicht, dass sie dieses File ausliefern. Es wurde schlicht per Default aktiviert. Damit treiben Plugins die Verbreitung eines noch nicht einmal standardisierten Formats voran – ohne jegliche institutionelle Steuerung.
Als alter SEO‑Mensch finde ich das faszinierend und zugleich bedenklich. Wir erleben eine Demokratisierung von Standards, aber eben auch eine Entkopplung von bewusster Kontrolle.
Die neue Realität: Standards entstehen vor dem ersten Audit
Wenn man alles zusammennimmt, wird klar:
Das technische SEO‑Niveau der meisten Websites wird nicht durch Agenturen oder Berater festgelegt, sondern durch Produktteams von CMS‑Anbietern und Plugin‑Entwicklern.
Diese Teams entscheiden, ob ein Canonical‑Tag gesetzt wird, ob Mixed‑Content‑Warnungen vermieden werden, ob JSON‑LD automatisch integriert ist oder wie KI‑Crawler gesteuert werden dürfen. Millionen Webmaster übernehmen diese Vorgaben unbemerkt.
Das hat zwei Seiten:
- Vorteil: Das allgemeine Qualitätsniveau steigt. Selbst kleine Websites starten mit sauberer Grundstruktur.
- Nachteil: Redundante oder fragwürdige Defaults (z. B. unnötige Meta‑Tags) werden global multipliziert. Innovationen entstehen nur noch dort, wo Entwickler Neuerungen ausrollen – nicht wo Fachleute sie empfehlen.
Das Verhältnis zwischen SEO‑Praxis und Produkt‑Entscheidungen
Ich ertappe mich oft bei dem Gedanken, dass wir als SEO‑Community vielleicht zu sehr „im Kleinen“ optimieren. Wir verbringen Stunden mit Canonical‑Diskussionen oder Robots‑Sonderfällen, obwohl diese Themen längst durch Werkseinstellungen geregelt sind.
Der eigentliche Hebel liegt woanders:
- Wer Einfluss haben will, sollte mitentwickeln.*
Ob als Berater in Plugin‑Teams, als Beta‑Tester, der reale Anforderungen einspielt, oder als jemand, der die Standards öffentlich reflektiert, bevor sie millionenfach ausgerollt werden.
Das ist auch eine Frage der Verantwortung. Was einmal als Code ausgeliefert wurde, bleibt im Internet oft jahrelang bestehen – selbst wenn sich die SEO‑Empfehlung längst geändert hat.
Die Schattenseite der Automatisierung
Standardisierung sorgt für Effizienz, kann aber Innovation dämpfen. Ein Beispiel: Viele CMS erzeugen Schema.org‑Markups in vordefinierten Mustern. Diese sind zwar formal korrekt, aber so generisch, dass sie selten echten Mehrwert bieten.
Und weil sie so einfach automatisch eingefügt werden, hinterfragt kaum jemand ihren Nutzen oder ihre semantische Qualität.
Dasselbe gilt für LLMS‑ oder Robots‑Erweiterungen. Was praktisch klingt, kann langfristig Daten‑ oder Crawling‑Probleme erzeugen. Ohne bewusste Kontrolle entsteht eine trügerische Sicherheit durch Defaults.
Wie sich das Berufsbild verändert
Eigentlich ergibt sich daraus eine interessante Verschiebung:
Der klassische „Technik‑SEO“, der Codestrukturen, Meta‑Tags und XML‑Sitemaps pflegt, wird seltener gebraucht.
Stattdessen gewinnt der System‑Architekt an Bedeutung – jemand, der Plattformentscheidungen versteht, CMS‑Settings auf ihre Grenzen prüft und Schnittstellen zu Marketing‑ und KI‑Systemen orchestriert.
Die handwerklichen Tätigkeiten automatisieren sich; die strategische Kontrolle wird wichtiger.
Und ehrlich gesagt, das fühlt sich gut an: weniger Schrauben, mehr Denken – aber es verlangt auch ein Bewusstsein dafür, dass Automatisierung nie neutral ist.
Beobachtungen aus der Praxis
In Kundenprojekten sehe ich die Trends aus den Datensätzen bestätigt:
- Neueites Shopify‑Shops haben nahezu immer gültige Canonicals, aber oft identische oder doppelte Title‑Tags – ein klassisches „Default‑Symptom“.
- WordPress‑Blogs mit Yoast oder Rank Math zeigen konsistente JSON‑LD‑Strukturen, unabhängig vom Thema. Der Output ist technisch sauber, inhaltlich jedoch austauschbar.
- Kleine Seiten auf Wix oder Squarespace liefern solide Sitemaps, aber kaum Flexibilität bei Redirects oder Parametern.
Kurzum: Technisch steht alles, aber der strategische Feinschliff fehlt.
AI Search & die nächste Welle der Standardisierung
Der Einzug von Large‑Language‑Models bringt eine neue Dimension. Die llms.txt – so früh sie vielleicht kam – ist ein Vorgeschmack. Wieder entsteht ein potenzieller Standard von unten, durch Implementierung statt Gremium.
Wenn du dir ansiehst, wie schnell sich solche Neuerungen verbreiten, wird klar, dass CMS‑Hersteller inzwischen auch die Zukunft der SEO‑Kommunikation mit KI‑Systemen gestalten. Nicht durch Absicht, sondern durch Feature‑Releases.
Das sollte uns dazu anregen, enger mit ihnen zu arbeiten – nicht reaktiv, sondern beratend, bevor sich fehlerhafte Praktiken verfestigen.
Was du daraus mitnehmen kannst
-
Vertrau nie blind den Defaults.
Sie sind nützlich, aber nicht unfehlbar. Prüfe regelmäßig, was dein CMS wirklich ausliefert. -
Denke infrastrukturell.
Wenn du den größten Hebel suchst, wirkt ein gut konfiguriertes CMS‑Template stärker als tausend Einzelmaßnahmen. -
Verstehe Plugins als „Policies“.
Plugins sind keine Tools, sondern Regelwerke. Sie kodifizieren, was als Best Practice gilt – und du kannst das mitgestalten. -
Rücke dein SEO‑Wissen eine Stufe höher.
Statt einzelne Tags zu korrigieren, beeinflusse, wie ganze Systeme Standards ausrollen.
Ein kleines Fazit mit persönlicher Note
Manchmal ist es fast ironisch: Jahrzehntelang kämpfte die SEO‑Community um mehr Einfluss auf Entwickler – und jetzt implementieren Entwickler SEO automatisch.
Der Kampf hat sich verschoben – von „Wie setze ich Canonicals korrekt?“ hin zu „Wie verhindere ich, dass redundante Konventionen ewig fortbestehen?“.
Ich sehe darin fast einen Paradigmenwechsel.
SEO ist nicht mehr die Kunst, technische Fehler auszubügeln, sondern das Handwerk, Defaults zu deuten, anzupassen und zu hinterfragen.
Ob llms.txt, Schema‑Standards oder Plugin‑Konfiguration – die, die früh mitreden, prägen den globalen SEO‑Zustand stärker als jede Handbuch‑Empfehlung.
Am Ende bleibt der Gedanke, dass die Zukunft der Suchmaschinenoptimierung wahrscheinlich weniger in einzelnen Audits, sondern stärker in der Kooperation zwischen Entwicklern, SEOs und Plattform‑Bauern liegt.
Denn dort, wo der Code entsteht, entsteht auch der Standard.
Und dieser Standard läuft – ob du willst oder nicht – bei Millionen Websites längst live.







