Google hat zuletzt selbst aktiv in die WordPress-Welt eingegriffen – genauer gesagt die Crawl-Team-Abteilung. Sie hat direkt Fehlerberichte gegen bestimmte Plugins eingereicht, weil diese die Crawling-Kapazitäten vieler Websites unverhältnismäßig belasten. Besonders betroffen war das beliebte WooCommerce-Plugin, das durch seine „add-to-cart“-Parameter unnötig viele URLs generierte. Die gute Nachricht: WooCommerce reagierte sofort und behob den Fehler. Andere Plugin-Entwickler zeigten sich hingegen weniger engagiert.
Ein tieferer Blick hinter die Kulissen
Das Ganze wurde in einem Gespräch von Gary Illyes (Google) erklärt. Er sprach in einem Podcast darüber, dass Googles interne Analyse der Crawling-Probleme im Jahr 2025 etliche wiederkehrende Muster zeigte. Einer der größten Faktoren: Action-Parameter – kleine Anhängsel an URLs, die neue, nutzlose Versionen derselben Seite erzeugen. Klassische Beispiele sind etwa „?add_to_cart=true“ oder „?wishlist=true“. Wenn sich diese Parameter stapeln, kann aus einer einzigen Seite plötzlich eine Handvoll Crawling-Pfade entstehen. Für den Googlebot sieht das aus wie tausend neue, noch unbekannte Seiten, die er alle prüfen möchte – mit entsprechendem Ressourcenverbrauch.
Das Hauptproblem erkannt Google darin, dass viele dieser Parameter nicht von Seitenentwicklern eingeführt werden, sondern automatisch aus Plugins stammen. Gerade bei Systemen wie WordPress ist das fatal, weil dort unzählige Erweiterungen im Einsatz sind. Und selbst wenn nur wenige davon unzählige Parameter erzeugen, summiert sich der Schaden.
Die Zahlen: Ein Viertel aller Fehler
In Googles internem Bericht machten Action-Parameter fast 25 % aller Crawling-Probleme aus. Damit liegt diese Kategorie gleich hinter der sogenannten facettierten Navigation (mit etwa 50 %). Zusammengenommen verursachen die beiden also rund drei Viertel aller im Jahr 2025 registrierten Crawling-Herausforderungen. Das verdeutlicht, dass ein Großteil der Probleme strukturell entstanden ist – durch Funktionen, die eigentlich Komfort bringen sollen, aber den Algorithmus fehlleiten.
WooCommerce als positives Beispiel
Illyes schilderte, wie das Google-Team auf die Spur des Problems kam. Bei der Analyse auffälliger Sites stellte sich heraus, dass die Ursache oft Plugins aus dem WordPress-Ökosystem waren. Nach einigem Rückverfolgen entdeckte man, dass WooCommerce die Parameter für „add-to-cart“ und „add-to-wishlist“ an URLs anhängte und dadurch massenhaft Varianten derselben Seite erzeugte. Also entschied sich Google, wie er es nennt, zum „direkten Kontakt“ – sie reichten einen Bug im öffentlichen Repository des Plugins ein.
Was dann geschah, überraschte positiv: Das WooCommerce-Team reagierte schnell, nahm den Hinweis ernst und lieferte innerhalb kurzer Zeit ein Update. Illyes betonte ausdrücklich seine Wertschätzung dafür. Die Korrektur dieser kleinen Mechanik erspart sowohl Shop-Betreibern als auch Googlebot selbst eine Menge unnötiger Arbeit. Weniger erfolgreiche Fälle gibt es allerdings ebenfalls. Bei einem anderen Plugin, das ähnliche Parameterprobleme aufwies, blieb der Supportkontakt laut Illyes einfach unbeantwortet. Eine kommerzielle Kalender-Erweiterung, die nahezu endlose URL-Ketten erzeugte, zeigte sich gar komplett unkooperativ.
Ein Muster mit Ansage
Wer die letzten Jahre in der SEO-Szene verfolgt hat, erkennt, dass es sich hier nicht um ein neues Thema handelt. Gary Illyes hat bereits mehrfach auf exakt das gleiche Problem hingewiesen: übermäßige URL-Parameter, die Google dazu zwingen, Seiten zu crawlen, die keinen Mehrwert liefern. Trotz mehrfacher Dokumentation – von der überarbeiteten Erklärung zu facettierter Navigation bis hin zu offiziellen Leitlinien zu Parameterstrukturen – treten dieselben Fehler immer wieder auf. Das zeigt: Die Anleitungen nützen wenig, wenn Plugins als systemweiter Faktor dazwischenfunken.
Wieso diese Fehler gravierender sind, als sie klingen
Für dich als Website-Betreiber ist das Problem subtil, aber tiefgreifend. Wenn du beispielsweise WooCommerce oder ähnliche Plugins nutzt und nicht kontrollierst, wie viele dynamische URLs entstehen, kann Google deine Crawling-Budgets schnell erschöpfen. Je mehr unnütze Varianten der Bot besucht, desto weniger Zeit bleibt für die Inhalte, die wirklich zählen. Die Auswirkung zeigt sich schleichend: manche Seiten werden seltener erfasst, manche gar nicht mehr aktualisiert. Kurz gesagt – dein Rankingpotenzial sinkt.
Das Tückische: Googlebot erkennt erst mit erheblicher Verzögerung, dass ein bestimmter Pfad nichts Neues liefert. Erst wenn große Teile der Parameterkombinationen gecrawlt wurden, merkt das System, dass alles auf dasselbe Ziel führt. Bis dahin können jedoch tausende Requests durchlaufen sein. Und diese Last trifft auch deinen Server, nicht nur Google.
Was lässt sich dagegen tun?
Die einfachste Methode bleibt die klassische: robots.txt gezielt einsetzen. Darüber kannst du ganze Parametergruppen ausschließen und so verhindern, dass der Bot überhaupt versucht, die entsprechenden URLs abzurufen. Wer das manuell tut, muss natürlich wissen, welche Parameter sicher blockiert werden können, ohne Funktionen zu verlieren – etwa Filteroptionen, Pagination oder Einkaufswagenprozesse, die Nutzer wirklich benötigen.
Google selbst betont in seinen Best Practices seit Langem: Aktives Blockieren ist besser, als auf Schäden zu reagieren. Wenn der Bot unnötige Pfade bereits durchläuft, kann das System nicht mehr unterscheiden, welche davon wesentlich sind, und dir bleiben nur noch Reparaturmaßnahmen im Nachhinein.
Wie Google künftig vorgehen könnte
Dass Google jetzt selbst Fehler in Softwareprojekten meldet, ist durchaus neuartig. Es zeigt, dass man den Ursprung der Probleme direkt in der Infrastruktur vieler Websites sieht. Durch diese direkte Zusammenarbeit mit Open‑Source‑Entwicklern kann das Unternehmen verhindern, dass hunderttausende Webseiten einzeln Maßnahmen ergreifen müssen. Wenn WooCommerce das Problem einmal korrekt löst, profitieren alle Shops auf der Welt, die das Plugin einsetzen.
Ob das Modell Schule macht, bleibt abzuwarten. Denn nicht jeder Entwickler reagiert so pragmatisch wie WooCommerce. Gerade bei kommerziellen oder stagnierenden Projekten ist oft kein echtes Support-Team vorhanden. Doch wenn Google diese Linie fortführt, könnte das Crawling-Ökosystem langfristig sauberer werden.
Mein persönlicher Eindruck
Ich finde es bemerkenswert, dass Google inzwischen bereit ist, direkt in andere Codebasen einzugreifen. Früher hätte man das vielleicht als Einmischung kritisiert. Doch in der Praxis hilft es beiden Seiten: Website-Betreiber sparen Arbeit, weil sie sich nicht selbst auf Fehlersuche begeben müssen, und Google erhält eine deutlich stabilere Infrastruktur für den eigenen Index. Es wäre wünschenswert, wenn diese Art von „Community-Feedback auf technischer Ebene“ Schule macht – insbesondere in einer Szene wie WordPress, in der Millionen Nutzer von wenigen zentralen Plugins abhängen.
Für dich bedeutet das, gerade bei E-Commerce-Systemen wachsam zu bleiben. Beobachte regelmäßig, welche URLs deine Tools melden, überprüfe den Crawl‑Status deiner Seite in der Search Console – und setze lieber eine saubere robots.txt zu viel als zu wenig. Denn auch wenn der Auslöser ein Plugin ist, liegt die Verantwortung für deine Website letztlich bei dir.
Fasst man alles zusammen, dann zeigt dieser Vorfall eine einfache Wahrheit: Selbst kleine technische Details, wie ein unscheinbarer URL‑Parameter, können im SEO‑Alltag große Wellen schlagen. Und die effektivste Optimierung ist oft kein komplizierter Trick, sondern die Korrektur einer Kleinigkeit auf Code‑Ebene.







