Wenn du in den letzten Monaten im SEO-Umfeld unterwegs warst, hast du wahrscheinlich gesehen, dass ein Hebel, auf den wir uns jahrelang verlassen haben, plötzlich weggebrochen ist: Google hat den Suchparameter abgeschaltet, mit dem man 100 Ergebnisse pro Seite ausgeben konnte. Klingt technisch, ist es auch – aber die Konsequenzen für Rank Tracking und damit für ganze Geschäftsmodelle sind ziemlich massiv.
Ich habe mir die unterschiedlichen Reaktionen aus der Branche angeschaut, eigene Gedanken hinzugefügt und – was mir wichtig ist – versucht, den Blick nicht nur auf die Technik zu richten, sondern auf das, was wir als Praktiker damit anfangen.
Das Ende von num=100 und warum es wichtig ist
Was früher normal war: Du konntest Google mit dem Parameter „num=100“ dazu bringen, gleich 100 Suchergebnisse auf einer Seite anzuzeigen. Für uns als SEOs ein Traum, denn so konnten Tools mit einem Bruchteil an Crawls wahnsinnig viele Daten einsammeln. Für Google selbst war es aber natürlich auch ein Einfallstor für Scraper – und genau da hat die Suchmaschine den Hahn zugedreht.
Das bedeutet: Wer heute weiterhin die Top 100 fürs Keywordtracking will, muss aufwendig zehnmal so viele Abfragen starten. Mal abgesehen davon, dass das Google kaum tolerieren dürfte: Die Kosten für die Anbieter von Tools explodieren geradezu.
Wenn man ehrlich ist, hat nur die SEO-Industrie je einen wirklichen Nutzen in dieser Darstellung gesehen. Normale Nutzer klicken kaum auf Seite 2, geschweige denn auf Seite 10. Aber wir SEOs haben gerne in Daten geschwelgt.
Zwei Lager in der Branche
Als die News einschlug, haben sich im Wesentlichen zwei Lager gebildet:
Die Kämpfer
Einige sagen: „Wir retten die Top 100, koste es was es wolle.“ Ein Beispiel war ein Toolanbieter, der sinngemäß schrieb, dass er sich gezwungen sehe, für die Community diese Daten weiter bereitzustellen, auch wenn es betriebswirtschaftlich gar keinen Sinn ergibt. Man merkt da diese David-gegen-Goliath-Mentalität – also „wir SEOs gegen Google“.
Persönlich finde ich den Gedanken sympathisch, ja fast schon romantisch. Aber ehrlich gesagt: mir erscheint das wie ein Kampf gegen Windmühlen. Klar, kurzfristig wird’s Kunden freuen, doch mittelfristig dürfte es kaum nachhaltig sein, wenn die Datenbeschaffung exponentiell teurer und unzuverlässiger wird.
Die Pragmatiker
Ganz anders das zweite Lager. Hier überwiegt der Pragmatismus: Wesentliche Daten stecken in den Top 10, vielleicht in den Top 20 Ergebnissen. Alles darunter ist eher als „Indexierungsbeweis“ zu werten. Viele Praktiker sagen: ob du auf Platz 25 oder 85 bist, macht in der Praxis keinen Unterschied – Traffic gibt’s dafür ohnehin keinen.
Dieser Blick ist nüchterner, dafür aber sehr realitätsnah. Auch ich sehe es so: Die eigentliche Arbeit im SEO beginnt im Kampf um die erste Seite. Steht eine URL auf Seite 2, weißt du immerhin, dass die Relevanz im Kern passt – aber es fehlen eben noch Qualitätssignale oder die Userpräferenz kippt zugunsten der Mitbewerber. Darum kann Platz 15 wertvoll sein – Platz 95 ist es meist nicht.
Verzerrte Daten aus der Vergangenheit
Ein interessanter Nebenaspekt hat sich durch den Cut ebenfalls gezeigt: Viele berichteten, dass ihre Google Search Console-Daten sich plötzlich verändert haben. Vor allem die Anzahl der Impressionen ging spürbar zurück. Das heißt nicht, dass sich Rankings tatsächlich verschlechtert haben. Es bedeutet nur: Früher wurden durch num=100 massenhaft Impressionen gezählt – auch dort, wo kein Mensch hingeklickt hätte. Mit der Umstellung sind diese „Schein-Impressionen“ verschwunden.
Ein Entwickler hat dazu sogar Daten von Hunderten Projekten ausgewertet: Fast 88% der Webseiten zeigten weniger Impressionen, 78% verloren Keyword-Varianten. Spannend war, dass vor allem kurze, häufig gesuchte Keywords betroffen waren – vermutlich weil genau die von allen SEOs getrackt werden und daher am stärksten vom ausgeschalteten Parameter beeinflusst wurden.
Die positive Seite: Die Daten sind jetzt vermutlich realitätsnäher. Es geht nicht mehr um reine Mengen, sondern um die wirkliche Präsenz in den Suchergebnissen, die auch ein Nutzer gesehen hätte.
Google gegen Scraping
Man darf auch nicht unterschätzen, dass dies vermutlich nur der erste Streich von Google ist. Es gibt klare Hinweise, dass ganze Teams daran arbeiten, Scraping zu bekämpfen. Neue Algorithmen und statistische Verfahren sollen erkennen, wenn massenhaft Ergebnisse gezogen werden. Kurz gesagt: Google dreht die Schraube immer weiter zu.
Das ist aus Googles Sicht nachvollziehbar – schließlich belasten Scraper ihre Infrastruktur, ohne einen Mehrwert für den Endnutzer zu schaffen. Für uns in der SEO-Welt heißt das aber: Wir können uns nicht mehr einfach darauf verlassen, dass schon irgendein Tool uns die 100 Positionen kostenlos oder billig serviert.
Was bedeutet das für dich?
Wenn man ehrlich ist, ist diese Entwicklung wahrscheinlich gesund. Wir haben uns zu lange von „Datenfetischismus“ blenden lassen. Zahlreiche Reports waren vollgestopft mit Ranglisten, die praktisch keine Auswirkungen hatten. Besser ist es, wenn wir uns wieder auf das konzentrieren, was wirklich zählt:
- Top 10-Positionen – das ist der Bereich, wo fast der gesamte organische Traffic sitzt.
- Seite 2 (Platz 11–20) – oft der spannende Spot, weil kleine Optimierungen hier den Sprung auf die erste Seite bedeuten können.
- Suchintention verstehen – statt blind Datenreihen abzugleichen, lieber prüfen, warum User bestimmte Ergebnisse bevorzugen.
- Search Console & Analytics – klar, mit allen Schwächen. Aber sie liefern ein Bild, das näher an echten Nutzern ist.
Alles darunter (Platz 30, 70, 99) war schon immer mehr Beschäftigungstherapie als SEO. Harte Worte, ich weiß – aber in meiner jahrelangen Arbeit mit Projekten habe ich nie erlebt, dass der Sprung von Platz 92 auf 65 irgendetwas am Geschäft verändert hätte. Wirklich spannend wird es erst, wenn eine Seite knapp vor Seite 1 steht oder bereits auf Seite 1 um die Podestplätze kämpft.
Fazit – ein notwendiger Schock
Unterm Strich zwingt uns dieser Schritt, klarere Prioritäten zu setzen. Ja, es fühlt sich an wie Kontrollverlust, wenn wir nicht mehr jede Mini-Position messen können. Aber vielleicht ist das auch ein heilsamer Zwang, den Fokus auf das lenken, was Traffic, Leads und Umsatz bringt – statt auf schöne Excel-Tabellen voller Nullen.
Aus meiner Erfahrung wird SEO durch diese Einschränkung letztlich strategischer und weniger zahlenverliebt. Und auch wenn das für Toolanbieter ein fieser Einschnitt ist: Für uns Praktiker könnte es das Signal sein, sich dauerhaft von alten Gewohnheiten – wie dem obsessiven Blick auf Platz 87 – zu verabschieden.














