Googles versteckte Datenlücke: Warum deine GSC-Zahlen nur ein Viertel der Wahrheit zeigen
Wenn du glaubst, die Daten in der Google Search Console (GSC) spiegeln exakt wider, was in den Suchergebnissen passiert – dann muss ich dich leider enttäuschen. Neue Analysen zeigen, dass rund 75 % der Daten einfach verschwinden. Und das ist keine kleine Ungenauigkeit: Es bedeutet, dass drei Viertel der Impressionen gefiltert, gelöscht oder gar nicht erst angezeigt werden.
Ich habe seit Jahren mit GSC-Daten gearbeitet – für Startups, Enterprise-Seiten, E‑Commerce‑Player. Aber noch nie war die Lücke zwischen Realität und GSC‑Darstellung so groß wie heute. Und die Ursache? Ein Mix aus Datenschutz-Sampling, Bot-Inflation und einem massiven Eingriff: Googles AI Overviews, die klassische Klickdaten völlig verzerren.
Warum GSC früher fast „Ground Truth“ war – und heute nicht mehr
Es gab eine Zeit, da galt GSC als das verlässlichste Tool im SEO-Bereich. Du konntest es zwar nicht mit exakten Analytics-Zahlen vergleichen, aber es war nah dran. Diese Zeiten sind vorbei.
Warum? Weil Google immer stärker filtert: aus Datenschutzgründen, gegen Scraper, gegen Bots – und gleichzeitig neue Features wie AI Overviews (AIO) einführt, die die Art, wie User suchen und klicken, komplett verändern.
Früher war das seit der „not provided“-Ära ohnehin schon ein Thema, als Google die Keyword-Referrer entfernt hat. Aber in den letzten zwölf Monaten kam ein Dreiklang, der den Bruch endgültig besiegelte:
- Januar 2025: Einführung von SearchGuard – eine Sicherheitsmaßnahme, die nur noch „echte“ User mit aktivem JavaScript und CAPTCHA passieren lässt.
- März 2025: Die massive Ausweitung von AI-Overviews in den SERPs. Plötzlich springen Impressionen nach oben, Klicks aber nicht.
- September 2025: Google entfernt das num=100‑Parameter – das bedeutet das Aus für viele SERP‑Scraper, wodurch die Impressionen wieder fallen, die Klicks aber auf niedrigem Niveau bleiben.
Seitdem vertrauen viele SEOs zwar noch ihren Dashboards, aber die Basis dafür hat Risse bekommen.
Wie stark Google tatsächlich filtert: Die bittere Zahl – 75 %
Ich wollte wissen, wie groß die Lücke wirklich ist. Also habe ich zehn B2B‑Seiten aus den USA analysiert – zusammen fast 4 Millionen Klicks und 450 Millionen Impressionen. Der Trick liegt in der API-Auswertung:
Google liefert über zwei Endpunkte Daten.
Einer liefert „Aggregates“, also Gesamtwerte – inklusive der gefilterten.
Der andere liefert Werte pro Suchanfrage, aber nur, wenn diese bestimmte „Privacy Thresholds“ erfüllt.
Vergleichst du beides, siehst du, was Google verschweigt.
Das Ergebnis:
Drei Viertel aller Impressionen fehlen.
Im Einzelnen:
- Zwischen 59 % und 93 % aller Impressionen wurden in den geprüften Konten herausgefiltert.
- Im Durchschnitt: rund 75 %.
- Selbst bei den Klicks filtert Google noch etwa 38 % – immerhin 5 % weniger als im Vorjahr.
Was bedeutet das? Nehmen wir an, du siehst in GSC 2 Mio. Impressionen im Monat. In Wahrheit sind es womöglich über 8 Mio. Oft ohne, dass du weißt, welche Queries fehlen.
Positiv ist lediglich: der Filter wurde minimal gelockert. Das könnte bedeuten, dass Google weniger Bot‑Traffic in die Daten kommen lässt. Aber realistisch gesehen bleibt die GSC damit eine stark verzerrte Quelle.
Was 2025 wirklich passiert ist – und warum die Impressionen explodierten
Wenn du 2025 einen plötzlichen Anstieg in deinen GSC-Impressions‑Charts gesehen hast, war das vermutlich kein Wunder, sondern ein Artefakt.
Im Frühjahr startete Google verstärkt mit AI Overviews. Diese neuen Oberflächen brachten Sichtbarkeit ohne Klicks – und erzeugten intern neue Impressionen, weil SERP‑Scraper und Bots die Ergebnisse mehrfach abriefen.
Ein Beispiel:
- Im März 2025 stieg die Zahl der AIO‑Einblendungen um mehr als 50 %.
- Im Juli – noch +25 %.
- Im August noch einmal +54 %.
- Dann kam im September die „Bereinigung“ – nach Entfernen des num=100-Parameters fielen die Werte um – 30 %.
Das klingt wie ein Software‑Bug, ist aber Realitätsverschiebung durch falsche Messung: künstlich erzeugte „Sichtkontakte“, die gar keine echten Nutzer sahen.
Selbst jetzt sind die Folgen spürbar:
Klicks sind im Durchschnitt um über 50 % zurückgegangen, während die Impressionen sich „normalisiert“ haben.
Der Zusammenhang zwischen AIO‑Rollout und Klickverlust? Ein Korrelationskoeffizient von rund 0,6 – also stark.
Wenn du also plötzlich 20 % weniger Traffic hattest, obwohl dein Ranking stabil ist, warst du wahrscheinlich ein AIO‑Opfer.
Mein Tipp:
Prüfe, wann deine Klicks eingebrochen sind und ob das zeitlich mit dem AIO‑Rollout zusammenfällt. Wenn deine Positionen gleichblieben, aber die Klickrate sank, weißt du, woher der Wind weht.
Der leise Feind: Bot‑Impressionen kehren zurück
Auch nach SearchGuard sind Bots nicht verschwunden. Scraper haben neue Wege gefunden.
Ich messe das über sogenannte Prompt‑Abfragen: Suchanfragen mit mehr als 10 Wörtern und mindestens zwei Impressionen, aber null Klicks. Menschlich fast unmöglich – wer sucht denselben 12‑Wörter‑Prompt zweimal?
Das Ergebnis:
- Solche „Bot‑Queries“ haben in 6 Monaten um 25 % zugenommen.
- Je nach Seite machen sie zwischen 0,2 % und 6,5 % deiner Gesamtdaten aus.
Für SaaS‑Seiten liegt der typische Wert bei 1–3 %. Für technikintensive Seiten oder Doku‑Portale sogar bis 6 %.
Das ist kein Drama – aber es verfälscht deine Impressionen. Wenn du also plötzlich denkst, du hättest 10 % mehr Sichtbarkeit, kann das schlicht an Bots liegen. Optimierst du dann genau diese „Pseudo‑Queries“, verschwendest du Ressourcen.
Was all das für dich bedeutet
Kurz gesagt: Das Messsystem ist kaputt.
Und das nicht erst seit gestern. Nur fällt es jetzt richtig auf.
Wenn drei Viertel der Impressionen fehlen, knapp 40 % der Klicks gefiltert und 5 % der übrigen von Bots erzeugt sind, dann ist GSC kein Single‑Source‑of‑Truth mehr.
Verlasse dich also nie ausschließlich auf diese Daten. Arbeite mit Quervergleichen – Logfiles, Analytics, Serverdaten, paid‑Search‑Benchmarks.
Die Besten haben längst eigene Mess-Frameworks entwickelt: kleine Python‑Skripte, die den Filtergrad berechnen, oder Kontrollkennzahlen, mit denen sie Click‑Through‑Rates plausibilisieren.
Mein Fazit
Google Search Console ist nicht nutzlos – aber sie ist nicht vollständig.
Sie zeigt dir Trends, Tendenzen, aber keine Vollständigkeit.
Wenn du entscheidest, welche Seite du optimierst, welchen SERP‑Typ du jagst oder wie du Erfolg misst, musst du dich auf mehrere Quellen stützen.
Ich weiß, das klingt nach Mehraufwand, doch langfristig ist das dein Wettbewerbsvorteil: Wer sich nicht blind auf GSC verlässt, trifft präzisere Entscheidungen – besonders jetzt, wo KI‑gestützte SERPs die Realität schon schneller verändern, als Google sie zählen kann.
Merke dir:
GSC ist dein Kompass, nicht deine Landkarte.
Und wer nur den Kompass anschaut, läuft oft im Kreis.
Abbildungshinweis: Visualisierungen basieren auf aggregierten Datenauswertungen. Zahlen repräsentieren einen Durchschnitt aus zehn B2B‑SaaS‑Projekten mit rund 450 Mio. Impressionen.







