Google hat ein Spam-Problem – und es wird schlimmer. Was früher nur ein Ärgernis am Rande war, ist mittlerweile ein echter Systemfehler geworden. Überall in den Suchergebnissen tauchen Inhalte auf, die kaum echten Mehrwert bieten, aber von Algorithmen bevorzugt werden. Wenn man sich ein wenig umschaut, merkt man: die Spammer sind zurück – professioneller, raffinierter und KI-gestützter denn je.
Googles Kampf gegen Spam: ein Algorithmus verliert die Balance
Was Google mit Updates wie Panda, Penguin oder SpamBrain einmal eindrucksvoll unter Kontrolle gebracht hat, scheint heute zu entgleiten. Früher waren manuelle Maßnahmen und algorithmische Strafen das Rückgrat der Suchqualität – heute reicht die schiere Masse der Missbräuche, um jeden Filter zu überfordern.
Googles SpamBrain-System soll theoretisch über neuronale Netze erkennen, ob Inhalte oder Links manipulativ sind. Gespeist wird es aus mehreren Quellen: Contentqualität, Linkprofil, Verhalten der Nutzer sowie der generellen Reputation einer Website. Das Ziel war, die Spreu vom Weizen zu trennen – die ehrlichen Seiten von den manipulativen.
Schön und gut. Doch jetzt, wo KI-generierte Texte, automatisierte Linknetzwerke und gekaufte Domains im Spiel sind, stößt dieses System an seine Grenzen. SpamBrain erkennt zwar Muster – aber das Spielbrett hat sich verändert: Die neuen Spammer arbeiten mit Tools, die täglich Millionen Varianten desselben Inhalts produzieren und so selbst lernende Filter verwirren.
Die neue Welle: Wie Spam heute aussieht
Spam im Jahr 2025 ist deutlich mehr als plumpe Keyword-Stuffing-Seiten. Es gibt drei große Trends, die fast alles dominieren, was wir derzeit in den Suchergebnissen sehen.
1. Gekaperte Domains und abgelaufene Autorität
Einige der schlimmsten Fälle kommen von sogenannten abgelaufenen Domains. Früher seriöse Webseiten – etwa ehemalige gemeinnützige Organisationen oder lokale Ämter – werden aufgekauft und neu bespielt. Statt Verkehrssicherheit gibt’s dort nun Glücksspiel-Empfehlungen oder Krypto-Investments. Für Google sieht es auf den ersten Blick nach einer vertrauenswürdigen, langjährigen Domain aus. In Wahrheit steckt eine anonyme SEO-Firma dahinter, die über Nacht zigtausende Euro verdient.
Die Methode ist simpel: Man kauft eine alte Domain mit gutem Linkprofil, ändert schnell das Thema und baut Weiterleitungen oder Artikel mit kommerziellen Ankern. Kurzfristig explodiert der Traffic – bis irgendwann ein manuelles Review greift.
2. Private Blog Networks (PBNs)
PBNs sind wieder da. Alte Hasen kennen das Prinzip: ein Netzwerk von scheinbar unabhängigen Seiten, alle kontrolliert vom gleichen Betreiber. Sie verlinken sich gegenseitig, um Autorität zu simulieren. Technisch sind sie so gestaltet, dass Google keine Verbindungen erkennt: separate IPs, verschiedene Hosting-Anbieter, andere Nameserver. Jeder Link sieht „organisch“ aus – ist es aber nicht.
Die Effizienz ist enorm. Statt mühsam Backlinks aufzubauen, künstelt man ein Ökosystem, das sich permanent selbst verstärkt. Der Nachteil: es ist ein Kartenhaus. Wird einer deiner Server enttarnt, kann die ganze Pyramide zusammenfallen. Nur scheint das viele nicht zu interessieren – die Gewinne überwiegen die Risiken.
3. KI-Schrott in Massenproduktion
Mehr als die Hälfte der neuen Inhalte im Web stammt laut Schätzungen mittlerweile von KI-Systemen. Ganze Nachrichtenseiten werden automatisch befüllt – mit Artikeln, die grammatikalisch sauber, inhaltlich aber leer sind. Ironischerweise mögen Suchmaschinen diese Texte: Sie sind strukturiert, keywordreich und formell korrekt.
Diese Form von „scaled content abuse“ ist zur neuen Normalität geworden. Betreiber lassen Chatbots Tausende Artikel zu Longtail-Suchanfragen generieren, reichern sie mit Stockbildern an und monetarisieren den Traffic über Werbung oder Affiliateprogramme. Google erkennt zwar manches, doch zu oft rutschen solche Seiten durch. Ein neutraler Ton, etwas Forschungssimulation, ein semantisch sauberer Aufbau – und schon halten sie sich in den Ergebnissen.
Warum Google verliert
Meiner Erfahrung nach liegt das Hauptproblem gar nicht beim Erkennungsalgorithmus, sondern an der Priorität: KI-Suche ist teuer, klassische Suche bringt weniger Rendite. Google steckt Milliarden in die Entwicklung und Infrastruktur für Generative Search oder AI Overviews – das interne Geld und die Ingenieure fehlen an anderer Stelle, etwa bei der Bekämpfung simpler Manipulationen.
Einfach gesagt: Während Google neue smarte Suchmodelle baut, bricht der Unterbau aus traditionellen Ergebnissen leise weg. Alte Webseiten mit echten Autoren werden verdrängt von automatisch befüllten Phrasenseiten. Das ist im Kern paradox – ein Unternehmen, das Information strukturieren will, verliert die Kontrolle über die eigene Datenbasis.
Ein Blick hinter die Kulissen
In internen Leaks ließen sich über 100 Signale finden, die mit Spam-Erkennung zusammenhängen. Der größte Teil betrifft Links – insbesondere Ankertexte und Linkvelocity. Das bedeutet: Google misst, wie schnell eine Seite neue Backlinks erhält und mit welchen Begriffen sie verlinkt wird. Ein plötzlicher Schub von exakten Money-Keywords? Ein rotes Tuch.
Aber selbst dieses System hilft nur begrenzt, wenn die Spammer Hunderte Unterseiten mit unterschiedlichen Ankertexten aufbauen. Es ist ein Katz-und-Maus-Spiel, das längst zu groß geworden ist, um wirklich zu gewinnen.
Ökonomische Realitäten: Warum das Interesse sinkt
Ein Grund für die mangelnde Konsequenz liegt im Geschäftsmodell. Klassische Suchergebnisse bringen weniger Ertrag als KI-generierte Antworten. Während der Betrieb einer Suchseite je Anfrage nur winzige Cents kostet, verschlingt ein AI-Durchlauf durch ein Sprachmodell das Vielfache – Strom, Kühlung, Rechenzeit. Entsprechend verschieben sich Budgets, Personal und strategische Aufmerksamkeit. Spam in der alten Suche? Wirtschaftlich nicht priorisiert.
Im Jahr 2025 etwa hat Google über 90 Milliarden Dollar in Infrastruktur investiert, beinahe doppelt so viel wie im Jahr davor. Die Unternehmensspitze will KI in jedes Produkt einweben – inklusive Suche, Workspace, YouTube. Das Resultat: weniger Ressourcen für die Pflege der klassischen Indexqualität.
LLMs und der neue Spam-Kreislauf
Die Ironie des Ganzen: Derselbe Müll, den Google nicht mehr ausreichend filtert, landet im Training von Sprachmodellen und kommt über AI Overviews wieder zurück zu den Nutzern. Wenn du also in der Zukunft eine von einer KI zusammengefasste Antwort liest, basiert sie möglicherweise auf einer PBN-Seite, die ihrerseits eine ältere KI zitiert hat. Eine Schleife aus Halluzinationen.
Schlimmer noch – durch schiere Wiederholung wirken bestimmte Falschinformationen glaubwürdig, weil sie in dutzenden Quellen auftauchen. Die Modelle gewichten Häufigkeit stärker als Wahrheitsgehalt. Kurz: Spam ist nicht nur ein Suchproblem, sondern mittlerweile auch ein Trainingsproblem.
Folgen für ehrliche Publisher und SEOs
Wer organisch und sauber arbeitet, hat es schwerer denn je. Hochwertige Artikel, gründliche Recherchen und gute Texte kosten Zeit und Geld. Gegen ein Netzwerk aus KI-Sites mit automatischer Produktion ist das wirtschaftlich kaum konkurrenzfähig. Viele kleinere Publisher berichten schon, dass Ihr Traffic in wenigen Monaten um über 60 % eingebrochen ist – während zweifelhafte Nischenseiten florieren.
Aus meiner Sicht entsteht damit eine gefährliche Spirale: Je mehr seriöse Websites aufgeben, desto stärker dominieren die automatisierten. Und je schlechter die Suchergebnisse werden, desto mehr Nutzer wenden sich an KI-Chatbots – die wiederum auf denselben Spamquellen trainiert sind.
Was man als SEO noch tun kann
Ich sag’s ehrlich: Momentan geht es weniger darum, Google zu „optimieren“, sondern darum, nicht in dieselben Muster zu rutschen. Konsistenz, Markensignale, echte Autorenprofile und kontextreiche Texte werden wieder wichtiger. Wenn du Inhalte produzierst, die man klar einer Person oder Organisation zuordnen kann, bist du langfristig im Vorteil.
Es ist sinnvoll, Backlinks genau zu überwachen, toxische Quellen früh zu disavowen und auf Nutzerbindung zu setzen, statt jeden Trend hinterherzujagen. Vor allem aber: nicht verzweifeln, wenn kurzfristig minderwertige Seiten vor dir ranken. Der Algorithmus wird wieder angepasst – irgendwann. Nur wann, das weiß niemand.
<h














