Manchmal zeigt sich die Ironie im digitalen Zeitalter auf erstaunlich direkte Weise. Ein Werkzeug, das eigentlich Transparenz und Qualität fördern soll, wird von genau dem unterwandert, was es bekämpfen möchte. So geht es aktuell mit Googles „Preferred Sources“–Funktion: einem Feature, das es Nutzerinnen und Nutzern erlaubt, ihren Lieblingsseiten im Newsbereich Vorrang zu geben – und das nun voll mit Spam‐Seiten und fragwürdigen Domains ist.
Wie das Tool eigentlich gedacht war
Googles Idee war gar nicht so schlecht. Wer regelmäßig Nachrichten im Top Stories–Bereich der Suche liest, sollte künftig selbst bestimmen können, welche Quellen häufiger erscheinen. Die Funktion „Preferred Sources“ wurde als Möglichkeit beworben, personalisierte Ergebnisse zu schaffen – also weniger Zufall, mehr Vertrauen in bekannte Marken. Es handelt sich nicht um eine Blockierfunktion; andere Seiten bleiben trotzdem sichtbar. In der Theorie klingt das vernünftig: mehr Kontrolle für den Nutzer, weniger Willkür durch den Algorithmus.
Doch Theorie und Praxis klaffen, wie so oft, auseinander. Wenn du diese Funktion heute öffnest und nach etablierten Medien wie „HuffPost“ oder „New York Times“ suchst, findest du plötzlich dubiose Kopien dieser Seiten unter exotischen Domainendungen wie .com.in oder .net.in. Und manche davon führen zu inhaltsleeren Parkseiten, die nur auf Werbelinks bestehen.
Die seltsame Welt der Domain‑Kopien
Was offenbar passiert: Einzelpersonen oder kleine SEO‑Akteure registrieren massenhaft Domainvarianten bekannter Marken. Wenn die Originaladresse zum Beispiel als .com existiert, registrieren sie dieselbe unter einer anderen Top‑Level‑Domain – häufig einer, die territorial gebunden ist, etwa in Indien. Aus „example.com“ wird so „example.com.in“. Diese Imitationen sehen auf den ersten Blick harmlos aus, aber sie senden ein deutliches Signal: sie wollen vom Ruhm anderer profitieren.
Einige dieser Seiten sind völlig leer oder verweisen automatisiert auf Geldthemen – Kreditangebote, Versicherungen, Luxusuhren. Klassische Spamschemata eben. Es ist schon fast grotesk, dass Google – ausgerechnet über ein Tool zur Qualitätssteuerung – solche Seiten sichtbar macht. Die echte Redaktionsarbeit einer Riesenseite wird so auf eine Ebene mit einem leeren Platzhalter gestellt.
Fehler oder falsche Nutzung?
Niemand weiß genau, wie diese falschen Domains überhaupt ins System gelangen. Zwei Hypothesen stehen im Raum: Entweder diese Personen tragen ihre Fake‑Seiten manuell in das Tool ein, oder Google sammelt Domains automatisch, möglicherweise basierend auf bestehenden Einträgen oder Suggestdaten. Klar ist nur, dass das Auswahlfenster der Funktion für Nutzer keine klare Kennzeichnung enthält, welche Quelle tatsächlich legitim ist.
Das führt dazu, dass manche Menschen – bewusst oder unbewusst – den Fälschungen „folgen“. Was das wiederum bedeutet? Ein Nutzer, der die „HuffPost“ auswählt, könnte letztlich Hinweise auf eine Seite setzen, die gar nicht zur Redaktion gehört, sondern auf Keywords wie „payday loans“ optimiert ist.
Warum das mehr als nur ein Schönheitsfehler ist
Aus meiner Sicht steckt dahinter ein typisches Plattformproblem. Google möchte Nutzerautonomie ermöglichen, aber jede Formularöffnung, jede Schnittstelle ist auch eine Einladung an Missbrauch. Wer mit SEO‑Tricks vertraut ist, erkennt schnell die Versuchung: durch das Einschleusen einer Kopiedomain könnte eine ansonsten nutzlose Seite plötzlich eine Empfehlungsspur innerhalb eines großen Google‑Ökosystems erhalten. Ob das Ranking technisch beeinflusst wird, ist unklar, aber allein die Erwähnung als „Preferred Source“ wirkt reputationsbildend.
Ich erinnere mich, wie ältere Features – etwa die „Google News Publisher‑Center“–Formulare – ähnliche Probleme hatten. Sobald Menschen manuell Domains eintragen konnten, tauchten rasch Varianten derselben Marke auf. Und solange niemand prüft, wem die Domain tatsächlich gehört, entsteht Wildwuchs.
Die indische Verbindung
Auffällig ist, dass viele dieser Spam‑Domains mit indischen Endungen verknüpft sind. Das kann Zufall sein, vielleicht aber auch ein Nebeneffekt davon, dass das Tool derzeit nur in den USA und Indien aktiv ist. Domainhändler in diesen Regionen registrieren oft automatisch jede freie Variante populärer Namen, schlicht um sie später zu verkaufen. Dass diese Adressen im „Preferred Sources“–Interface landen, legt nahe, dass Googles Auswahlkriterien momentan rein auf Namensähnlichkeit beruhen – nicht auf Relevanz oder redaktioneller Qualität.
Ich habe mehrere Fälle gesehen, bei denen nur die Startseite eines solchen Nachahmerportals von Google indexiert wurde. Der Rest existiert, technisch gesprochen, gar nicht – trotzdem wird die Seite vorgeschlagen. Das ist, höflich formuliert, irritierend.
Was steckt strukturell dahinter?
Hinter der Oberfläche dieses Phänomens verbirgt sich ein komplexeres Problem: die Abhängigkeit von automatisierten Entscheidungen in einem System, das Inhalte bewerten soll. Google betont seit Jahren „Qualitätssignale“ – etwa E‑E‑A‑T (Experience, Expertise, Authoritativeness, Trustworthiness). Aber wenn derselbe Konzern eine Funktion betreibt, die externe, nicht überprüfte Domains in offizielle Interfaces mischt, unterläuft er eigene Qualitätsmaßstäbe.
Vielleicht liegt es auch an der Geschwindigkeit, mit der neue Features ausgerollt werden. In der Beta‑Phase eines Produkts scheint oft das Hauptziel, den Funktionsumfang zu demonstrieren; Sicherheitsmechanismen kommen später. Gerade bei News‑Tools ist das riskant, denn sie greifen unmittelbar in Informationsflüsse ein. Wenn falsche Domains dort auftauchen, entsteht nicht bloß ein Datenproblem, sondern ein Vertrauensproblem.
Der Blick aus der Praxis
Wenn du im SEO‑Bereich arbeitest, kennst du dieses Muster: Jede technische Öffnung – ob es sich um Kommentarlinks, Social‑Signals oder API‑Felder handelt – wird früher oder später zur Spielwiese für Manipulation. Und sobald wirtschaftlicher Nutzen im Spiel ist, wirst du kaum verhindern, dass jemand die Lücke nutzt. Das ist kein Google‑spezifisches Thema, sondern strukturell: Menschen finden immer Wege, Systeme zu ihrem Vorteil zu verbiegen.
Was mich hier besonders wundert, ist die geringe interne Filterung. Ein großteil der aufgelisteten Spamseiten enthält keinerlei journalistische Struktur: kein Impressum, keine Redaktion, oft nicht einmal SSL‑Verschlüsselung. Selbst einfachste technische Prüfungen könnten sie ausschließen – etwa durch das Fehlen aktueller Inhalte oder durch WHOIS‑Angaben, die auf Massenregistrare verweisen.
Was Google tun müsste
Kurz gesagt: Verifizierung. Wenn man ein Tool anbietet, das Benutzerempfehlungen für Nachrichtenseiten sichtbar macht, muss mindestens überprüft werden, ob die Domain mit einer im News‑Index anerkannten Quelle verknüpft ist. Ein einfacher Abgleich mit der Google‑News‑Publisher‑Datenbank würde 90 % der Fakes herausfiltern.
Darüber hinaus sollte Google kennzeichnen, ob eine vorgeschlagene Quelle verifiziert ist. Vielleicht ein Häkchen, ähnlich dem, was soziale Netzwerke verwenden. Das würde sofort mehr Klarheit schaffen. Viele Nutzerinnen und Nutzer verstehen gar nicht, dass sie nicht nur „ihre Favoriten“ markieren, sondern indirekt Daten in Googles Personalisierungsprofile schreiben.
Ein Nebeneffekt für echte Publisher
Für seriöse Nachrichtenseiten ist diese Situation unangenehm. Sie kämpfen ohnehin um Sichtbarkeit in einem überfüllten Markt, und nun konkurrieren sie plötzlich mit Geisterseiten, die ihren Namen kopieren. Wenn eine Nutzerin unwissentlich eine gefälschte Version auswählt, verliert die echte Marke potenziell Reichweite und Reputation. Mehr noch: Sollte Google diese Signale algorithmisch auswerten, könnte die Fehlinformation systematisch perpetuiert werden.
Ich finde, solche Szenarien zeigen, wie sensibel Systeme zur Nutzerpersonalisierung sind. Ein kleiner Fehler in der Eingabeschicht – in diesem Fall unkontrollierte Domainbezeichnungen – kann eine Kettenreaktion auslösen. Aus einem simplen Test‑Feature wird ein Einfallstor für Spam.
Fazit – ein Werkzeug mit widersprüchlicher Wirkung
Googles „Preferred Sources“ sollte eigentlich das Vertrauen in Qualitätsjournalismus stärken. Stattdessen demonstriert es derzeit, wie leicht Automatisierung in ihr Gegenteil umschlagen kann. Dass Anzeigen für Kredit‑ oder Casino‑Seiten im selben Auswahlmenü wie etablierte Medien erscheinen, ist mehr als ein technischer Patzer – es ist ein Symbol dafür, wie schwierig














