Diese Woche war für das Such-Ökosystem spannend – Google hat sein erstes, nur auf Discover ausgerichtetes Core Update ausgerollt, Alphabet hat angekündigt, wie es „AI Mode“ monetarisieren möchte, und John Mueller hat deutlich Stellung zu experimentellen Bot-Strategien bezogen. Mehrere Entwicklungen deuten darauf hin, dass sich die Landschaft zwischen klassischem Search, Discover und KI-basierter Suche weiter aufspaltet – und du als SEO oder Marketer mehrere Oberflächen im Blick behalten musst.
Google startet das Discover-spezifische Core Update
Google hat Anfang Februar ein Core Update veröffentlicht, das ausschließlich Discover betrifft. Das ist bemerkenswert, weil bisherige Core Updates immer sowohl Discover-Feeds als auch die klassische Suche beeinflussten. Diesmal wird nur die Discover-Sektion angepasst, also die personalisierten Feeds auf mobilen Geräten, die Nutzern Inhalte vorschlagen, bevor sie überhaupt suchen.
Wichtig zu wissen: Der Rollout richtet sich zunächst nur an englischsprachige Nutzer in den USA und soll laut Google „die Gesamtqualität von Discover“ verbessern. Eine Ausweitung auf weitere Länder und Sprachen ist geplant, aber es gibt keinen genauen Zeitplan. Das Update bezieht sich inhaltlich auf dieselben Qualitätsprinzipien, die für Core Updates und Discover ohnehin gelten – nur der Fokus ist klar abgegrenzt.
Was bedeutet das für dich? Wenn du Inhalte produzierst, die stark über den Discover-Feed Reichweite erzielen, solltest du deine Analyse trennen: Ein Traffic-Rückgang im Discover-Tab muss nicht heißen, dass deine Suchrankings betroffen sind. Die Performance in der Search Console lässt sich getrennt auswerten; schau dir insbesondere die Discover-Klicks über die nächsten zwei Wochen genau an.
Publisher sollten das Update ernst nehmen – aktuelle Schätzungen zeigen, dass Discover mittlerweile bei Nachrichtenseiten fast 70 % des Google-Traffics ausmachen kann. Wenn Google diesen Kanal jetzt isoliert reguliert, dann wird die Abhängigkeit davon sichtbarer denn je.
Alphabet öffnet mit Q4-Zahlen den Blick auf AI Mode‑Werbung
In den Quartalszahlen für Ende 2025 zeigte Alphabet beachtliches Wachstum: Die Suchumsätze stiegen auf 63 Milliarden US‑Dollar, angetrieben unter anderem durch längere Nutzerinteraktionen im neuen „AI Mode“. Zum ersten Mal sprach CEO Sundar Pichai offen darüber, wie Google den KI‑Modus einbauen und monetarisieren will.
Laut Pichai sind Abfragen im AI Mode im Schnitt dreimal länger als klassische Suchanfragen. Philipp Schindler, Chief Business Officer bei Google, betonte, dass dadurch Werbeflächen auf Bereichen entstehen, die früher „nicht monetarisierbar“ waren. Die Tests laufen aktuell: Anzeigen werden direkt unterhalb der vom KI‑Assistenten generierten Antworten eingeblendet.
Warum das wichtig ist
Für Werbetreibende ist klar: Google betrachtet AI Mode nicht als Ersatz für klassische Suchanzeigen, sondern als Erweiterung des Werbeinventars. Diese längeren, konversationellen Suchanfragen schaffen neue Kontextflächen, die mit herkömmlichen Kampagnen nicht erreichbar waren. Wenn du Paid‑Search‑Kampagnen steuerst, solltest du dich auf längere Query‑Ketten einstellen, in denen Begriffe in ganzen Sätzen vorkommen – etwa „was ist die beste CRM‑Software für kleine Start-ups, die Chatbots integriert?“.
Für SEOs zeigt die Richtung etwas anderes: Google optimiert seine Plattform künftig noch stärker auf Behaltezeit. Nutzer verweilen länger in der generativen Oberfläche, weil Ergebnisse, Anzeigen und Checkout-Prozesse enger verknüpft sind. Das klingt effizient – kann aber bedeuten, dass weniger Klicks auf externe Seiten passieren. Das Gleichgewicht von Traffic-Verlusten und neuen Chancen bleibt das, was man beobachten sollte.
John Mueller: Markdown für Bots? „Eine dumme Idee.“
Einige Entwickler schlugen vor, Crawlern großer Sprachmodelle – etwa LLMs, die Websites auslesen, um ihre Antworten zu verbessern – vereinfachte Markdown‑Versionen ihrer Seiten anzubieten. Dadurch, so die Hoffnung, könnten Tokens und damit Rechenleistung gespart werden. John Mueller von Google reagierte darauf so scharf wie selten: Die Idee sei schlicht „blöd“.
Aus technischer Sicht stellte er auf Reddit und Bluesky klar, dass solche Markdown-Files kaum sinnvoll verarbeitet würden. Sie hätten weder Navigationselemente noch interne Verlinkung, und ein Bot könne sie daher nicht im Sinne einer Website-Struktur interpretieren. Das Entfernen dieser Signale mache die Inhalte zwar „leichter“, aber eben auch bedeutungslos für die semantische Zuordnung.
Was solltest du daraus mitnehmen? Google bleibt bei seiner Linie, keine separaten Formate nur für Bots zu akzeptieren. Anders gesagt: Du kannst kein eigenes HTML‑Äquivalent für KI‑Crawler bauen und hoffen, es bringt Vorteile. Ganz im Gegenteil – du riskierst, wichtige Strukturinformationen zu zerstören. Der Trend geht ohnehin zu standardisierten Formaten wie schema.org‑Auszeichnungen oder structured data, nicht zu proprietären Abkürzungen.
Muellers Haltung knüpft an frühere Aussagen an, etwa zu llms.txt oder zur Erkennung von mehrfach gecrawlten Domains. Im Kern will Google, dass du eine Website für Menschen baust, nicht für Parser. Oder, etwas zugespitzt: Der Versuch, Maschinen durch Trickformate effizienter zu füttern, führt häufig zu schlechteren Ergebnissen für Menschen – und damit auch für Rankings.
Google meldet Crawl-Bugs bei WooCommerce‑Plugins
Im internen Podcast „Search Off the Record“ erzählte Googles Crawl‑Team, dass sie offiziell Bugs an die Entwickler einiger WordPress‑Plugins gemeldet haben. Der Grund: Diese erzeugen automatisch Tausende nutzloser URLs durch Parameter – etwa bei „add‑to‑cart“-Aktionen – die Googlebot eifrig crawlt. Das frisst Crawling‑Budget, ohne dass Seitenindexe davon profitieren.
Was dahinter steckt: Viele Onlineshops erzeugen dynamische Parameter, wenn ein Nutzer ein Produkt hinzufügt oder eine Variante auswählt. Für den Bot sehen diese Pfade wie neue Seiten aus, die in Wahrheit aber keine wertvollen Inhalte haben. Google hat darum nicht nur dokumentiert, wie man diese Parameter in der Search Console ausschließt, sondern sogar Fehlerberichte direkt an WooCommerce gestellt – ein eher untypischer Schritt, weil Google normalerweise einzelne Betreiber in die Pflicht nimmt.
Mein Tipp: Schau dir in deiner Search Console die Crawl‑Statistiken an. Such dort nach URLs mit Parametern wie ?add-to-cart= oder &session_id=. Diese sollten entweder per robots.txt gesperrt oder per Canonical‑Tag neutralisiert werden. Wenn du viele dynamische Templates nutzt, ist auch noindex eine Option, um Crawl‑Budget zu sparen.
LinkedIn verrät, was in KI‑Suche wirklich Reichweite bringt
LinkedIn veröffentlichte eigene Experimente zur Sichtbarkeit in KI‑Suchoberflächen. In vielen B2B‑Bereichen gingen organische, nicht‑brandbezogene Besucherzahlen um bis zu 60 % zurück, seit generative Systeme – etwa gemischte Suchantworten – häufiger Inhalte direkt zitieren, statt Nutzer weiterzuleiten.
Interessante Erkenntnisse: Sichtbarer wurden Seiten, die klar strukturierte Informationen zeigen: eindeutige Autorennamen, Berufsbezeichnungen, Fotos, Veröffentlichungsdatum, nachvollziehbare Expertise. LinkedIn baut bereits ein Tracking auf, das LLM‑Bots in den Serverlogs erkennt und als separaten Traffic‑Kanal ausweist. Das wäre ein Meilenstein, weil bisher alle KI‑Zugriffe in den Logs unsichtbar mitlaufen.
Und wieso ist das spannend? Weil es sich mit dem deckt, was auch KI‑Suchanbieter selbst sagen. Perplexity AI erklärte kürzlich, dass verifizierte Autorenschaft und klare Quellenangaben ausschlaggebend seien, ob Inhalte zitiert werden oder nicht. Das deckt sich fast eins zu eins mit LinkedIns internen Daten – ein Zeichen, dass sich langsam eine Art Standard für Vertrauenssignale entwickelt.
Wenn du also deine Inhalte AI‑ready machen willst, fang klein an: Zeige „wer“ schreibt, „wann“ und mit „welcher Qualifikation“ – und sorge für technisch saubere Metadaten, die das ausdrücken.
Mein persönlicher Eindruck: Google zerlegt das Dashboard
Früher hast du in der Search Console ein paar Diagramme angeschaut und konntest recht sicher ableiten, wie deine Website performt. Heute musst du mehrere Welten gleichzeitig prüfen: klassische Suche, Discover‑Feed, AI Mode und die noch kaum messbaren Zugriffe durch LLM‑Crawler. Jedes davon folgt eigenen Updates, eigenen Ranking‑Signalen und eigenen Metriken.
Das bedeutet, eine simple „SEO‑Strategie für Google“ gibt es nicht mehr. Man muss sich entscheiden, ob man den Traffic aus Discover optimiert (wo eher Aktualität, Engagement und Themenschwerpunkte zählen) oder ob man sich auf organisches Search‑Ranking konzentriert. Gleichzeitig verlangt AI Mode nach Inhalten, die in längeren Sessions funktionieren, oft ohne Klick nach außen. Und die LLM‑Abfragen bringen eine zusätzliche Schicht – Zitation statt Klick.
In der Praxis entsteht also ein Mosaik: Du siehst eventuell Rückgänge im klassischen SERP, aber Zuwächse bei Discover oder Erwähnungen in KI‑Antworten. Nur wer diese Kanäle getrennt beobachtet, wird verstehen, wie sich die Aufmerksamkeit wirklich verteilt.
Was du mitnehmen solltest
- Beobachte Discover separat: Gerade News‑ oder Blog‑Seiten sollten den Anteil der Feeds im Auge behalten.
- Bereite Inhalte auf AI Mode & LLM Kontakte vor: Setze auf strukturierte Daten, Expertenattribute und eindeutige Quellenangaben.
- Technische Hygiene prüfen: Keine ungewollten Parameter oder experimentelle Formate für Bots.
- Experimentiere mit neuen Anzeigen‑ und Content‑Formaten: Längere Suchsitzungen könnten andere Content‑Längen oder Story‑Formate begünstigen.
Vielleicht fühlt sich der Markt gerade zersplittert an – aber dieser Übergang ist auch eine Chance. Wer die Unterschiede versteht, kann sich in jedem Kanal eigene Mikrovorteile sichern. Und manchmal ist das Zusammenspiel dieser Systeme fast spannender als ihre Einzelteile: Discover als Traffic‑Motor, AI Mode als Branding‑Bühne und klassische Suche als langfristiger Anker. Wie so oft gilt: beobachten, testen und die richtigen Hebel nachjustieren.







