Die Forscherteams von Google haben in einer neuen Arbeit ein spannendes Konzept vorgestellt: SAGE – Steerable Agentic Data Generation for Deep Search with Execution Feedback. Hinter diesem sperrigen Titel steckt nichts weniger als ein weiterer Schritt hin zu wirklich „denkenden“ Suchagenten, die über bloße Abfrage‑ und Antwortmechanismen hinausgehen. Dieses Forschungsprojekt liefert tiefere Einblicke, wie zukünftige KI‑Suchsysteme möglicherweise trainiert werden – und was das langfristig für SEO bedeutet.
Warum Google überhaupt an SAGE arbeitet
Wenn man sich anschaut, wie heutige Large Language Models trainiert werden, fällt auf: Die meisten Datensätze sind eigentlich gar nicht so anspruchsvoll. Sie bestehen aus relativ simplen Frage‑Antwort‑Strukturen, bei denen die gesuchte Information oft in ein oder zwei Dokumenten zu finden ist. Die gängigen Trainingssammlungen wie Musique, HotpotQA oder Natural Questions beinhalten meist Aufgaben, die in durchschnittlich ein bis drei Suchschritten gelöst werden können. Und genau das ist das Problem: Ein Agent, der komplexere, mehrstufige Rechercheaufgaben bewältigen soll, lernt daran nur bedingt.
Googles Forscher wollten diese Lücke schließen. Sie fragten sich: Wie können wir Trainingsdaten erzeugen, die Agenten zu echter Tiefenrecherche zwingen? Also zu Szenarien, in denen man mehrere Abfragen über verschiedene Quellen hinweg benötigt, bevor sich die richtige Antwort überhaupt abzeichnet. Dafür entwickelten sie SAGE – ein System, das eigenständig künstliche, aber glaubwürdige Frage‑Antwort‑Paare generiert und zugleich prüft, wie herausfordernd sie tatsächlich sind.
Wie das SAGE‑System funktioniert
Das Prinzip lässt sich gut mit einem Ping‑Pong‑Spiel zwischen zwei KI‑Instanzen beschreiben. Die erste KI ist der sogenannte Fragegenerator. Ihre Aufgabe: Eine Aufgabe so zu formulieren, dass sie nicht in einem einzigen Suchschritt lösbar ist. Die zweite KI ist der Suchagent. Sie versucht, die Frage zu beantworten – indem sie mehrere Suchläufe, sogenannte „Hops“, durchführt, Dokumente liest und logische Zwischenschritte vollzieht.
Der Clou: Wenn der Suchagent merkt, dass die Frage zu einfach oder gar unlösbar war, gibt er der Fragesteller‑KI Rückmeldung. Diese Feedback‑Schleife (Execution Feedback) hilft dem Generator, den Schwierigkeitsgrad beim nächsten Versuch besser auszubalancieren. Der Prozess wiederholt sich, bis genuinely anspruchsvolle Aufgaben entstehen.
Vier Wege, wie „Deep Research“ umgangen wurde
Beim Experimentieren fiel den Forschern auf, dass der Agent oft Abkürzungen nahm – also Wege fand, um die Antwort schneller zu erreichen, als eigentlich vorgesehen. Genau diese „Shortcuts“ sind besonders aufschlussreich, denn sie zeigen, unter welchen Umständen Such‑KIs weniger Suchschritte brauchen – und damit auch, wie Inhalte strukturiert sein können, damit sie früh im KI‑Suchprozess erscheinen.
1. Information Co‑Location
Das war mit rund 35 % der häufigste Grund, warum ein Agent nicht tiefer recherchieren musste. Wenn mehrere nötige Fakten auf einer einzigen Webseite nebeneinander stehen, genügt oft ein einziger „Hop“. Stell dir das so vor: Statt zwei verschiedene Quellen zu lesen, findet der Agent Darstellung und Beleg auf derselben Seite.
2. Multi‑Query Collapse
Etwa 21 % der Fälle liefen hierüber. Dabei reicht eine besonders gute Suchanfrage, um Informationen aus mehreren Dokumenten gleichzeitig zu liefern. Die KI muss keine Zwischenschritte mehr kombinieren – sie erhält schon in Runde 1 genügend Kontext.
3. Superficial Complexity
13 % der „Abkürzungen“ beruhten darauf, dass Fragen zwar kompliziert klangen, inhaltlich aber leicht zu beantworten waren. Die KI übersprang förmlich die Puzzleteile, weil sie sofort auf den entscheidenden Satz in einem Dokument stieß.
4. Overly Specific Questions
Rund 31 % betrafen überdetaillierte Aufgaben. Wenn zu viele Fakten schon in der Fragestellung stecken, wird der Rest trivial. Der Agent stößt gleich beim ersten Suchtreffer auf das erwartete Stichwort – und die beabsichtigte „tiefe“ Recherche entfällt.
Man könnte also sagen: Der Traum der Forscher, den Agenten zu zwingen, fünf oder sechs Mal in Folge logisch zu schlussfolgern, wurde oft von solchen Abkürzungen vereitelt. Für SEO‑Leute klingen diese vier Punkte aber fast wie kleine Hinweise, wie man Inhalte baut, die genau solche Shortcuts ermöglichen – nur eben gezielt im eigenen Sinne.
Was SEO‑Profis daraus lernen können
Ich denke, hier liegt eine subtile, aber spannende Einsicht: Diese „Abkürzungen“, die aus Sicht der Entwickler störend sind, sind aus Publishersicht Gold wert. Denn sie zeigen, welche Strukturen eine Seite attraktiv für KI‑Suchagenten machen.
1. Informationen bündeln („Information Co‑Location“)
Wenn ein Agent mehrere Teilantworten an einem Ort findet, spart er Schritte. Für dich heißt das: lieber ein gut gegliedertes, umfassendes Dokument erstellen, in dem verwandte Aspekte gesammelt stehen. Natürlich ohne Keyword‑Stuffing – Vielmehr intelligent verbunden: Hauptthema, Hintergründe, Praxis‑Beispiele, kleine Rechenbeispiele … Solche Seiten können für KI gestützte Suche besonders wertvoll sein, weil sie die Notwendigkeit externer Sprünge verringern.
2. Mehrwert durch Querbezug („Multi‑Query Collapse“)
Auch Suchagenten lieben Inhalte, die auf einen Schlag mehrere Teilfragen abdecken. Wenn du zum Beispiel über „Ranking‑Faktoren 2026“ schreibst, lohnt es sich, Unterfragen logisch mit zu beantworten: Wie kombinieren sie sich? Welche Datenbasis liegt zugrunde? Wie wirkt sich das auf die Linkstrategie aus? Solche Mehrschicht‑Antworten wirken wie ein „Raketenantrieb“ für Such‑KIs, weil sie das Puzzle direkt zusammensetzen können.
3. Sei die Abkürzung
Die Studie bezeichnete die Shortcuts als „Fehler“ des Datengenerators. Für dich sind sie der Sweet‑Spot. Wenn du präzise Daten, konkrete Beispiele oder eindeutige Definitionen bietest, wird dein Inhalt zum direkten Sprungziel einer Agentic Search. Gerade numerische Fakten, zeitliche Abfolgen oder statistische Zusammenfassungen sind dafür prädestiniert.
4. Trotzdem: Fokus behalten
Natürlich birgt „alles auf einer Seite“ die Gefahr, sich zu verzetteln. Ich sage gern: Komprehensiv, aber nicht chaotisch. Nutzerfreundliche Struktur bleibt oberstes Gebot. Wenn Unterthemen zu groß werden, sollten sie verlinkt sein – sauber vernetzt, intern referenziert und semantisch verknüpft. So versteht auch die KI die Beziehung zwischen deinen Seiten.
Warum klassische SEO‑Signale weiterhin zählen
Aus meiner Sicht ist der wichtigste Satz in der Forschungsarbeit dieser: Der Agent stützt seine Entscheidungen auf klassische Suchergebnisse – konkret auf die drei bestplatzierten Webseiten pro Abfrage. Das bedeutet: So „neu“ das Feld der Agentic AI Search wirkt, sie basiert auf den gleichen Relevanz‑Signalen, die wir seit Jahren optimieren. Ranking, Crawl‑Zugänglichkeit, klare semantische Struktur – all das bleibt Grundlage.
Deshalb lautet die logische Schlussfolgerung: Wer in der normalen Google‑Suche nicht weit oben steht, wird auch im KI‑gesteuerten Szenario kaum gesehen. Die Priorität sollte also weiterhin darauf liegen, die klassische Sichtbarkeit zu sichern – möglicherweise erweitert um Strategien, die „Deep‑Search‑Agenten“ eine bündige Gesamtantwort liefern.
Meine persönliche Einschätzung
Ich halte es für wahrscheinlich, dass diese Agenten in der Praxis mehr als nur drei Treffer prüfen werden. Aber sie werden sich weiterhin zunächst an den bewährten Ranking‑Zonen orientieren. Ergo: Das Ziel, unter den Top 3 zu landen, gewinnt eher an Relevanz, weil diese Positionen künftig doppelt zählen – für Menschen wie auch für Maschinen, die Recherchen automatisiert fortführen.
Ein verändertes Such‑Ökosystem
Langfristig führt das zu einem interessanten Paradox. Einerseits wird Content, der mehrere Ebenen abdeckt, immer wichtiger. Andererseits wächst der Selektionsdruck: Nur wenige Seiten „dürfen“ ins Training oder in die aktiven Informationsketten solcher Agenten. Das belohnt Websites, die:
- thematisch konsistent sind,
- verlässlich und faktenreich schreiben,
- und logisch verknüpfte Unterressourcen bereitstellen.
Wenn du so arbeitest, fungiert deine Domain quasi als Wissens‑Knotenpunkt – und das mag sowohl klassische Crawler als auch LLM‑basierte Suchsysteme überzeugen.
Was das bedeutet, ganz pragmatisch:
- Bleib bei klassischer Optimierung. Titel, Beschreibungen, interne Links, saubere URL‑Struktur – das ist die Eintrittskarte in jede Form der Agentensuche.
- Denke in Pfaden statt in Seiten. Ein tief recherchierender KI‑Agent springt thematisch; ein intelligentes Content‑Cluster ermöglicht ihm, innerhalb deiner Domain zu bleiben.
- Vermeide redundante Partials. Wenn jede Seite nur ein Stichwort wiederholt, ohne Kontext oder Verbindung, verteilt sich dein Signal – und der Agent springt ab.
Schlussgedanken
Was „SAGE“ zeigt, ist weniger eine fertige Technologie als ein Blick durchs Schlüsselloch: Google lernt gerade, wie Agenten denken und welche Daten sie brauchen, um Gedankenketten automatisiert zu bilden. Für uns, die mit Inhalten arbeiten, heißt das: Wir sollten Inhalte produzieren, die solche Gedankenketten verkürzen – nicht blockieren.
Komplexität verkaufen mag attraktiv klingen, aber was wirklich zählt, ist Kohärenz. Wenn auf deiner Seite Wissen ko‑lokalisiert ist, Querverbindungen naheliegen und präzise Fakten Antworten ermöglichen, dann bist du der „Shortcut“, den ein Agent bevorzugt. Und wer weiß – vielleicht ist das im künftigen Suchuniversum genau der Platz, auf den man hinarbeiten sollte.







