Vor Kurzem wurde mir die Möglichkeit gegeben, Einblick in einen vertraulichen Datensatz zu bekommen, der normalerweise nur einer Handvoll strategischer Partner vorbehalten ist. Darin ging es um interne Sichtbarkeitsmetriken von ChatGPT – Daten, die zeigen, wann, wie oft und wo Inhalte von Publishern innerhalb der Chat-Oberfläche auftauchen. Was ich darin gesehen habe, verändert mein Verständnis von Online-Präsenz grundlegend. Wir befinden uns an einem Wendepunkt: KI-Sichtbarkeit steigt rapide, während echter Traffic verschwindet.
Das markiert den Beginn einer neuen Ära. Früher optimierten wir auf Klicks – heute geht es um Vertrauen, Präsenz und Einfluss in Systemen, die Informationen direkt liefern, ohne Nutzer zurück zur Quelle zu schicken. Aus meiner Erfahrung ist das kein Schrecken, sondern eine neue Spielregel. Wer sie versteht, kann enorm profitieren.
Wie ChatGPT Sichtbarkeit erzeugt – und warum kaum jemand klickt
In dem Bericht bekam ein großer Medienanbieter einen Monat lang Zugriff auf Daten, die zeigten, wie oft seine Seiten in ChatGPT angezeigt wurden, wie viele Unterhaltungen sie beeinflussten und wie viele Klicks daraus entstanden. Ein Beispiel: Ein Spitzen-URL wurde in 185.000 separaten ChatGPT-Sitzungen gezeigt, aber nur 3.800 Mal angeklickt. Das ergibt einen Klickanteil von rund 2 %. Zählt man Mehrfachanzeigen mit, fällt dieser auf unter 1 %. Das deckt sich mit meinen Beobachtungen: Sichtbarkeit ja – Bewegung nein.
Die meisten anderen Seiten lagen deutlich niedriger: 0,5 % galt schon als gut, 0,1 % war typisch, 0 % keine Seltenheit. Es ist das Phänomen der „Zero-Click“-Antwort – nur potenziert. Google lieferte vor Jahren mit hervorgehobenen Snippets kurze Antworten, ChatGPT geht weiter: Es beantwortet die gesamte Frage im Chat selbst, sodass der Klick überflüssig wird. Wenn man ehrlich ist, erfüllt das System damit perfekt den Nutzerwunsch, alles sofort zu wissen.
Je öfter du angezeigt wirst, desto weniger klickt man dich an
Ein interessanter Aspekt aus dem Datensatz war die Aufschlüsselung nach Anzeigeorten im Interface. Das Antwortfeld – also der Haupttext von ChatGPT – generierte riesige Impressionen, aber fast keine Klicks (zwischen 0,01 % und 1,6 %). Das ist das neue „Position 0“: maximale Aufmerksamkeit, aber null Handlungsbedarf. Wenn ChatGPT die Aufgabe bereits löst, hat niemand Grund weiterzugehen.
Spannend wird es in den Seitenelementen oder Fußnoten, wo ChatGPT Quellen nennt oder verwandte Themen verlinkt. Dort war die Klickrate mit 6 – 10 % deutlich höher. Nutzer, die hier klicken, sind weniger am Überprüfen interessiert als am Weiterforschen. Man könnte sagen: Das ist nicht mehr Suchverhalten, sondern Entdeckerverhalten. So betrachtet sind Zitate neue Einstiegsseiten – nur eben nicht über SERPs, sondern über Vertrauen im Antworttext.
Warum ChatGPT das Ende des „Gateway-Webs“ einleitet
Wir müssen akzeptieren, dass ChatGPT kein Durchgang, sondern ein Zielsystem ist. Es löst Probleme direkt im Gespräch. Klicks signalisieren Zweifel oder besonderen Wissensdurst, aber nicht das Standardverhalten. Daraus folgt etwas, das ein erfahrener SEO treffend formulierte: „Wir optimieren nicht mehr auf Traffic, sondern auf Vertrauensübertragung.“ Wenn die KI dich als Quelle nennt, bist du im Bewusstsein des Nutzers verankert – egal, ob er deine Seite besucht.
Das verändert die Informationskette: Früher suchte man, klickte, las und entschied. Heute fragt man, bekommt eine Antwort, vertraut und handelt. Eine ganze Zwischenebene – dein Websitebesuch – fällt weg. Trotzdem bleibst du präsent, wenn die KI dich „im Gedächtnis“ hat. Das ist Inception-SEO: Du willst nicht auffindbar sein, sondern eingebaut in den Denkprozess der Maschine.
Neue Relevanzsignale: Autorität schlägt Keyword
Während klassische SEO-Strategien auf Indexierung und Keyword-Matching beruhen, funktionieren KI-Systeme völlig anders. Sie nutzen ihr erlerntes Wissen und greifen nur auf externe Quellen zurück, wenn sie Lücken erkennen oder Aktualität benötigen. Die Auswahlkriterien haben sich verschoben: Autorität, Struktur, Faktentreue und Vertrauenswürdigkeit sind entscheidend – nicht keywordreiche Texte.
Wer in dieser Welt sichtbar bleiben will, muss als Entität wiedererkennbar werden: konsistente Markenprofile, strukturierte Daten, belegte Fakten, eine saubere Autorenschaft. In meinen Projekten sehe ich, wie Modelle verlässliche, lange gepflegte Domains bevorzugen. Sie „vertrauen“ auf Erfahrung statt auf Quantität. Kurz gesagt: Früher hast du zu 1000 Suchanfragen gerankt, heute willst du bei 10 Themen als Autorität gelten – weil daraus 10.000 Antworten entstehen können.
Neue Kennzahlen: „Model Share“ statt CTR
Da der Klick an Bedeutung verliert, entsteht ein neuer KPI: Share of Model – also wie oft deine Marke, Person oder Domain in künstlichen Antworten vorkommt, mit oder ohne sichtbares Zitat. Der Einfluss zählt, nicht der Besuch. Unternehmen beginnen bereits, ihre Präsenz in Chatbots, Claude oder Google AI Overviews zu verfolgen. Je öfter dein Name fällt, desto stärker dein „Maschinenbewusstsein“. Das ersetzt klassische Sichtbarkeitsindizes.
Darüber hinaus gibt es eine unsichtbare Ebene: deine Texte können Antworten prägen, auch wenn du nicht erwähnt wirst. Das ist die „Dark Visibility“ – dein Wissen fließt ein, aber das System zeigt keine Quelle an. Daraus folgt: Nachhaltige inhaltliche Qualität ist wichtiger als kurzfristige Reichweite, weil jedes hochwertige Stück den Trainingsstoff der Modelle anreichert.
Wozu eine KI-Suchkonsole nötig wäre
Das größte Problem heute ist Intransparenz. Kein Publisher weiß genau, wann und wie seine Inhalte von ChatGPT genutzt werden. Es gibt keine Oberfläche vergleichbar mit Googles Search Console. Idealerweise könnte man dort Impressionen, Klicks, Zitate, Themen-Rankings und Vertrauen-Scores einsehen – Daten, die helfen würden, Inhalte gezielt für KI sichtbar zu machen. Früher war „Not provided“ ein Ärgernis. Heute erleben wir „Not observable“: das komplette Unsichtbarmachen des Auswahlprozesses.
Ich bin überzeugt, dass mittelfristig regulatorischer Druck – etwa durch EU-AI-Verordnungen – OpenAI & Co. zwingen wird, mehr Transparenz zu schaffen. Nur so können faire Lizenzmodelle zwischen Publishern und Plattformen funktionieren.
Die wirtschaftliche Zäsur: Wenn Sichtbarkeit kein Geld mehr bringt
Google hat mit seinen Snippets zwar Traffic gekappt, aber immer noch ein Einnahmemodell für Medien geschaffen. KI-Anbieter wie OpenAI hingegen nutzen die Inhalte, ohne nennenswert Traffic zurückzugeben. Branchenweit liegt der Klickanteil aus ChatGPT unter einem Prozent – und mit ihm sinkt die Finanzierungsbasis für journalistische Arbeit. Ohne faire Kompensation droht eine inhaltliche Verarmung des Netzes.
Darum sehe ich drei Szenarien: (1) Pflichtvergütung – ähnlich wie Musikverlage Tantiemen erhalten. (2) Lizenzdeals, bei denen Inhalte gegen Zahlung ins Training und Live-Abrufe einfließen. (3) Hybridmodelle, die Häufigkeit, Autorität und Aktualität gewichten. Letztlich wird derjenige Plattformtyp überleben, der ein nachhaltiges Ökosystem schafft – nicht der, der es auspresst.
Was du als Publisher oder Marke tun kannst
Aus meiner Sicht sind jetzt drei Prioritäten entscheidend:
1. Sei Teil der Lösung, nicht nur Lieferant
Bau Inhalte so, dass KI sie problemlos versteht: klar, strukturiert, faktenorientiert. Pflege definierte Themencluster, anstatt jedem Trendkeyword nachzulaufen. Kurz gesagt: Autorisier dich selbst – durch Konsistenz und Qualität.
2. Stärke deine Entität
Sorge dafür, dass dein Unternehmen, deine Autoren oder Produkte in Wissensgraphen vorkommen. Nutze Schema-Markup, verknüpfe deine Kanäle, halte Daten aktuell. Je maschinenlesbarer du bist, desto eher integriert dich die KI ins Antwortmuster.
3. Nutze verbleibende Klickchancen gezielt
Bestimmte Anfragen – etwa technische Tutorials, Produkt














