NanoClaw SEO Alptraum: Fake Seite dominiert Google

Tom Brigl  –

Veröffentlicht:

13.03.2026,

Letzte Aktualisierung:

13.03.2026
Inhaltsverzeichnis

Manchmal zeigt sich, wie seltsam das Internet funktioniert. Du baust monatelang etwas Neues, bekommst riesige Aufmerksamkeit – und trotzdem findet man in Google nicht dich, sondern jemanden, der dich imitiert. Genau das passiert einem Entwickler, der mit seinem Open-Source-Projekt NanoClaw gerade unfreiwillig demonstriert, wie brüchig das Zusammenspiel zwischen Indexierung, Vertrauen und technischer Relevanz im heutigen Suchmaschinen-Ökosystem geworden ist.

Der Gründer von NanoClaw, Gavriel Cohen, steht vor einem absurden Problem: Wenn du in Google nach dem Namen des Projekts suchst, erscheint an erster Stelle nicht seine offizielle Seite – sondern eine Fake-Website, die so tut, als wäre sie das Original. Und das, obwohl NanoClaw in GitHub inzwischen über 18.000 Sterne gesammelt hat, in großen Techmedien vorgestellt wurde und die offizielle Website sauber strukturierten Code und Metadaten enthält.

Das entstandene Chaos

Cohen hatte NanoClaw ursprünglich auf GitHub veröffentlicht – eine minimalistische Plattform für KI-Agenten, gedacht als sicherheitsfokussierte Alternative zu OpenClaw. Das Ganze startete als Experiment, ohne Corporate Website. Viele Entwickler machen das so: Der Code kommt zuerst, danach die Präsentationsseite. Nur dass diesmal jemand anderes die Lücke nutzte. Rund eine Woche nach dem Start registrierte jemand die Domain nanoclaw.net und kopierte im Wesentlichen den Text aus dem GitHub-README. Diese Kopie wurde bald von Suchmaschinen indexiert – und erschien bei Google, Bing und DuckDuckGo als erste Trefferseite.

In der Zwischenzeit ging der Entwickler professionell vor: Er registrierte die eigene Domain (nanoclaw.dev), verlinkte sie aus dem GitHub-Projekt, fügte strukturierte Daten hinzu, reichte sie bei der Search Console ein und kontaktierte Cloudflare sowie den Domain-Registrar wegen Missbrauchs. Trotzdem blieb die falsche Seite sichtbar – und rankte besser. Aus meiner Erfahrung ist das einer dieser Fälle, in denen die technische Logik des Indexierens gegen den gesunden Menschenverstand arbeitet. Der Algorithmus folgte schlicht dem, was zuerst kam, nicht dem, was authentisch war.

Ein Lehrstück für SEO

Eigentlich enthält die Geschichte alles, was man im SEO-Unterricht als „Worst Case“ diskutieren würde. Die „falsche“ Domain war zuerst im Index – und das reicht oft, um den Rest ins Hintertreffen zu bringen. Besonders bei Fantasie-Namen ohne historische Autorität entscheiden Zeitstempel, Crawltiefe und semantische Muster, welches Objekt Google als kanonisch einstuft. Später dazukommen, selbst mit echten Signalen, wird schwierig.

Ich erinnere mich, dass Google-Sprecher früher rieten, bei solchen Problemen auf „Website Quality“ zu achten und Signale der Originalität zu stärken – also hochwertige Links, Autorenhinweise, Markenlogos, Kontinuität. Aber was tust du, wenn du als Gründer einer Open-Source-Lösung plötzlich gegen eine geklonte Seite um Sichtbarkeit kämpfen musst, und das nicht etwa wegen mangelhafter Qualität, sondern weil jemand einen Trick vorher angewandt hat?

In der Community kochte das Thema hoch. Auf Hacker News landete der Beitrag des Entwicklers auf der Startseite, sammelte binnen Stunden Hunderte Kommentare. Viele testeten die Suchanfrage selbst – und bestätigten, dass auch andere Suchmaschinen die falsche Seite bevorzugten. DuckDuckGo listete sie ganz oben, Bing und Brave ebenfalls. Nur ein eher kleiner Anbieter, Mojeek, warb für sich, indem er als Einziger das echte Projekt zeigte.

Was steckt hinter dieser Fehlwertung?

Wenn man etwas tiefer nachdenkt, deutet vieles auf den Indexierungszeitpunkt hin. Die Fake-Seite war schlicht zuerst online. Suchmaschinen arbeiten mit komplexen Signalen: Alter der Domain, Synonyme, Backlinks, Veröffentlichungsrhythmus. Wird ein Projektname erstmals auf einer Website erscheinen, nimmt der Algorithmus diese Seite als Ursprung an. Später kann das geändert werden – aber nur schwer, wenn keine Eindeutigkeit besteht. Cohen hatte die Kontrolle über das Narrativ verloren, noch bevor er eins schreiben konnte.

Dazu kommt ein psychologischer Faktor: Suchmaschinen werten Seiten, die schon länger bestehen, als stabiler. Eine .net-Domain wirkt nicht per se dubios. Kombiniert mit kopierten Texten, die als „relevant“ gelten, entsteht ein regelrechtes Echo des Originals. Der Algorithmus erkennt nicht, dass hier jemand plagiiert, sondern hält es schlicht für eine ähnliche Seite – und verlässt sich auf die zuerst gecrawlte Version.

Reaktion des Entwicklers

Cohen beschreibt in seinem Thread, dass das Fake-Projekt inzwischen „faktisch falsche“ Informationen enthält und damit eine potenzielle Sicherheitslücke darstellt. Er fürchtet, dass der Betreiber den Inhalt irgendwann austauscht – etwa durch Phishing-Links oder manipulierte Downloads. Darum versuchte er alle möglichen Kanäle: DMCA-Beschwerden, Meldungen bei Google Safe Browsing, Supporttickets bei den Hosting-Providern. Bis Anfang März blieb alles wirkungslos. Die Betrügerseite blieb online – und oben im Ranking.

Das ist mehr als ein SEO-Problem, es ist ein Signal dafür, wie verwundbar das Vertrauen ins organische Web geworden ist. Man denkt oft: „Google merkt doch, dass es kopiert ist“. Nur funktioniert der Mechanismus eben nicht immer. Der Algorithmus bevorzugt manchmal, was alt oder „komplett“ wirkt, selbst wenn die Inhalte gestohlen wurden. Der menschliche Maßstab spielt dabei keine Rolle.

Warum betrifft dich das?

Wenn du Produkte veröffentlichst, vielleicht ein Tool, ein Plugin oder ein kleines Framework, solltest du dir schon vor dem Launch Domain und Branding sichern. Selbst bei Open Source. Viele Entwickler glauben, Code auf GitHub reiche als Identität – aber Suchmaschinen orientieren sich an Domains, nicht an Repos. Cohen hat unfreiwillig gezeigt, wie rasch Dritte Schweigen als Einladung verstehen, eine Marke zu besetzen.

Ich erinnere mich an ähnliche Fälle mit Projekten aus der KI-Szene, die viral gingen, bevor jemand die .com oder .dev sicherte. Oft dauert es Monate, bis diese Opportunisten aus Suchergebnissen verschwinden, manchmal nie. Selbst nach Korrekturen und Berichterstattung bleibt das Clon-Signal im Index hängen, weil Backlinks verteilt sind oder weil vereinzelte Nutzer auf die falsche Seite klickten – was wiederum „Relevanz“ bestätigt.

Für SEO-Profis steckt darin ein fast paradoxes Signal: Authentizität wird algorithmisch gemessen, nicht real. Wer zuerst im Index ist, prägt das semantische Umfeld einer Marke. Wer später kommt, muss Vertrauen nachträglich aufbauen – was deutlich schwieriger ist, selbst wenn er der Erfinder ist.

Ein unsichtbares, aber reales Risiko

Technisch betrachtet ist es ein Security-Exposure. Wenn eine täuschend echte Kopie einer Softwareseite auftaucht, kann sie Schadcode enthalten. Selbst wenn die Inhalte harmlos sind, zerstört das Vertrauen. Die Situation zeigt auch, wie wichtig es geworden ist, deine Seiten sofort zu verknüpfen: GitHub → Domain → soziale Profile → Presse. So entsteht ein digitales Vertrauensnetz, das Suchmaschinen erkennen können. Wer erst nachträglich puzzelt, hat es schwer.

Lehren aus dem Fall

Es gibt mehrere Kernpunkte, die du dir merken kannst:

  • Sichere Domains vor dem Launch. Auch wenn dein Projekt noch nicht live ist, beanspruche Variante‑Domains (.com, .dev, .net usw.).
  • Sorge für klare Querverweise. In der README, in Social Media, überall denselben offiziellen Link.
  • Beobachte Namentreffer in der Google Search Console und melde ungewöhnliche Kopien früh.
  • Bau Presse‑ und Community‑Belege auf, damit Algorithmen ehrliche Quellen finden.

Manchmal ist es nicht böser Wille seitens Google – es ist schlicht die Eigenlogik der Maschinen. Sie sehen Muster, keine Absichten. Doch wenn du als Gründer, Entwickler oder SEO-Berater mit diesen Strukturen arbeitest, musst du lernen, solche Szenarien vorauszuahnen.

Und wie geht’s weiter?

Bislang gibt es keine Reaktion seitens Google. Cohen schreibt, dass er weiter daran arbeitet, die gefälschten Seiten zu melden und ihre Backlinks zu analysieren, um Publikationen zu informieren, die versehentlich auf nanoclaw.net statt nanoclaw.dev verlinkten. Einige SEO-Profis im Forum gaben ihm Tipps: Disavow-Dateien, Social Proof, strukturierte Autorenprofile. Ob das reicht, bleibt offen.

Interessant ist, dass viele Leser die Sache nicht mehr nur als individuellen Ärger verstehen, sondern als Symptom eines größeren Problems: Wenn Suchmaschinen von KI-Tools abhängen, die kopierte Inhalte synthetisch bewerten, kann der Ursprung eines Projekts leicht verloren gehen. Was Cohen erlebt, könnte in Zukunft viele treffen.

Persönliches Fazit

Aus meiner Sicht ist diese Geschichte weniger ein Drama über Rankings, sondern über Vertrauen in maschinelle Kategorisierung. Es zeigt, dass Suchmaschinen – ob Google, Bing oder DuckDuckGo – weiterhin mechanisch denken: Wer zuerst erscheint, gilt als Quelle. Für echte Kreative, die spät digitalisieren, ist das fatal. Und zugleich erinnert es uns daran, dass SEO längst nicht mehr nur Technik, sondern Schutz der eigenen Identität ist.

NanoClaw wird diesen Fehler wohl bald korrigieren. Aber der Schaden zeigt sich schon jetzt: Dutzende Nutzer fanden „das Projekt“ auf einer Seite, die gar nichts mit dem Entwickler zu tun hat. Es ist nicht schwer, sich vorzustellen, was passiert, sobald jemand dieses Vertrauen missbraucht. Vielleicht wird man rückblickend sagen – das war nicht nur eine kleine SEO-Panne, sondern ein Moment, der uns daran erinnert hat, dass der Algorithmus keine Moral kennt.

Und falls du selbst ein neues Tool oder Startup planst: Registriere die Domain, noch bevor du den ersten Commit machst. Klingt banal – aber manchmal entscheidet genau das, ob Google dich erkennt oder dich verwechselt.

Tom Brigl

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Ut elit tellus, luctus nec ullamcorper mattis, pulvinar dapibus leo.

Das könnte Dich ebenfalls interessieren:
/
08.04.2026

Webseiten werden immer größer – und das bleibt ein Thema, das uns alle betrifft Wenn du dir die Entwicklung des Internets der letzten...

/
08.04.2026

Eigentlich fing alles mit einer unscheinbaren Meldung an – Google stellte in einem Forschungsblog etwas namens TurboQuant vor. Doch je länger man hineinschaut,...

/
07.04.2026

Die statische Google‑Business‑Profile‑Ära ist vorbei. Heute entscheidet Dynamik über Sichtbarkeit. Google behandelt ein Unternehmensprofil längst nicht mehr wie einen simplen Brancheneintrag. Dein Profil...

/
07.04.2026

Wie du dein Wissen in die Antworten der KI bringst Manchmal überrascht es, wie still sich die Spielregeln im Suchmaschinen-Kosmos verändern. Früher war...

/
06.04.2026

Wenn du dich gerade fragst, ob suchmaschinenoptimiertes Denken in Zukunft überhaupt noch Sinn macht, bist du nicht allein. Der digitale Raum verändert sich...

/
06.04.2026

Wenn du dich regelmäßig mit SEO beschäftigst, dann ist dir wahrscheinlich schon aufgefallen, dass Google in letzter Zeit immer mehr mit KI experimentiert....