Webseitengewicht explodiert: Sofort Ladezeiten deutlich verbessern

Tom Brigl  –

Veröffentlicht:

08.04.2026,

Letzte Aktualisierung:

08.04.2026
Inhaltsverzeichnis

Webseiten werden immer größer – und das bleibt ein Thema, das uns alle betrifft

Wenn du dir die Entwicklung des Internets der letzten Jahre ansiehst, wirst du sicher bemerkt haben, dass Websites immer komplexer geworden sind. Was früher eine schlichte HTML-Seite war, ist heute oft eine aufwendig programmierte Web-App mit Videos, Animationen, Tracking-Skripten und strukturierten Daten. In einem aktuellen Gespräch zwischen Gary Illyes und Martin Splitt von Google wurde genau dieses Thema aufgegriffen: Wie stark ist das Web gewachsen – und spielt die Größe von Webseiten heute überhaupt noch eine Rolle für Google und für dich als Betreiber?

Sie haben das Ganze im Kontext des Crawlers, des Nutzererlebnisses und moderner Webstandards diskutiert. Und auch wenn sich vieles selbstverständlich anhört – ihre Gedanken regen dazu an, genauer hinzuschauen.


Von der „Webseiten-Diät“ zur Datenflut

In den frühen 2010er-Jahren galten schmale, schnelle Seiten als das Maß aller Dinge. Heute, zehn Jahre später, hat sich das Bild gewandelt. Laut dem HTTP Archive lag das durchschnittliche Gewicht einer mobilen Startseite im Jahr 2015 bei rund 845 Kilobyte. Zehn Jahre später liegt dieser Wert bei sage und schreibe 2.362 Kilobyte. Das ist fast das Dreifache!

Das klingt zunächst harmlos, aber wenn du bedenkst, dass diese Zahl ein Durchschnittswert ist – mit unzähligen Ausreißern nach oben –, zeigt sich, wie sehr die Inhalte und Strukturen von Websites gewachsen sind.

Illyes und Splitt waren sich einig, dass diese Entwicklung zwar vorhersehbar war (aufgrund moderner Frameworks, Bilder und Videoeinbettungen), die schiere Größenordnung aber trotzdem überrascht.

Aus meiner Erfahrung heraus zeigt sich das auch in Kundengesprächen: Gerade Unternehmen, die viele Marketing-Tools, Conversion-Trackings und Design-Gadgets auf ihren Seiten einsetzen, verlieren schnell den Überblick. Am Ende wiegt ihre Homepage ein Vielfaches dessen, was wirklich nötig wäre.


Was bedeutet überhaupt „Seitengröße“?

Interessant ist, dass selbst Experten wie Splitt betonen, wie schwer es ist, „page weight“ genau zu definieren. Manche verstehen darunter nur den HTML-Quelltext, andere rechnen auch CSS-, JavaScript-, Bild- und Font-Dateien dazu – also alles, was geladen werden muss, damit der Browser die Seite korrekt darstellen kann.

Gerade Letzteres ist entscheidend für das Nutzererlebnis: Je mehr Daten geladen werden müssen, desto länger dauert der Aufbau der Seite – vor allem auf mobilen Geräten und bei schlechten Verbindungen.

Manchmal fühlt es sich fast an, als wäre das Internet Opfer seines eigenen Fortschritts geworden: Wir haben leistungsstarke Geräte, schnelle Netze und moderne Browser – aber gleichzeitig liefern Websites immer mehr Ballast mit, der diese Vorteile wieder zunichtemacht.


Die Limits beim Crawlen – was Google wirklich interessiert

An dieser Stelle kommt eine technische, aber faszinierende Frage ins Spiel: Wie geht Google eigentlich mit immer größeren Seiten um?

Illyes erklärte, dass Googles Crawler-System – also die Infrastruktur, die Webseiten durchsucht und indexiert – sogenannte Größenlimits pro URL hat. Standardmäßig sind das rund 15 Megabyte. Innerhalb dieses Rahmens wird der HTML-Code analysiert, Links werden erkannt, und anschließend zieht sich das System zusätzliche Ressourcen wie CSS, JavaScript oder Bilder separat nach.

Das unterscheidet sich übrigens von den Zahlen, die in der offiziellen Googlebot-Dokumentation stehen. Dort ist von 2 MB für HTML-Dateien und 64 MB für PDFs die Rede. Das zeigt, dass es kein starres System gibt: je nach Kontext arbeitet der Crawler unterschiedlich.

Diese Technik klingt trivial, ist aber entscheidend. Denn wenn eine Seite extrem groß wird – zum Beispiel durch eingebettete Skripte, unkomprimierte JSON-Dateien oder massiges Inline-CSS – könnte das Crawling ineffizient werden. Im schlimmsten Fall übersieht der Bot relevante Inhalte oder braucht länger, um alles zu erfassen.


Und was ist mit strukturierten Daten?

Ein besonders spannender Punkt des Gesprächs war die Frage, ob Google selbst vielleicht dazu beiträgt, dass Seiten größer werden.

Illyes erinnerte sich an ein frühes Statement von Sergey Brin, einem der Google-Gründer: Maschinen sollten im Idealfall alles direkt aus dem Text heraus verstehen – ohne zusätzliche Hinweise. Doch heute ist genau das Gegenteil der Fall: Google empfiehlt Webmastern, strukturierte Daten hinzuzufügen, um Inhalte besser interpretieren zu können.

Ob Rezensionen, Rezepte, Veranstaltungen oder Organisationen – all diese Informationen werden meist als JSON-LD eingebettet. Das ist praktisch für Maschinen, aber es vergrößert natürlich den Quellcode, und zwar nicht selten erheblich.

Illyes wirkte dabei ein wenig selbstkritisch. Er meinte, dass diese Daten ausschließlich für Suchmaschinen bestimmt sind und für Nutzer keinerlei Mehrwert bieten. Es entstehe also zusätzlicher Datenballast – und die Frage, ob sich das langfristig rechtfertigen lässt, ist durchaus legitim.

In der Praxis kenne ich viele Seiten, deren strukturierte Daten-Block inzwischen länger ist als der eigentliche Text. Und ja, auch das kann die Performance beeinflussen, insbesondere wenn die Daten dynamisch eingebaut werden (z. B. über JavaScript).


Zählt die Seitengröße heute überhaupt noch?

Martin Splitt meinte dazu: Ja, sie zählt.
Er selbst verfüge zwar über eine schnelle Internetverbindung, bei der Seitengewicht keine Rolle spielt, aber er betonte, dass das global gesehen anders aussieht.

Denn viele Nutzer sind nach wie vor auf schwache oder begrenzte Netzwerke angewiesen. Gerade in ländlichen Regionen oder auf Reisen merkt man sofort, wenn eine Seite zu träge lädt oder erst nach mehreren Sekunden alle Inhalte anzeigt.

Und das betrifft nicht nur das Nutzererlebnis, sondern auch die Conversion-Raten. Studien zeigen seit Jahren, dass schnelle Seiten zu mehr Interaktionen führen – von längeren Sitzungen über höhere Kaufraten bis hin zu mehr Seitenaufrufen.

Insofern ist „seitengröße“ kein veraltetes SEO-Thema, sondern Teil einer ganzheitlichen Performance-Optimierung.

Es würde mich nicht wundern, wenn du selbst schon erlebt hast, dass eine Seite zwar schön und modern aussieht, aber locker 15 Sekunden braucht, bis sie endlich vollständig geladen ist. Das ist der Preis von übermäßigem Design, ungenutzten Frameworks und schlecht optimierten Bildern.


Internetgeschwindigkeiten vs. wachsende Dateien

Splitt deutete einen interessanten Gedanken an: Die Bandbreite, die ein durchschnittliches mobiles Gerät heute hat, ist natürlich weit höher als 2015. Aber die Datenmengen der Webseiten sind im gleichen Zeitraum offenbar schneller gewachsen als die Leistungsfähigkeit der Netze.

Das ist ein klassisches Wettrennen – und es scheint, als hätten die Webseitenentwickler gewonnen, leider im negativen Sinne.

Wenn du das auf deinen Alltag überträgst: Ein kleiner Download oder ein kurzer Artikel wurden früher blitzschnell geladen – heute fühlen sich manche Seiten wieder an wie im Modem-Zeitalter, wenn sie Skripte von zehn verschiedenen Quellen laden.

Natürlich hat Google über die Jahre Optimierungsrichtlinien eingeführt: Core Web Vitals, Lazy Loading, Priorisierung von Above-the-Fold-Content, komprimierte Bilder usw. Aber letztlich sieht man, dass viele davon im Alltag ignoriert werden.


Wie sich große Seiten auf Crawling und SEO auswirken

Wenn du dich mit SEO beschäftigst, kennst du das Crawling-Budget – den Anteil der Ressourcen, den Google für deine Domain aufwendet. Große, datenlastige Seiten werden oft seltener aktualisiert, weil sie länger zum Durchlaufen brauchen.

Illyes bestätigte, dass übermäßige Dateigrößen das Budget indirekt beeinflussen können. Je nach Struktur kann Google beschließen, weniger tief in die Linkhierarchie hineinzugehen. Und selbst wenn nur 1 % aller Seiten über 15 MB groß wären, würde das allein durch die schiere Anzahl spürbare Effekte haben.


Wie du selbst Einfluss nehmen kannst

Auch wenn die Diskussion zunächst theoretisch klingt, lässt sich daraus einiges ableiten:

  • Komprimiere deine Ressourcen (Bilder, Fonts, Skripte).
  • Vermeide überflüssige Bundles – große Frameworks z. B. nur dort laden, wo sie wirklich gebraucht werden.
  • Behandle strukturierte Daten pragmatisch: weniger ist oft mehr.
  • Reduziere Inline-Code und verschiebe unnötige Skripte ans Seitenende oder lade sie asynchron.
  • Überprüfe regelmäßig dein Page Weight etwa mit dem HTTP Archive oder Lighthouse.

Solche Schritte wirken klein, können aber große Effekte auf Crawling und Nutzererfahrung haben.


Ein Blick in die Zukunft

Zum Abschluss deutete Martin Splitt an, dass in einer kommenden Podcast-Folge konkrete Strategien vorgestellt werden sollen, um den Page Weight aktiv zu reduzieren.

Das klingt vielversprechend – denn es ist offensichtlich, dass Webseiten immer noch wachsen, obwohl die Mehrheit wahrscheinlich nie das 15 MB-Limit erreicht. Der Medianwert der mobilen Seiten liegt laut Web Almanac deutlich darunter. Trotzdem bleibt das Problem bestehen: Auch zwei oder drei Megabyte sind für viele Verbindungssituationen zu viel.

Und letztlich geht es dabei nicht nur um technische Eleganz, sondern um Fairness. Wer eine Seite mit reduziertem Datengewicht veröffentlicht, sorgt dafür, dass auch Menschen mit schwacher Verbindung ein gutes Erlebnis haben.


Mein Fazit

Je länger man in der Webbranche arbeitet, desto klarer wird: Technik allein macht keine gute Seite. Geschwindigkeit, Zugänglichkeit und Nutzerfokus sind entscheidender als jedes visuelle Extra.

Illyes und Splitt erinnern uns gerade daran, was leicht in Vergessenheit gerät – dass Effizienz auch im digitalen Raum zählt. Vielleicht ist es an der Zeit, wieder ein bisschen „Diät“ zu halten, zugunsten von Performance, Nachhaltigkeit und echter Benutzerfreundlichkeit.

Und wenn du das nächste Mal mit einem Entwickler oder Designer sprichst, der sagt, „die paar Megabyte machen doch nichts aus“ – dann weißt du, dass es sehr wohl einen Unterschied macht.

Tom Brigl

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Ut elit tellus, luctus nec ullamcorper mattis, pulvinar dapibus leo.

Das könnte Dich ebenfalls interessieren:
/
08.04.2026

Eigentlich fing alles mit einer unscheinbaren Meldung an – Google stellte in einem Forschungsblog etwas namens TurboQuant vor. Doch je länger man hineinschaut,...

/
07.04.2026

Die statische Google‑Business‑Profile‑Ära ist vorbei. Heute entscheidet Dynamik über Sichtbarkeit. Google behandelt ein Unternehmensprofil längst nicht mehr wie einen simplen Brancheneintrag. Dein Profil...

/
07.04.2026

Wie du dein Wissen in die Antworten der KI bringst Manchmal überrascht es, wie still sich die Spielregeln im Suchmaschinen-Kosmos verändern. Früher war...

/
06.04.2026

Wenn du dich gerade fragst, ob suchmaschinenoptimiertes Denken in Zukunft überhaupt noch Sinn macht, bist du nicht allein. Der digitale Raum verändert sich...

/
06.04.2026

Wenn du dich regelmäßig mit SEO beschäftigst, dann ist dir wahrscheinlich schon aufgefallen, dass Google in letzter Zeit immer mehr mit KI experimentiert....

/
05.04.2026

Google startet das Core Update März 2026 Google hat am 27. März 2026 um 2:00 Uhr morgens nach Pazifikzeit mit dem Rollout des...