Suchmaschinen-Grundlagen
10 Min. LesezeitWie Google Online-Shops findet
Bevor Google Ihre Produkte ranken kann, muss es sie erst entdecken. Zu verstehen, wie Googlebot Ecommerce-Websites navigiert, zeigt, warum manche Shops Tausende Seiten indexiert bekommen, während andere Schwierigkeiten haben, selbst ihre Hauptkategorieseiten bemerkt zu bekommen.
In this guide
Wie Googlebot Ecommerce-Seiten crawlt
Googlebot ist die Software, die Google zum Abrufen von Webseiten verwendet. Sie funktioniert, indem sie Links von einer Seite zur nächsten folgt, ähnlich wie ein Käufer, der durch Ihren Shop klickt. Wenn sie auf einer Seite landet, liest sie das HTML, folgt den gefundenen Links und fügt neu entdeckte URLs zu ihrer Crawl-Warteschlange hinzu.
Für Ecommerce-Seiten stößt dieser Crawling-Prozess schnell auf Komplikationen. Eine Startseite verlinkt möglicherweise auf 15 Kategorieseiten, von denen jede auf 20 Unterkategorien verlinkt, die jeweils 40 Produkte auflisten. Das sind bereits 12.000 Produktseiten, die über einen einzigen Crawl-Pfad entdeckt werden. Aber Googlebot hat keine unbegrenzten Ressourcen. Google weist jeder Website ein Crawl-Budget basierend auf der Autorität und Serverkapazität der Website zu.
Ein mittelgroßer Shop mit moderater Domain-Autorität sieht möglicherweise, dass Googlebot 5.000 bis 15.000 Seiten pro Tag abruft. Wenn Ihr Shop 80.000 URLs inklusive gefilterter Ansichten und Paginierung hat, kann es Wochen dauern, bis Googlebot jede Seite einmal besucht hat. Deshalb ist Crawl-Effizienz für Ecommerce so wichtig. Jede URL, die Googlebot für eine wertlose Filterseite verschwendet, ist eine URL, die nicht für eine Produktseite verwendet wurde, die Sie tatsächlich ranken lassen möchten.
Die Crawl-Warteschlange und das Prioritätssystem
Googlebot crawlt nicht alle Seiten gleich. Es pflegt eine Prioritätswarteschlange, die bestimmt, welche URLs zuerst gecrawlt und wie oft sie erneut besucht werden. Seiten, die sich häufig ändern, mehr interne Links erhalten oder höhere Autorität haben, werden öfter gecrawlt.
Ihre Startseite wird möglicherweise mehrmals täglich gecrawlt. Kategorie-Hauptseiten werden täglich oder alle paar Tage gecrawlt. Einzelne Produktseiten tiefer in der Seitenstruktur werden möglicherweise nur alle paar Wochen gecrawlt. Für ein saisonales Produkt, das gerade gestartet wurde, kann diese Verzögerung bedeuten, dass wochenlang potentieller Suchtraffic verpasst wird.
Wir können die Crawl-Priorität durch interne Verlinkung beeinflussen. Eine Produktseite, die von Ihrer Startseite, einer Kategorieseite und drei Blogbeiträgen verlinkt wird, wird früher und häufiger gecrawlt als eine, die nur über zwei Ebenen der Kategorienavigation erreichbar ist. Deshalb ist strategische interne Verlinkung eine der wirkungsvollsten SEO-Taktiken für Shops.
Prüfen Sie Ihre Crawl-Statistiken in der Google Search Console unter Einstellungen > Crawling-Statistiken. Wenn die durchschnittliche Antwortzeit 500 ms überschreitet, kann Ihre Servergeschwindigkeit begrenzen, wie viele Seiten Googlebot pro Tag crawlt.
JavaScript-Rendering und Ecommerce-Plattformen
Viele moderne Ecommerce-Plattformen verwenden JavaScript, um Produktinformationen, Preise und Bewertungen zu laden. Shopify-Themes, React-basierte Headless-Shops und einige WooCommerce-Setups verlassen sich stark auf clientseitiges Rendering. Das schafft eine Herausforderung, weil Googlebot in zwei Phasen crawlt.
In der ersten Phase ruft Googlebot das rohe HTML ab. Wenn Ihr Produkttitel, Ihre Beschreibung und Ihr Preis über JavaScript nach dem Seitenrendering geladen werden, liefert dieser erste HTML-Abruf eine leere Hülle. Google reiht die Seite dann für eine zweite Rendering-Phase ein, in der JavaScript ausgeführt wird. Diese Rendering-Warteschlange kann Tage oder sogar Wochen Verzögerung hinzufügen, bevor Google Ihren tatsächlichen Inhalt sieht.
Shopify-Shops, die das Standard-Liquid-Templating-System verwenden, vermeiden dieses Problem generell, da Produktdaten serverseitig gerendert werden. Aber Shops, die Headless-Commerce-Setups mit Frameworks wie Next.js oder Nuxt verwenden, müssen serverseitiges Rendering (SSR) oder statische Seitengenerierung (SSG) implementieren, um sicherzustellen, dass Googlebot den Produktinhalt beim ersten Abruf sieht.
Wir haben Shops auditiert, bei denen 30 % der Produktseiten nicht indexiert waren, weil das Produkt-Schema-Markup, die Bewertungen und sogar der Produkttitel alle über JavaScript geladen wurden, das Googlebot nicht rendern konnte. Der Wechsel zu serverseitigem Rendering hat die Indexierung innerhalb von drei Wochen korrigiert.
XML-Sitemaps für die Produktentdeckung
Eine XML-Sitemap ist eine Datei, die die URLs auflistet, die Google kennen soll. Für Ecommerce-Seiten dienen Sitemaps als direkter Kanal, um Google mitzuteilen, welche Seiten existieren, wann sie zuletzt aktualisiert wurden und wie häufig sie sich ändern.
Eine gut strukturierte Ecommerce-Sitemap-Strategie verwendet mehrere Sitemap-Dateien. Eine Sitemap für Produktseiten, eine weitere für Kategorieseiten, eine für Blog-Inhalte und eine für statische Seiten wie Ihre Über-uns-Seite und Versandrichtlinie. Diese Trennung ermöglicht es Ihnen, die Indexierung nach Seitentyp in der Search Console zu überwachen.
Wir empfehlen typischerweise, nur kanonische, indexierbare Seiten in Ihre Sitemaps aufzunehmen. Gefilterte URLs, nicht vorrätige Produktseiten, die auf noindex gesetzt sind, und paginierte Listenseiten jenseits von Seite eins sollten ausgeschlossen werden. Eine Sitemap, die 200.000 URLs auflistet, obwohl nur 30.000 indexierbar sind, sendet ein verwirrendes Signal an Google über die Qualität Ihrer Website.
Die meisten Ecommerce-Plattformen generieren Sitemaps automatisch. Shopify erstellt eine sitemap.xml, die Produkte, Kollektionen, Seiten und Blogbeiträge enthält. WooCommerce mit Yoast SEO oder RankMath generiert Sitemaps mit mehr Konfigurationsoptionen. Unabhängig von der Plattform sollten Sie Ihre Sitemap monatlich überprüfen, um sicherzustellen, dass sie Ihre aktuelle Seitenstruktur widerspiegelt.
Reichen Sie Ihre Sitemaps in der Google Search Console ein und prüfen Sie den Abdeckungsbericht nach zwei Wochen. Wenn das Verhältnis von indexierten zu eingereichten Seiten unter 70 % liegt, untersuchen Sie, warum Google sich entscheidet, einen erheblichen Teil Ihrer eingereichten URLs nicht zu indexieren.
Interne Links als Entdeckungspfade
Während Sitemaps Google mitteilen, dass Seiten existieren, zeigen interne Links Google, wie diese Seiten zueinander in Beziehung stehen und welche am wichtigsten sind. Eine Produktseite mit 50 internen Links, die auf sie verweisen, hat mehr Crawl-Priorität als eine mit nur 2.
Kategorieseiten sind das Rückgrat der internen Verlinkung für Ecommerce. Jede Kategorieseite verlinkt auf Dutzende von Produkten und gibt dabei Crawl-Priorität und Ranking-Signale an diese Produktseiten weiter. Gut strukturierte Breadcrumb-Navigation fügt eine weitere Ebene interner Links hinzu und verbindet Produkte zurück mit ihren übergeordneten Kategorien und der Startseite.
Cross-Selling- und verwandte Produktbereiche schaffen laterale interne Links zwischen Produkten. Wenn eine Produktseite für Laufschuhe auf verwandte Schnürsenkel, Einlegesohlen und Socken verlinkt, helfen diese Verbindungen Googlebot, mehr von Ihrem Katalog zu entdecken, während sie gleichzeitig Link-Equity über Ihren Shop verteilen.
Verwaiste Seiten sind der Feind der Entdeckung. Eine verwaiste Seite hat keine internen Links, die auf sie verweisen. Sie existiert möglicherweise in Ihrer Sitemap, aber wenn Googlebot sie nicht durch Folgen von Links von einer anderen Seite erreichen kann, signalisiert das geringe Wichtigkeit. Wir finden häufig verwaiste Produktseiten in Shops, die ihre Kategorien umstrukturiert haben, ohne die internen Links zu aktualisieren.
Häufige Entdeckungsprobleme im Ecommerce
Das häufigste Entdeckungsproblem, das wir sehen, sind Shops, die Googlebot den Zugriff auf wesentliche Ressourcen in ihrer robots.txt-Datei blockieren. Einige WooCommerce-Installationen blockieren das /wp-admin/-Verzeichnis, was korrekt ist, aber versehentlich auch CSS- und JavaScript-Dateien blockieren, die Googlebot zum korrekten Rendern von Seiten benötigt.
Ein weiteres häufiges Problem sind endlose Crawl-Fallen durch facettierte Navigation. Ein Bekleidungsgeschäft, das Benutzern erlaubt, Größe, Farbe, Material, Marke und Preisfilter zu kombinieren, kann Millionen einzigartiger URLs erzeugen. Ohne angemessene Kontrollen kann Googlebot sein gesamtes Crawl-Budget damit verbringen, diese Filterkombinationen zu erkunden, während es nie tiefe Produktseiten erreicht.
Session-basierte URLs verursachen ebenfalls Probleme. Einige Ecommerce-Plattformen hängen Session-IDs oder Tracking-Parameter an URLs an, wodurch Tausende scheinbar doppelter Seiten entstehen. Jeder Besuch von Googlebot generiert eine neue URL-Variante, die Crawl-Budget für Seiten verschwendet, die alle identischen Inhalt haben.
Paginierung kann die Entdeckung ebenfalls verlangsamen. Wenn Ihre Kategorieseite 500 Produkte auf 25 paginierten Seiten auflistet, muss Googlebot durch Seite 1, Seite 2, Seite 3 und so weiter crawlen, um alle Produkte zu entdecken. Produkte auf Seite 20 benötigen möglicherweise deutlich länger für Entdeckung und Indexierung als solche auf Seite 1.
Kostenlose Tools & Ressourcen
Arbeiten Sie mit SEO-Experten zusammen, die E-Commerce verstehen
Die weltweit erste von E-Com-Gründern aufgebaute SEO-Agentur