Technisches SEO
12 Min. LesezeitTechnische SEO-Analyse für Ecommerce
Technische SEO-Probleme vernichten Rankings, bevor man andere Optimierungen vornehmen kann. Dieser Leitfaden behandelt strukturelle Probleme vieler Shops — verschwendetes Crawl-Budget, Facettennavigation, Duplicate Content und Core Web Vitals — mit konkreten Lösungsschritten.
In this guide
- 1. Crawl-Budget: Googles Aufmerksamkeit nicht verschwenden
- 2. Facettennavigation: Das größte technische Problem im E-Commerce
- 3. Produktvarianten und Duplicate Content
- 4. Ladegeschwindigkeit und Core Web Vitals für E-Commerce
- 5. Crawl-Fehler in der Google Search Console diagnostizieren
- 6. Strukturierte Daten für E-Commerce
Crawl-Budget: Googles Aufmerksamkeit nicht verschwenden
Google crawlt nicht jeden Tag jede Seite deines Shops. Googlebot erhält ein Crawl-Budget, also eine grobe Obergrenze, wie viele Seiten pro Zeitraum gecrawlt werden. Bei Shops mit einigen hundert Produkten ist das meist kein Problem. Bei Shops mit 10.000+ SKUs macht es einen großen Unterschied.
Das Problem: Die meisten E-Commerce-Plattformen erzeugen riesige Mengen wertloser URLs, zum Beispiel paginierte Kategorieseiten (/schuhe?seite=47), Filter- und Sortierkombinationen (/schuhe?sort=preis&farbe=rot&groesse=42), vergriffene Produktseiten und interne Suchergebnisse. Google crawlt all das statt deiner wirklich wichtigen Inhalte.
Was das Crawl-Budget in Onlineshops verbrennt
Paginierung ab Seite 3+, Facettennavigation-URLs, Session-IDs in URLs, ausverkaufte Seiten ohne Alternativen, interne Suchergebnisseiten (z. B. /suche?q=rote+schuhe) und Weiterleitungsketten. All das sollte konsequent blockiert oder mit noindex versehen werden.
Die Lösung beginnt an der Wurzel. Blockiere in der robots.txt URL-Muster, die Müllseiten erzeugen. Für Filter- und Sortierparameter: entweder Canonical-Tags setzen, die auf die Basis-Kategorieseite zeigen, oder rel="nofollow" auf Paginierungs- und Filterlinks verwenden, damit Googlebot sie gar nicht erst entdeckt. Prüfe regelmäßig den Coverage-Bericht in der Google Search Console. Er zeigt dir genau, welche URLs Google unnötig crawlt.
Produktvarianten und Duplicate Content
Ein Produkt mit 5 Farboptionen sollte eine indexierbare Seite haben, nicht fünf. Wenn jede Variante ihre eigene URL hat (/blauer-sneaker, /roter-sneaker, /gruener-sneaker) und jede Seite denselben Titel, dieselbe Beschreibung und denselben Inhalt trägt, nur mit ausgetauschtem Farbnamen, sieht Google fünf dünne Duplikate. Keine davon rankt gut.
Die Lösung sind Canonical-Tags. Jede Varianten-URL sollte einen Canonical setzen, der auf die Haupt-Produktseite zeigt. Die Hauptseite selbst sollte self-canonicalisierend sein. In Shopify werden Varianten-URLs standardmäßig als ?variant=12345 generiert. Shopifys eingebaute Canonical-Logik behandelt das, aber es lohnt sich zu prüfen, insbesondere bei stark angepassten Themes, ob der Canonical-Tag auf jeder Varianten-URL tatsächlich zur korrekten Produkt-URL auflöst.
Ladegeschwindigkeit und Core Web Vitals für E-Commerce
Google nutzt Core Web Vitals als Rankingfaktor. Die Schwellenwerte: LCP (Largest Contentful Paint) unter 2,5 Sekunden, CLS (Cumulative Layout Shift) unter 0,1 und INP (Interaction to Next Paint) unter 200 ms. Die meisten Onlineshops scheitern auf Mobilgeräten an mindestens einem dieser Werte, und genau dort misst Google.
Die größten LCP-Verursacher in Onlineshops sind unoptimierte Produktbilder. Ein 3 MB schweres JPEG als Hero-Bild auf einer Produktseite zerstört den LCP-Score. Lösung: WebP oder AVIF ausliefern, explizite width- und height-Attribute setzen, next/image oder eine entsprechende Bildoptimierungsschicht verwenden, und sicherstellen, dass das Haupt-Produktbild fetchpriority="high" trägt. Ahrefs Site Audit und PageSpeed Insights zeigen LCP-Elementprobleme klar auf.
CLS in Onlineshops entsteht meist durch spät ladende Elemente: ein Cookie-Banner, der Inhalte verschiebt, ein Bewertungs-Widget, das erst nach dem initialen Render lädt, oder dynamisch eingefügte Werbebanner. Reserviere Platz für diese Elemente mit min-height oder lade sie außerhalb des Hauptinhaltsbereichs.
INP ist die neueste Metrik und die schwierigste zu beheben. Sie misst, wie lange die Seite braucht, um auf Nutzerinteraktionen zu reagieren. In Onlineshops ist schweres JavaScript meist der Schuldige, besonders Drittanbieter-Skripte für Chat-Widgets, Retargeting-Pixel und Empfehlungsmaschinen. Verschiebe alle nicht kritischen Drittanbieter-Skripte mit defer. Nutze das Performance-Panel in Chrome DevTools, um herauszufinden, welche Skripte den Main Thread nach dem Seitenlade blockieren.
Wo du mit Core Web Vitals anfangen solltest
Öffne PageSpeed Insights für deine Startseite, deine wichtigste Kategorieseite und eine Produktseite. Schaue auf die Field Data (echte Nutzerdaten) statt nur auf den Lab-Score. Das ist das, was Google tatsächlich verwendet. Nutze dann Screaming Frogs Integration mit PageSpeed Insights, um CWV-Probleme in einem einzigen Crawl über die gesamte Website zu identifizieren.
Crawl-Fehler in der Google Search Console diagnostizieren
Der Coverage-Bericht in der Google Search Console macht Crawl-Probleme sichtbar. Er unterteilt URLs in: Indexiert, Nicht indexiert (mit Gründen), Fehler und Gültig mit Warnungen. Jede Kategorie sagt dir etwas anderes.
- —Soft 404s: Seiten, die einen HTTP-200-Status zurückgeben, aber eine 'keine Ergebnisse'- oder 'Produkt nicht verfügbar'-Meldung anzeigen. Google behandelt sie als gültige Seiten. Sie werden indexiert, liefern keinen Mehrwert und können still die Domain-Qualitätssignale belasten.
- —Weiterleitungsketten: URL A leitet zu URL B weiter, die zu URL C weiterleitet. Jeder Hop verwässert PageRank und verlangsamt das Crawling. Lösung: Alle internen Links direkt auf die finale Ziel-URL aktualisieren.
- —Gecrawlt, aber nicht indexiert: Google hat die Seite besucht, aber entschieden, sie nicht zu indexieren. Meist ein Qualitätssignal-Problem: dünner Inhalt, doppelter oder nahezu doppelter Content.
- —Entdeckt, aber nicht gecrawlt: Google hat die URL gefunden (über Sitemap oder internen Link), aber noch nicht abgerufen. Bei großen Websites deutet das auf eine Erschöpfung des Crawl-Budgets hin. Google stellt URLs in eine Warteschlange, die nie abgearbeitet wird.
Der produktivste Workflow: GSC-Coverage-Daten exportieren, einen vollständigen Crawl mit Screaming Frog durchführen und beide Quellen abgleichen. GSC zeigt, was Google sieht; Screaming Frog zeigt, was wirklich auf der Website ist. Seiten, die GSC als Soft 404 ausweist, aber Screaming Frog mit echtem Inhalt findet, haben meist ein Content-Rendering-Problem, also JavaScript, das für Googlebot nicht geladen wird.
Strukturierte Daten für E-Commerce
Strukturierte Daten verbessern Rankings nicht direkt, beeinflussen aber, wie deine Seiten in den Suchergebnissen aussehen. Für E-Commerce ist das wichtiger als in den meisten anderen Bereichen, weil Product-Schema Rich Results mit Preis, Verfügbarkeit und Sternbewertungen direkt in der SERP ermöglicht. Das erhöht die Klickrate spürbar, besonders bei wettbewerbsintensiven Shopping-Suchanfragen, wo organische Ergebnisse unter einer Wand von Shopping-Anzeigen liegen.
Jede Produktseite braucht Product-Schema mit mindestens: name, image, description, sku, brand, offers (mit price, priceCurrency, availability und url). Wenn die Seite Bewertungen hat, kommt AggregateRating hinzu. Ohne es erscheinen deine Bewertungssterne nicht in den Suchergebnissen, selbst wenn die Bewertungen auf der Seite sind.
BreadcrumbList-Schema wird unterschätzt
BreadcrumbList-Schema auf jeder Seite sagt Google deine Site-Struktur und sorgt oft dafür, dass Breadcrumb-Pfade in den Suchergebnissen statt nackter URLs erscheinen. Das verbessert die CTR und hilft Google, die Hierarchie zwischen Kategorie- und Produktseiten zu verstehen. Es dauert 30 Minuten, das site-weit zu implementieren, und zahlt sich jahrelang aus.
Arbeiten Sie mit SEO-Experten zusammen, die E-Commerce verstehen
Die weltweit erste von E-Com-Gründern aufgebaute SEO-Agentur