Technisches SEO

12 Min. Lesezeit

Technische SEO-Analyse für Ecommerce

Technische SEO-Probleme vernichten Rankings, bevor man andere Optimierungen vornehmen kann. Dieser Leitfaden behandelt strukturelle Probleme vieler Shops — verschwendetes Crawl-Budget, Facettennavigation, Duplicate Content und Core Web Vitals — mit konkreten Lösungsschritten.

Crawl-Budget: Googles Aufmerksamkeit nicht verschwenden

Google crawlt nicht jeden Tag jede Seite deines Shops. Googlebot erhält ein Crawl-Budget, also eine grobe Obergrenze, wie viele Seiten pro Zeitraum gecrawlt werden. Bei Shops mit einigen hundert Produkten ist das meist kein Problem. Bei Shops mit 10.000+ SKUs macht es einen großen Unterschied.

Das Problem: Die meisten E-Commerce-Plattformen erzeugen riesige Mengen wertloser URLs, zum Beispiel paginierte Kategorieseiten (/schuhe?seite=47), Filter- und Sortierkombinationen (/schuhe?sort=preis&farbe=rot&groesse=42), vergriffene Produktseiten und interne Suchergebnisse. Google crawlt all das statt deiner wirklich wichtigen Inhalte.

Was das Crawl-Budget in Onlineshops verbrennt

Paginierung ab Seite 3+, Facettennavigation-URLs, Session-IDs in URLs, ausverkaufte Seiten ohne Alternativen, interne Suchergebnisseiten (z. B. /suche?q=rote+schuhe) und Weiterleitungsketten. All das sollte konsequent blockiert oder mit noindex versehen werden.

Die Lösung beginnt an der Wurzel. Blockiere in der robots.txt URL-Muster, die Müllseiten erzeugen. Für Filter- und Sortierparameter: entweder Canonical-Tags setzen, die auf die Basis-Kategorieseite zeigen, oder rel="nofollow" auf Paginierungs- und Filterlinks verwenden, damit Googlebot sie gar nicht erst entdeckt. Prüfe regelmäßig den Coverage-Bericht in der Google Search Console. Er zeigt dir genau, welche URLs Google unnötig crawlt.

Facettennavigation: Das größte technische Problem im E-Commerce

Facettennavigation (die Filtersidebars, mit denen Käufer nach Größe, Farbe, Marke und Preis eingrenzen) ist eines der nützlichsten UX-Features in Onlineshops. Gleichzeitig ist sie, wenn sie unkonfiguriert bleibt, fast immer eine SEO-Katastrophe.

Jede Filterkombination erzeugt eine neue URL. Eine Kategorie mit 200 Produkten, 5 Farben, 8 Größen und 3 Preisspannen kann Zehntausende einzigartiger URL-Kombinationen produzieren. Die meisten enthalten keine einzigartigen Inhalte. Sie sind dünn duplizierte Varianten der Basis-Kategorieseite. Google indexiert sie, verteilt die Link-Equity darüber, und das Ranking der Kategorieseite leidet.

Tip

Die richtige Lösung hängt davon ab, was gefiltert wird. Filter, die echte Suchanfragen repräsentieren, wie /laufschuhe/damen oder /sofas/grau, sollten eigene indexierbare Seiten mit einzigartigem Inhalt erhalten. Reine UX-Filter (Sortierreihenfolge, Seitenzahl, Verfügbarkeits-Toggle) sollten vollständig von der Indexierung ausgeschlossen werden.

In der Praxis: Füge auf jeder Filter-URL einen Canonical-Tag hinzu, der zur Basis-Kategorieseite zeigt. Oder nutze, wenn die Plattform es unterstützt, JavaScript-basierte URL-Updates, damit Filter den Seitenzustand ändern, ohne serverseitig neue URLs zu erzeugen. Shopify löst das von Haus aus schlecht: Die Standard-Facettensuche erstellt für jeden Filter vollständig indexierbare URLs. Das muss manuell oder über eine Theme-Anpassung behoben werden.

Nutze Screaming Frog, um deinen Shop zu crawlen und URLs nach Template zu zählen. Wenn deine Kategorieseite 12 echte Unterseiten hat, Screaming Frog aber 4.000 URLs mit diesem Kategoriepfad findet, liegt ein Facettennavigationsproblem vor.

Produktvarianten und Duplicate Content

Ein Produkt mit 5 Farboptionen sollte eine indexierbare Seite haben, nicht fünf. Wenn jede Variante ihre eigene URL hat (/blauer-sneaker, /roter-sneaker, /gruener-sneaker) und jede Seite denselben Titel, dieselbe Beschreibung und denselben Inhalt trägt, nur mit ausgetauschtem Farbnamen, sieht Google fünf dünne Duplikate. Keine davon rankt gut.

Die Lösung sind Canonical-Tags. Jede Varianten-URL sollte einen Canonical setzen, der auf die Haupt-Produktseite zeigt. Die Hauptseite selbst sollte self-canonicalisierend sein. In Shopify werden Varianten-URLs standardmäßig als ?variant=12345 generiert. Shopifys eingebaute Canonical-Logik behandelt das, aber es lohnt sich zu prüfen, insbesondere bei stark angepassten Themes, ob der Canonical-Tag auf jeder Varianten-URL tatsächlich zur korrekten Produkt-URL auflöst.

Alle Produktvarianten-URL-Muster mit Screaming Frog identifizieren
Bestätigen, dass jede Varianten-URL einen Canonical zur Haupt-Produktseite hat
Prüfen, dass die Haupt-Produkt-URL einen selbstreferenzierenden Canonical hat
In der Google Search Console verifizieren, dass nur die Haupt-Produkt-URL indexiert ist
Standalone-Variantenseiten, die ohne Canonicals indexiert wurden, entfernen oder weiterleiten

Ladegeschwindigkeit und Core Web Vitals für E-Commerce

Google nutzt Core Web Vitals als Rankingfaktor. Die Schwellenwerte: LCP (Largest Contentful Paint) unter 2,5 Sekunden, CLS (Cumulative Layout Shift) unter 0,1 und INP (Interaction to Next Paint) unter 200 ms. Die meisten Onlineshops scheitern auf Mobilgeräten an mindestens einem dieser Werte, und genau dort misst Google.

Die größten LCP-Verursacher in Onlineshops sind unoptimierte Produktbilder. Ein 3 MB schweres JPEG als Hero-Bild auf einer Produktseite zerstört den LCP-Score. Lösung: WebP oder AVIF ausliefern, explizite width- und height-Attribute setzen, next/image oder eine entsprechende Bildoptimierungsschicht verwenden, und sicherstellen, dass das Haupt-Produktbild fetchpriority="high" trägt. Ahrefs Site Audit und PageSpeed Insights zeigen LCP-Elementprobleme klar auf.

Tip

CLS in Onlineshops entsteht meist durch spät ladende Elemente: ein Cookie-Banner, der Inhalte verschiebt, ein Bewertungs-Widget, das erst nach dem initialen Render lädt, oder dynamisch eingefügte Werbebanner. Reserviere Platz für diese Elemente mit min-height oder lade sie außerhalb des Hauptinhaltsbereichs.

INP ist die neueste Metrik und die schwierigste zu beheben. Sie misst, wie lange die Seite braucht, um auf Nutzerinteraktionen zu reagieren. In Onlineshops ist schweres JavaScript meist der Schuldige, besonders Drittanbieter-Skripte für Chat-Widgets, Retargeting-Pixel und Empfehlungsmaschinen. Verschiebe alle nicht kritischen Drittanbieter-Skripte mit defer. Nutze das Performance-Panel in Chrome DevTools, um herauszufinden, welche Skripte den Main Thread nach dem Seitenlade blockieren.

Wo du mit Core Web Vitals anfangen solltest

Öffne PageSpeed Insights für deine Startseite, deine wichtigste Kategorieseite und eine Produktseite. Schaue auf die Field Data (echte Nutzerdaten) statt nur auf den Lab-Score. Das ist das, was Google tatsächlich verwendet. Nutze dann Screaming Frogs Integration mit PageSpeed Insights, um CWV-Probleme in einem einzigen Crawl über die gesamte Website zu identifizieren.

Crawl-Fehler in der Google Search Console diagnostizieren

Der Coverage-Bericht in der Google Search Console macht Crawl-Probleme sichtbar. Er unterteilt URLs in: Indexiert, Nicht indexiert (mit Gründen), Fehler und Gültig mit Warnungen. Jede Kategorie sagt dir etwas anderes.

  • Soft 404s: Seiten, die einen HTTP-200-Status zurückgeben, aber eine 'keine Ergebnisse'- oder 'Produkt nicht verfügbar'-Meldung anzeigen. Google behandelt sie als gültige Seiten. Sie werden indexiert, liefern keinen Mehrwert und können still die Domain-Qualitätssignale belasten.
  • Weiterleitungsketten: URL A leitet zu URL B weiter, die zu URL C weiterleitet. Jeder Hop verwässert PageRank und verlangsamt das Crawling. Lösung: Alle internen Links direkt auf die finale Ziel-URL aktualisieren.
  • Gecrawlt, aber nicht indexiert: Google hat die Seite besucht, aber entschieden, sie nicht zu indexieren. Meist ein Qualitätssignal-Problem: dünner Inhalt, doppelter oder nahezu doppelter Content.
  • Entdeckt, aber nicht gecrawlt: Google hat die URL gefunden (über Sitemap oder internen Link), aber noch nicht abgerufen. Bei großen Websites deutet das auf eine Erschöpfung des Crawl-Budgets hin. Google stellt URLs in eine Warteschlange, die nie abgearbeitet wird.

Der produktivste Workflow: GSC-Coverage-Daten exportieren, einen vollständigen Crawl mit Screaming Frog durchführen und beide Quellen abgleichen. GSC zeigt, was Google sieht; Screaming Frog zeigt, was wirklich auf der Website ist. Seiten, die GSC als Soft 404 ausweist, aber Screaming Frog mit echtem Inhalt findet, haben meist ein Content-Rendering-Problem, also JavaScript, das für Googlebot nicht geladen wird.

Strukturierte Daten für E-Commerce

Strukturierte Daten verbessern Rankings nicht direkt, beeinflussen aber, wie deine Seiten in den Suchergebnissen aussehen. Für E-Commerce ist das wichtiger als in den meisten anderen Bereichen, weil Product-Schema Rich Results mit Preis, Verfügbarkeit und Sternbewertungen direkt in der SERP ermöglicht. Das erhöht die Klickrate spürbar, besonders bei wettbewerbsintensiven Shopping-Suchanfragen, wo organische Ergebnisse unter einer Wand von Shopping-Anzeigen liegen.

Jede Produktseite braucht Product-Schema mit mindestens: name, image, description, sku, brand, offers (mit price, priceCurrency, availability und url). Wenn die Seite Bewertungen hat, kommt AggregateRating hinzu. Ohne es erscheinen deine Bewertungssterne nicht in den Suchergebnissen, selbst wenn die Bewertungen auf der Seite sind.

BreadcrumbList-Schema wird unterschätzt

BreadcrumbList-Schema auf jeder Seite sagt Google deine Site-Struktur und sorgt oft dafür, dass Breadcrumb-Pfade in den Suchergebnissen statt nackter URLs erscheinen. Das verbessert die CTR und hilft Google, die Hierarchie zwischen Kategorie- und Produktseiten zu verstehen. Es dauert 30 Minuten, das site-weit zu implementieren, und zahlt sich jahrelang aus.

Product-Schema auf jeder Produktseite (Name, Bild, Preis, Verfügbarkeit, SKU, Marke)
AggregateRating innerhalb des Product-Schemas auf jeder Seite mit Bewertungen
BreadcrumbList auf allen Kategorie- und Produktseiten
Alle strukturierten Daten mit dem Rich Results Test von Google validieren
Rich-Result-Performance in der GSC unter Verbesserungen überwachen
Auf strukturierte Datenfehler in der GSC achten. Fehlende Pflichtfelder lassen Rich Results still verschwinden

Arbeiten Sie mit SEO-Experten zusammen, die E-Commerce verstehen

Die weltweit erste von E-Com-Gründern aufgebaute SEO-Agentur

Technisches SEO für Ecommerce | EcomSEO Leitfäden