Zuruck zu Artikeln
Technik

Technisches SEO für Ecommerce: Wichtige Probleme beheben

Beheben Sie die technischen SEO-Probleme, die Onlineshops am Ranking hindern. Behandelt Crawl-Budget, Seitengeschwindigkeit, Canonicals, Sitemaps und Core Web Vitals.

von Fabian van Til14 Min. Lesezeit

Technisches SEO ist das Fundament, das Sie nicht überspringen können

Sie können die besten Produktbeschreibungen Ihrer Branche schreiben und Links von jeder großen Publikation aufbauen. Nichts davon zählt, wenn Google Ihre Seiten nicht richtig crawlen und indexieren kann. Technisches SEO ist das Fundament, auf dem alles andere aufbaut, und Onlineshops haben mehr technische Komplexität als fast jede andere Art von Website.

Eine typische Content-Website hat ein paar hundert Seiten mit einer einfachen Struktur. Ein Onlineshop kann 50.000 URLs haben, verteilt auf Produkte, Kategorien, Filterkombinationen, Paginierung und interne Suchergebnisse. Jede dieser URLs ist ein potenzielles Problem, wenn sie nicht korrekt gehandhabt wird. Crawl-Budget wird für Müll-URLs verschwendet. Duplicate Content verwirrt Google darüber, welche Seite ranken soll. Langsame Ladezeiten treiben Kunden weg, bevor sie Ihre Produkte überhaupt sehen.

Wir auditieren jedes Jahr Dutzende Onlineshops, und technische Probleme sind der Hauptgrund, warum Shops in der organischen Suche unterdurchschnittlich abschneiden. Nicht schwacher Content. Nicht zu wenige Links. Technische Probleme, die Google daran hindern, seine Arbeit zu tun. Die gute Nachricht: Das Beheben technischer Probleme bringt oft die schnellsten und messbarsten SEO-Gewinne. Wir haben Shops gesehen, die innerhalb von 6 Wochen nach Beseitigung großer technischer Schulden 20-40 % mehr organischen Traffic verzeichneten. Unser Leitfaden zum Ecommerce-SEO-Audit erklärt genau, wie Sie diese Probleme finden.

Crawl-Budget-Management für große Kataloge

Google weist jeder Website ein Crawl-Budget zu. Das ist die Anzahl der Seiten, die Googlebot in einem bestimmten Zeitraum crawlt. Für kleine Websites mit ein paar hundert Seiten spielt das Crawl-Budget keine Rolle. Für Onlineshops mit Zehntausenden URLs ist es eine echte Einschränkung.

Das Problem ist nicht, dass Google Ihre Website nicht crawlt. Das Problem ist, was Google zum Crawlen auswählt. Wenn Ihre Website 50.000 URLs hat, aber nur 5.000 wertvoll sind (Produkte und Kategorien), und die anderen 45.000 Filterkombinationen, interne Suchergebnisse und Parametervarianten sind, verbringt Google möglicherweise den Großteil seines Crawl-Budgets mit den Müll-URLs. Ihre eigentlichen Produktseiten werden seltener gecrawlt, was bedeutet, dass sie langsamer indexiert werden und Aktualisierungen länger brauchen, um in den Suchergebnissen zu erscheinen.

Beginnen Sie damit zu prüfen, was Google tatsächlich crawlt. Überprüfen Sie in der Google Search Console den Crawl-Statistiken-Bericht unter Einstellungen. Schauen Sie auf die pro Tag gecrawlten Seiten und die Statuscodes. Wenn ein hoher Prozentsatz der gecrawlten URLs 404-Fehler oder Weiterleitungen zurückgibt, ist das verschwendetes Budget. Prüfen Sie dann Ihre Server-Logs, falls verfügbar. Server-Logs zeigen Ihnen jede einzelne URL, die Googlebot anfordert, was das genaueste Bild des Crawl-Verhaltens liefert.

Blockieren Sie verschwenderische URLs über die robots.txt vom Crawlen. Häufig zu blockierende URLs bei Onlineshops: interne Suchergebnisseiten (/search?q=), Warenkorb- und Checkout-URLs (/cart, /checkout), Account-Seiten (/account, /login) und Filterparameter-Kombinationen (/category?color=rot&size=m). Achten Sie darauf, keine CSS-, JavaScript- oder Bilddateien zu blockieren, die Googlebot zum Rendern benötigt.

Bereinigen Sie Ihren URL-Raum. Wenn die facettierte Navigation 200.000 Parameter-URLs erzeugt hat, müssen diese entweder in der robots.txt blockiert oder mit Noindex-Tags versehen werden. Wenn Ihre Plattform Session-IDs in URLs generiert, müssen diese entfernt oder kanonisiert werden. Das Ziel ist, den gesamten crawlbaren URL-Raum auf nur die Seiten zu reduzieren, die Sie tatsächlich indexiert haben wollen. Unser Indexierbarkeits-Checker hilft Ihnen zu überprüfen, welche Seiten Google tatsächlich sehen kann. Bei einem kürzlichen Audit fanden wir einen Modehändler mit 380.000 indexierten URLs für einen Shop mit 4.200 Produkten. Nach der Bereinigung von Filter-URLs, Session-Parametern und verwaisten Seiten reduzierten wir den Index auf 12.000 URLs. Der organische Traffic stieg innerhalb von sechs Wochen um 28 %, weil Googlebot endlich sein Crawl-Budget für die richtigen Seiten einsetzte.

Geschwindigkeitsoptimierung für Ecommerce-Websites

Seitengeschwindigkeit ist ein direkter und indirekter Rankingfaktor. Google nutzt Core Web Vitals als Rankingsignal. Aber Geschwindigkeit beeinflusst auch Absprungrate und Conversion-Rate, die Rankings über Nutzerverhaltens-Signale beeinflussen. Eine Verzögerung von 1 Sekunde bei der Ladezeit kann die Conversions laut Akamai um 7 % reduzieren.

Beginnen Sie mit den großen Gewinnen. Bildoptimierung ist fast immer die größte einzelne Geschwindigkeitsverbesserung für Onlineshops. Konvertieren Sie Bilder in WebP, komprimieren Sie sie und liefern Sie sie in den korrekten Abmessungen für jedes Gerät. Wenn Ihre Produktbilder durchschnittlich 500 KB groß sind und Sie sie auf 80 KB reduzieren, sind das 84 % weniger Bildlast über die gesamte Website.

Aktivieren Sie Browser-Caching und CDN-Auslieferung. Ein Content Delivery Network liefert Ihre statischen Assets (Bilder, CSS, JavaScript) von Servern, die dem Nutzer physisch nahe sind. Das reduziert die Latenz von 200-500 ms auf einem einzelnen Origin-Server auf 20-50 ms von einem CDN-Edge-Node. Cloudflare, Fastly und AWS CloudFront funktionieren alle gut für Ecommerce.

Minimieren Sie render-blockierende Ressourcen. Wenn Ihre Seite 15 JavaScript-Dateien und 8 CSS-Dateien lädt, bevor sie irgendeinen Content rendern kann, starrt der Nutzer 3-5 Sekunden auf einen leeren Bildschirm. Verschieben Sie nicht-kritisches JavaScript. Inlinen Sie kritisches CSS (die Styles für Above-the-Fold-Content) und laden Sie den Rest asynchron. Entfernen Sie ungenutztes CSS und JavaScript vollständig, wenn möglich.

Third-Party-Scripts sind ein häufiger Geschwindigkeitskiller bei Onlineshops. Chat-Widgets, Analytics-Tools, Retargeting-Pixel, Social-Share-Buttons und Bewertungs-Widgets fügen jeweils 100-500 ms zur Ladezeit hinzu. Auditieren Sie jedes Third-Party-Script. Entfernen Sie alle, die keinen aktiven Mehrwert bieten. Laden Sie die verbleibenden asynchron oder nachdem der Hauptinhalt gerendert wurde. Wir haben einen Shopify-Shop auditiert, der 23 Third-Party-Scripts auf jeder Seite lud. Nach dem Entfernen von 9 ungenutzten Scripts und dem Verschieben von 8 weiteren sank der LCP von 4,8 auf 2,1 Sekunden auf Mobilgeräten. Unser Shopify-SEO-Leitfaden behandelt plattformspezifische Geschwindigkeitsoptimierung im Detail.

Testen Sie die tatsächliche Nutzererfahrung, nicht nur Lab-Scores. PageSpeed Insights zeigt Lab-Daten (simuliert) und Feld-Daten (echte Nutzermessungen aus CrUX). Feld-Daten sind das, was Google für Ranking-Entscheidungen nutzt. Eine Seite kann in Lab-Tests 90 Punkte erzielen, aber in der Realität einen LCP von 4 Sekunden haben, aufgrund von Netzwerkbedingungen und Gerätefähigkeiten. Konzentrieren Sie sich auf die Feld-Daten und testen Sie auf Mobilgeräten, denn das nutzen die meisten Ihrer Kunden.

Mobile-First-Indexierung: Was Onlineshops falsch machen

Google verwendet seit 2023 die Mobile-First-Indexierung. Das bedeutet, Google crawlt und indexiert die mobile Version Ihrer Website, nicht die Desktop-Version. Wenn Ihrer mobilen Website Inhalte, Links oder strukturierte Daten fehlen, die auf der Desktop-Version vorhanden sind, sieht Google sie nicht.

Das häufigste Mobile-First-Problem, das wir bei Onlineshops finden, ist versteckter Content. Desktop-Versionen zeigen vollständige Produktbeschreibungen, Spezifikationen und Bewertungen im sichtbaren Seitenbereich. Mobile Versionen verstecken sie hinter Tabs, Akkordeons oder 'Mehr lesen'-Toggles, um Bildschirmplatz zu sparen. Google hat gesagt, dass es Content in Tabs und Akkordeons normal behandelt, aber unsere Tests zeigen, dass Content im primär sichtbaren Bereich besser performt als Content, der Interaktion erfordert.

Prüfen Sie, ob Ihre mobile Website alle Inhalte der Desktop-Website enthält. Führen Sie einen Side-by-Side-Vergleich mit der Chrome-DevTools-Geräteemulation durch. Überprüfen Sie, dass strukturierte Daten, Canonical Tags und Meta-Tags auf Mobil und Desktop identisch sind. Wenn Sie eine separate mobile Website nutzen (m.ihrshop.de), erwägen Sie die Migration zu einem responsiven Design, weil separate mobile Websites Wartungs- und Paritätsprobleme verursachen.

Mobile Usability-Probleme schaden Rankings direkt. Prüfen Sie den Bericht zur mobilen Nutzerfreundlichkeit in der Google Search Console auf Fehler. Häufige Probleme: Text zu klein zum Lesen (unter 16 px), klickbare Elemente zu nah beieinander (Buttons brauchen mindestens 48 px Tippziele mit 8 px Abstand), und Content breiter als der Bildschirm (horizontales Scrollen). Beheben Sie jeden Fehler, der in diesem Bericht gemeldet wird.

Testen Sie Ihren Checkout-Flow auf Mobilgeräten. Wenn der mobile Checkout Usability-Probleme hat (kleine Formularfelder, verwirrende Layouts, langsames Laden), leidet Ihre mobile Conversion-Rate. Google bemerkt, wenn Nutzer konsequent von Ihren Seiten auf Mobilgeräten abspringen, und das beeinflusst Ihre Rankings für mobile Suchanfragen, die 60-70 % des Ecommerce-Traffics ausmachen.

Canonical Tags und Duplicate Content

Duplicate Content ist das am weitesten verbreitete technische SEO-Problem im Ecommerce. Produkte, die in mehreren Kategorien erscheinen. Filter-URLs, die Varianten derselben Seite erzeugen. Produktvarianten mit separaten URLs. Paginierung, die ähnliche Seiten erstellt. HTTP- und HTTPS-Versionen. WWW- und Nicht-WWW-Versionen. Die Oberfläche für Duplicate Content in einem Onlineshop ist enorm.

Canonical Tags sind Ihre primäre Verteidigung. Jede indexierbare Seite sollte einen selbstreferenzierenden Canonical Tag im Head-Bereich haben. Bei Seiten mit mehreren URL-Varianten (wie Filter-URLs oder Varianten-URLs) sollte der Canonical auf die bevorzugte Version verweisen. Wenn /schuhe?farbe=blau und /schuhe?farbe=rot beide existieren, aber Sie wollen, dass /schuhe die indexierte Version ist, erhalten beide Parameter-URLs einen Canonical, der auf /schuhe verweist.

Häufige Canonical-Fehler, die wir regelmäßig beheben: Relative URLs statt absoluter URLs in Canonical Tags verwenden (nutzen Sie https://ihrshop.de/seite, nicht /seite). Alle paginierten Seiten auf Seite 1 kanonisieren (Seite 2 sollte auf Seite 2 kanonisiert sein, nicht auf Seite 1, weil sie verschiedene Produkte zeigen). Seiten auf URLs kanonisieren, die selbst Noindex haben oder weiterleiten (Canonical-Ketten). Widersprüchliche Signale, bei denen der Canonical eine Sache sagt, aber die Sitemap eine andere URL enthält.

Für Produktvarianten entscheiden Sie sich für eine Canonical-Strategie und wenden Sie sie konsequent an. Wenn jede Farbvariante eine separate URL hat, wählen Sie die beliebteste Farbe als Canonical. Oder kanonisieren Sie alle Varianten auf die Haupt-Produkt-URL ohne Farbparameter. Beide Ansätze funktionieren, aber das Mischen von Strategien über den Katalog hinweg erzeugt Verwirrung.

Auditieren Sie Ihre Canonicals vierteljährlich mit einem Crawler oder unserem Canonical-Tag-Checker. Suchen Sie nach Seiten ohne Canonical, Seiten mit falschem Canonical und Seiten, deren Canonical-URL einen Nicht-200-Statuscode zurückgibt. Bei einem kürzlichen Kunden-Audit fanden wir 1.200 Produktseiten, deren Canonicals auf gelöschte Produkte verwiesen. Jede dieser 1.200 Seiten sagte Google effektiv, sie zu ignorieren. Das Beheben dieser Canonicals stellte Rankings für Hunderte von Long-Tail-Produkt-Keywords wieder her.

XML-Sitemaps für große Ecommerce-Kataloge

Eine XML-Sitemap ist eine Wegkarte, die Google mitteilt, welche Seiten auf Ihrer Website existieren und welche am wichtigsten sind. Für Onlineshops mit Tausenden von Seiten kann eine gut strukturierte Sitemap die Geschwindigkeit, mit der neue Produkte entdeckt und indexiert werden, deutlich verbessern.

Teilen Sie Ihre Sitemap in mehrere Dateien nach Seitentyp auf. Erstellen Sie separate Sitemaps für Produktseiten, Kategorieseiten, Blogbeiträge und andere Inhaltsseiten. Das macht es einfacher, Indexierungsprobleme zu diagnostizieren (wenn Produkte nicht indexiert werden, können Sie speziell die Produkt-Sitemap prüfen) und hält jede Datei unter dem 50.000-URL/50-MB-Limit.

Nehmen Sie nur indexierbare, kanonische URLs in Ihre Sitemap auf. Keine URLs mit Noindex-Tags, keine URLs, die weiterleiten, keine von der robots.txt blockierten URLs und keine nicht-kanonischen URLs. Ihre Sitemap sollte eine saubere Liste jeder Seite sein, die Sie von Google indexiert haben möchten. Wenn Ihre Sitemap 80.000 URLs hat, aber nur 15.000 indexierbar sind, verliert Google das Vertrauen in die Genauigkeit Ihrer Sitemap und priorisiert das Crawlen möglicherweise herunter.

Verwenden Sie den Lastmod-Tag korrekt. Wenn Sie Produktpreise oder Verfügbarkeit täglich aktualisieren, sollten die Lastmod-Daten tatsächliche Änderungen widerspiegeln. Setzen Sie nicht alle Lastmod-Daten auf das heutige Datum, um Freshness-Signale zu manipulieren. Google hat bestätigt, dass sie Lastmod ignorieren, wenn die Daten unzuverlässig sind. Aber akkurate Lastmod-Daten helfen Google, das Crawlen kürzlich geänderter Seiten zu priorisieren.

Reichen Sie Ihre Sitemap in der Google Search Console ein und überwachen Sie die Index-Abdeckung. Der Sitemaps-Bericht zeigt, wie viele eingereichte URLs indexiert wurden. Wenn Sie 10.000 Produkt-URLs eingereicht haben und nur 6.000 indexiert sind, untersuchen Sie die fehlenden 4.000. Sie haben möglicherweise dünnen Content, Canonical-Probleme oder Qualitätsprobleme, die die Indexierung verhindern.

Für sehr große Shops (100.000+ Produkte) erwägen Sie die Verwendung von Sitemap-Index-Dateien und die dynamische Sitemap-Generierung. Statische Sitemaps, die bei jedem hinzugefügten oder entfernten Produkt manuell neu generiert werden müssen, werden immer veraltet sein. Die meisten Ecommerce-Plattformen haben Plugins oder integrierte Funktionen für die dynamische Sitemap-Generierung. Überprüfen Sie, dass Ihre neue Produkte tatsächlich innerhalb von 24 Stunden nach der Veröffentlichung aufnimmt.

Robots.txt-Konfiguration für Ecommerce

Ihre robots.txt-Datei ist ein grobes Instrument, aber ein wichtiges. Sie teilt Crawlern mit, welche Teile Ihrer Website sie meiden sollen, und eine falsche Konfiguration kann entweder Crawl-Budget verschwenden (zu permissiv) oder wichtige Seiten blockieren (zu restriktiv).

Eine gute Ecommerce-robots.txt blockiert: interne Suchergebnisse (/search), Warenkorb- und Checkout-Seiten (/cart, /checkout, /account), Admin- und Staging-Bereiche, Tag-Seiten, die die Kategoriefunktionalität duplizieren, und gängige Parametermuster, die Müll-URLs erzeugen. Sie erlaubt: alle Produktseiten, Kategorieseiten, Inhaltsseiten, CSS- und JavaScript-Dateien (Google braucht diese zum Rendern) und Bilder.

Hier ist ein Fehler, der Shops teuer zu stehen kommt: JavaScript- oder CSS-Dateien in der robots.txt blockieren. Manche Entwickler blockieren /assets/- oder /static/-Verzeichnisse, um Crawler von Template-Dateien fernzuhalten. Aber Google muss Ihr CSS und JavaScript laden, um Ihre Seiten zu rendern. Wenn Googlebot eine Seite nicht rendern kann, kann er den Content nicht richtig bewerten, und Rankings leiden. Testen Sie Ihre robots.txt mit dem URL-Inspection-Tool in der Search Console. Wenn Google die Seite nicht korrekt rendern kann, haben Sie wahrscheinlich etwas Benötigtes blockiert.

Verwenden Sie die Disallow-Direktive vorsichtig. Ein Disallow für /schuhe/ blockiert /schuhe/, /schuhe/nike/, /schuhe/sale/ und jede URL, die mit /schuhe/ beginnt. Wenn Sie nur /schuhe/interner-bericht/ blockieren wollten, aber Disallow: /schuhe/ geschrieben haben, haben Sie gerade Ihre gesamte Schuhe-Kategorie blockiert. Testen Sie Ihre robots.txt-Änderungen immer mit Googles robots.txt-Tester oder unserem Robots.txt-Analyzer, bevor Sie sie live schalten.

Fügen Sie am Ende Ihrer robots.txt eine Sitemap-Direktive hinzu, die auf Ihre XML-Sitemap (oder Sitemap-Index) verweist. Das hilft Crawlern, Ihre Sitemap zu finden, auch wenn sie noch nicht in der Google Search Console waren. Das Format ist einfach: Sitemap: https://ihrshop.de/sitemap.xml.

Structured-Data-Implementierung im großen Maßstab

Strukturierte Daten (Schema-Markup) helfen Google zu verstehen, was Ihre Seiten enthalten, und können Rich Results generieren, die die Click-Through-Rates aus der Suche verbessern. Für Ecommerce sind die relevanten Schema-Typen Product, BreadcrumbList, FAQPage, Organization und möglicherweise LocalBusiness, wenn Sie physische Geschäfte haben.

Die Implementierung von Schema im großen Maßstab erfordert einen Template-basierten Ansatz. Sie können nicht manuell Schema für 5.000 Produktseiten programmieren. Bauen Sie stattdessen Schema-Templates in Ihre Seiten-Templates ein und befüllen Sie sie dynamisch aus Ihren Produktdaten. Ihr Produkt-Template sollte Name, Preis, Verfügbarkeit, SKU, Marke, Bilder und Bewertungsdaten direkt aus Ihrer Produktdatenbank ziehen und als JSON-LD im Seiten-Head ausgeben.

JSON-LD ist das empfohlene Format gegenüber Microdata oder RDFa. Es steht in einem Script-Tag im Head oder Body der Seite und ist einfacher zu implementieren, debuggen und pflegen. Google empfiehlt JSON-LD ausdrücklich für die meisten Schema-Typen. Platzieren Sie den JSON-LD-Script-Tag im Head-Bereich für die schnellste Verarbeitung. Unser Schema-Generator-Tool erstellt gültiges JSON-LD für Product, BreadcrumbList und andere Ecommerce-Schema-Typen.

Testen Sie auf Template-Ebene, nicht nur auf Seitenebene. Wenn Ihr Produkt-Schema-Template einen Fehler hat, betrifft er jede Produktseite. Führen Sie den Rich-Results-Test für ein Produkt aus jeder Template-Variante durch. Überwachen Sie dann den Bereich Verbesserungen in der Search Console auf siteweite Probleme. Häufige Fehler: fehlende Pflichtfelder (wie Bild oder Angebote), ungültige Werte (ein Preis von '0,00 €' bei einem Produkt, das eigentlich 49,99 € kostet), und Markup, das nicht mit dem sichtbaren Seiteninhalt übereinstimmt. Lassen Sie Ihre Seiten durch unseren Schema-Validator laufen, um Probleme zu erkennen, bevor sie Ihre Rich Results beeinträchtigen.

Gehen Sie über die Grundlagen hinaus. Product-Schema mit nur Name und Preis ist in Ordnung, aber das Hinzufügen von AggregateRating, Review, Marke, GTIN und detaillierten Angebotsdaten (einschließlich Versand- und Rückgaberichtlinien) gibt Ihnen reichhaltigere Suchergebnisse. Breadcrumb-Schema auf jeder Seite ersetzt die Standard-URL-Anzeige durch einen lesbaren Breadcrumb-Pfad. FAQ-Schema auf Kategorieseiten kann zusätzlichen SERP-Platz gewinnen. Jede Schicht strukturierter Daten gibt Google mehr Material zum Arbeiten und Ihnen mehr Möglichkeiten, in den Suchergebnissen aufzufallen.

Core Web Vitals für Onlineshops

Core Web Vitals sind Googles Metriken für die Seitenerfahrung: Largest Contentful Paint (LCP), Interaction to Next Paint (INP) und Cumulative Layout Shift (CLS). Sie sind bestätigte Rankingfaktoren, und Onlineshops stehen bei jedem davon vor besonderen Herausforderungen.

LCP misst, wie schnell das größte sichtbare Element lädt. Auf Produktseiten ist das meist das Hauptproduktbild. Auf Kategorieseiten oft das Banner-Bild oder das erste Produktbild im Raster. Ziel: unter 2,5 Sekunden. Um den LCP zu verbessern, optimieren Sie Ihre Hero-Bilder (WebP-Format, richtige Dimensionierung, Bild vorladen mit link rel=preload im Head), nutzen Sie ein CDN und minimieren Sie render-blockierende Ressourcen. Die Server-Antwortzeit beeinflusst ebenfalls den LCP, stellen Sie also sicher, dass Ihr Hosting Traffic-Spitzen ohne Verlangsamung bewältigen kann.

INP misst die Reaktionsfähigkeit auf Nutzerinteraktionen. Auf Ecommerce-Websites sind die häufigsten INP-Verursacher: Filterinteraktionen, die vollständige Seitenneuladungen auslösen, 'In den Warenkorb'-Buttons, die die Seite einfrieren, während JavaScript verarbeitet wird, und Such-Autocomplete, das den Main Thread blockiert. Ziel: unter 200 Millisekunden. Optimieren Sie, indem Sie schweres JavaScript in Web Workers verlagern, requestIdleCallback für nicht-kritische Aufgaben nutzen und Input-Handler bei Such- und Filterkomponenten debouncen.

CLS misst die visuelle Stabilität. Ecommerce-Websites sind berüchtigt für Layout-Verschiebungen, verursacht durch: Bilder, die ohne explizite Breiten- und Höhenattribute laden (der Content springt, wenn das Bild erscheint), Banner oder Werbeleisten, die nach dem Laden oben auf der Seite eingefügt werden, und Font-Swaps, bei denen benutzerdefinierte Schriftarten nach dem Rendern laden und den gesamten Text vergrößern/verkleinern. Ziel: unter 0,1. Beheben Sie das durch explizite Dimensionen auf allen Bildern und Werbeflächen, reservieren Sie Platz für dynamischen Content, der nach dem initialen Render lädt, und verwenden Sie font-display: optional oder font-display: swap mit größenangepassten Fallback-Schriftarten.

Überwachen Sie Core Web Vitals an zwei Stellen: dem Core-Web-Vitals-Bericht in der Search Console (der echte Nutzerdaten verwendet) und PageSpeed Insights für Tests einzelner Seiten. Unser kostenloser Core-Web-Vitals-Checker gibt Ihnen einen schnellen Überblick über die Performance-Scores Ihres Shops. Konzentrieren Sie sich auf die echten Nutzerdaten, denn das ist es, was Google für Ranking-Entscheidungen nutzt. Lab-Scores sind nützlich zum Debuggen, spiegeln aber nicht die tatsächliche Nutzererfahrung auf unterschiedlichen Geräten und Netzwerken wider.

Priorisieren Sie Ihre Top-Landingpages. Sie brauchen keine perfekten CWV-Scores über jede URL. Konzentrieren Sie sich auf die Seiten, die den meisten organischen Traffic generieren: Ihre Startseite, die wichtigsten Kategorieseiten und die wichtigsten Produktseiten. Die Verbesserung der CWV auf Ihren Top-50-Seiten nach Traffic hat eine größere Ranking-Auswirkung als marginale Verbesserungen auf 5.000 weniger besuchten Seiten.

Arbeiten Sie mit SEO-Experten zusammen, die E-Commerce verstehen

Die weltweit erste von E-Com-Gründern aufgebaute SEO-Agentur

Technisches SEO für Ecommerce: Wichtige Probleme beheben | EcomSEO