Technische SEO
12 min lezenTechnische SEO-analyse voor E-commerce
Technische SEO-problemen vernietigen posities voordat je andere optimalisaties uitvoert. Deze gids behandelt de structurele problemen van de meeste webwinkels — crawlbudget, gefacetteerde navigatie, duplicaatcontent en Core Web Vitals — met concrete stappen om ze op te lossen.
In this guide
- 1. Crawlbudget: stop met het verspillen van Google's aandacht
- 2. Facetnavigatie: het grootste technische probleem in e-commerce
- 3. Productvarianten en duplicate content
- 4. Sitesnelheid en Core Web Vitals voor e-commerce
- 5. Crawlfouten diagnosticeren in Google Search Console
- 6. Gestructureerde data voor e-commerce
Crawlbudget: stop met het verspillen van Google's aandacht
Google crawlt niet elke dag elke pagina van je site. Het kent een crawlbudget toe — een ruwe limiet op hoeveel pagina's Googlebot in een bepaalde periode ophaalt. Voor shops met een paar honderd producten maakt dit zelden uit. Voor shops met 10.000+ SKU's is het enorm belangrijk.
Het probleem: de meeste e-commerceplatforms genereren enorme hoeveelheden URL's zonder waarde — gepagineerde categoriepagina's (/schoenen?pagina=47), filter- en sorteercombinaties (/schoenen?sort=prijs&kleur=rood&maat=40), pagina's van uitverkochte producten en interne zoekresultaten. Google crawlt dit allemaal in plaats van je echte content.
Wat het crawlbudget verbrandt op e-commercesites
Paginering voorbij pagina 2–3, facetnavigatie-URL's, sessie-ID's in URL's, uitverkochte pagina's zonder alternatieven, interne zoekresultatenpagina's (bijv. /zoeken?q=rode+schoenen) en omleidingsketens. Blokkeer of noindex dit alles consequent.
Los het bij de bron op. In robots.txt scherm je Googlebot af van URL-patronen die waardeloze pagina's genereren. Voor filter- en sorteerparameters: gebruik canonical-tags die verwijzen naar de basis-categoriepagina, of voeg rel="nofollow" toe aan paginering- en filterlinks zodat Googlebot ze niet ontdekt. Controleer regelmatig het dekkingsrapport in GSC — het laat je precies zien welke URL's Google onnodig crawlt.
Productvarianten en duplicate content
Een product met 5 kleuropties hoort één indexeerbare pagina te hebben, niet vijf. Als elke variant zijn eigen URL heeft — /blauwe-sneaker, /rode-sneaker, /groene-sneaker — en elke pagina dezelfde titel, beschrijving en content heeft met alleen de kleurnaam verwisseld, ziet Google vijf dunne duplicaten. Geen ervan rankt goed.
De oplossing zijn canonical-tags. Elke variant-URL moet een canonical hebben die verwijst naar de hoofd-productpagina. De hoofd-productpagina zelf moet zelf-canonicaliserend zijn. In Shopify worden variant-URL's standaard gegenereerd als ?variant=12345. De ingebouwde canonical-logica van Shopify handelt dit af — maar het is de moeite waard te verifiëren, met name op sterk aangepaste thema's, of de canonical-tag op elke variant-URL daadwerkelijk verwijst naar de juiste product-URL.
Sitesnelheid en Core Web Vitals voor e-commerce
Google gebruikt Core Web Vitals als rankingsignaal. De drempelwaarden: LCP (Largest Contentful Paint) onder 2,5 seconden, CLS (Cumulative Layout Shift) onder 0,1, en INP (Interaction to Next Paint) onder 200 ms. De meeste e-commercesites zakken op mobiel voor minstens één ervan — en dat is waar Google ze meet.
De grootste LCP-boosdoeners op e-commercesites zijn niet-geoptimaliseerde productafbeeldingen. Een JPEG van 3 MB als hero-afbeelding op een productpagina vernietigt je LCP-score. Serveer WebP of AVIF, stel expliciete breedte- en hoogte-attributen in, gebruik next/image of een vergelijkbare beeldoptimalisatielaag, en zorg dat de hoofdproductafbeelding fetchpriority="high" heeft. Zowel Ahrefs Site Audit als PageSpeed Insights markeren LCP-elementproblemen duidelijk.
CLS op e-commercesites wordt doorgaans veroorzaakt door laat-ladende elementen: een cookiebanner die content verschuift, een reviewwidget die laadt na de eerste render, of dynamisch ingevoegde promotiebanners. Reserveer ruimte voor deze elementen met min-height, of laad ze buiten de hoofdcontentstroom.
INP is de nieuwste metric en de moeilijkste om te verbeteren. Het meet hoe lang de pagina erover doet om te reageren op gebruikersinteracties. Op e-commercesites is zwaar JavaScript — met name scripts van derden voor chatwidgets, retargetingpixels en aanbevelingsengines — doorgaans de oorzaak. Stel alle niet-kritieke scripts van derden uit. Gebruik het Performance-paneel in Chrome DevTools om te achterhalen welke scripts de main thread blokkeren na het laden van de pagina.
Waar te beginnen met Core Web Vitals
Open PageSpeed Insights op je homepage, je belangrijkste categoriepagina en één productpagina. Bekijk de field data (echte gebruikersdata) in plaats van alleen de lab-score — dat is wat Google daadwerkelijk gebruikt. Gebruik daarna de integratie van Screaming Frog met PageSpeed Insights om CWV-problemen over de hele site in één crawl bloot te leggen.
Crawlfouten diagnosticeren in Google Search Console
Het dekkingsrapport in Google Search Console maakt crawlproblemen zichtbaar. Het deelt URL's in: Geïndexeerd, Niet geïndexeerd (met redenen), Fout en Geldig met waarschuwingen. Elke categorie vertelt je iets anders.
- —Soft 404's: pagina's die een HTTP-200-status retourneren maar een bericht 'geen resultaten' of 'product niet beschikbaar' tonen. Google behandelt ze als geldige pagina's — ze worden geïndexeerd, dragen geen waarde over, en kunnen stilletjies de domeinkwaliteitssignalen beschadigen.
- —Omleidingsketens: URL A stuurt door naar URL B die doorstuurt naar URL C. Elke stap verdunt PageRank en vertraagt het crawlen. Oplossing: alle interne links bijwerken zodat ze rechtstreeks naar de uiteindelijke doel-URL verwijzen.
- —Gecrawld maar niet geïndexeerd: Google heeft de pagina bezocht maar gekozen deze niet te indexeren. Doorgaans een kwaliteitssignaalprobleem — dunne, duplicaat of bijna-duplicaat content.
- —Ontdekt maar niet gecrawld: Google heeft de URL gevonden (via sitemap of interne link) maar nog niet opgehaald. Op grote sites wijst dit op uitputting van het crawlbudget — Google zet URL's in een wachtrij die het nooit bereikt.
De meest productieve workflow: GSC-dekkingsdata exporteren, een volledige crawl uitvoeren met Screaming Frog, en beide kruislings vergelijken. GSC vertelt je wat Google ziet; Screaming Frog vertelt je wat er echt op de site staat. Pagina's die GSC als soft 404 markeert maar Screaming Frog met echte content vindt, hebben doorgaans een content-renderingprobleem — JavaScript dat niet laadt voor Googlebot.
Gestructureerde data voor e-commerce
Gestructureerde data verbetert rankings niet direct, maar beïnvloedt wel hoe je pagina's in zoekresultaten verschijnen. Voor e-commerce telt dit meer dan in de meeste niches — Product-schema ontgrendelt rich results met prijs, beschikbaarheid en sterrenbeoordelingen direct in de SERP. Dit verhoogt de klikratio aanzienlijk, met name bij competitieve shopping-zoekopdrachten waar organische resultaten onder een muur van Shopping-advertenties staan.
Elke productpagina heeft Product-schema nodig met minimaal: name, image, description, sku, brand, offers (met price, priceCurrency, availability en url). Als de pagina reviews heeft, voeg je AggregateRating toe. Zonder dit verschijnen je beoordelingssterren niet in zoekresultaten — ook al staan de reviews op de pagina.
BreadcrumbList-schema is ondergewaardeerd
BreadcrumbList-schema toevoegen op elke pagina vertelt Google de structuur van je site en zorgt er vaak voor dat breadcrumbpaden in zoekresultaten verschijnen in plaats van kale URL's. Dit verbetert de CTR en helpt Google de hiërarchie tussen je categorie- en productpagina's te begrijpen. Het kost 30 minuten om site-breed te implementeren en levert jaren lang rendement op.
Werk samen met SEO-experts die e-commerce begrijpen
Het eerste door e-commerce opgerichte SEO-bureau ter wereld