Retour aux articles
Technique

SEO technique pour l'ecommerce : résoudre les problèmes clés

Résolvez les problèmes de SEO technique qui empêchent les boutiques ecommerce de se classer. Couvre le budget de crawl, la vitesse du site, les canonicals, les sitemaps et les Core Web Vitals.

par Fabian van Til14 min de lecture

Le SEO technique est la fondation que vous ne pouvez pas ignorer

Vous pouvez rédiger les meilleures descriptions produit de votre secteur et obtenir des liens de toutes les grandes publications. Rien de cela ne compte si Google ne peut pas explorer et indexer vos pages correctement. Le SEO technique est la fondation dont tout le reste dépend, et les boutiques ecommerce ont plus de complexité technique que presque tout autre type de site web.

Un site de contenu typique a quelques centaines de pages avec une structure simple. Une boutique ecommerce peut avoir 50 000 URL entre les produits, les catégories, les combinaisons de filtres, la pagination et les résultats de recherche interne. Chacune de ces URL est un problème potentiel si elle n'est pas gérée correctement. Le budget de crawl est gaspillé sur des URL inutiles. Le contenu dupliqué confond Google sur la page à classer. Des vitesses de page lentes font fuir les clients avant même qu'ils voient vos produits.

Nous auditons des dizaines de boutiques ecommerce chaque année, et les problèmes techniques sont la raison numéro un pour laquelle les boutiques sous-performent en recherche organique. Pas un contenu faible. Pas des liens insuffisants. Des problèmes techniques qui empêchent Google de faire son travail. La bonne nouvelle est que résoudre les problèmes techniques produit souvent les gains SEO les plus rapides et les plus mesurables. Nous avons vu des boutiques gagner 20-40 % de trafic organique dans les 6 semaines suivant la résolution d'une dette technique majeure. Notre guide d'audit SEO ecommerce explique exactement comment trouver ces problèmes.

Gestion du budget de crawl pour les grands catalogues

Google alloue un budget de crawl à chaque site. C'est le nombre de pages que Googlebot explorera dans une période donnée. Pour les petits sites avec quelques centaines de pages, le budget de crawl n'a pas d'importance. Pour les boutiques ecommerce avec des dizaines de milliers d'URL, c'est une contrainte réelle.

Le problème n'est pas que Google n'explorera pas votre site. Le problème est ce que Google choisit d'explorer. Si votre site a 50 000 URL mais que seules 5 000 sont précieuses (produits et catégories), et que les 45 000 autres sont des combinaisons de filtres, des résultats de recherche interne et des variations de paramètres, Google pourrait dépenser la majeure partie de son budget de crawl sur les URL inutiles. Vos pages produit réelles sont explorées moins fréquemment, ce qui signifie qu'elles sont indexées plus lentement et que les mises à jour mettent plus de temps à apparaître dans les résultats de recherche.

Commencez par vérifier ce que Google explore réellement. Dans Google Search Console, consultez le rapport Statistiques de crawl sous Paramètres. Regardez les pages explorées par jour et les codes de réponse. Si vous voyez un pourcentage élevé d'URL explorées retournant des 404 ou des redirections, c'est du budget gaspillé. Ensuite, vérifiez vos logs serveur si vous y avez accès. Les logs serveur vous montrent chaque URL que Googlebot demande, ce qui est la vue la plus précise du comportement de crawl.

Bloquez les URL inutiles du crawl via robots.txt. URL courantes à bloquer sur les boutiques ecommerce : pages de résultats de recherche interne (/search?q=), URL de panier et de paiement (/cart, /checkout), pages de compte (/account, /login), et combinaisons de paramètres de filtres (/categorie?couleur=rouge&taille=m). Faites attention à ne pas bloquer les fichiers CSS, JavaScript ou images dont Googlebot a besoin pour le rendu.

Nettoyez votre espace d'URL. Si la navigation à facettes a créé 200 000 URL avec paramètres, celles-ci doivent être soit bloquées dans robots.txt, soit servies avec des balises noindex. Si votre plateforme génère des identifiants de session dans les URL, ils doivent être supprimés ou canonicalisés. L'objectif est de réduire l'espace total d'URL crawlable aux seules pages que vous voulez réellement indexer. Notre vérificateur d'indexabilité vous aide à vérifier quelles pages Google peut réellement voir. Lors d'un audit récent, nous avons trouvé un détaillant de mode avec 380 000 URL indexées pour une boutique de 4 200 produits. Après avoir nettoyé les URL de filtres, les paramètres de session et les pages orphelines, nous avons réduit l'index à 12 000 URL. Le trafic organique a augmenté de 28 % en six semaines car Googlebot dépensait enfin son budget de crawl sur les bonnes pages.

Optimisation de la vitesse du site pour l'ecommerce

La vitesse de page est un facteur de classement direct et indirect. Google utilise les Core Web Vitals comme signal de classement. Mais la vitesse affecte aussi le taux de rebond et le taux de conversion, qui influencent les classements via les signaux de comportement utilisateur. Un délai d'1 seconde dans le temps de chargement peut réduire les conversions de 7 %, selon les données d'Akamai.

Commencez par les gros gains. L'optimisation des images est presque toujours la plus grande amélioration de vitesse pour les boutiques ecommerce. Convertissez les images en WebP, compressez-les et servez-les aux dimensions correctes pour chaque appareil. Si vos images produit font en moyenne 500 Ko et que vous les réduisez à 80 Ko, c'est une réduction de 84 % du poids des images sur tout le site.

Activez la mise en cache du navigateur et la livraison CDN. Un réseau de distribution de contenu sert vos assets statiques (images, CSS, JavaScript) depuis des serveurs physiquement proches de l'utilisateur. Cela réduit la latence de 200-500 ms sur un serveur d'origine unique à 20-50 ms depuis un nœud edge CDN. Cloudflare, Fastly et AWS CloudFront fonctionnent tous bien pour l'ecommerce.

Minimisez les ressources bloquant le rendu. Si votre page charge 15 fichiers JavaScript et 8 fichiers CSS avant de pouvoir afficher du contenu, l'utilisateur fixe un écran blanc pendant 3-5 secondes. Différez le JavaScript non critique. Inlinez le CSS critique (les styles nécessaires pour le contenu au-dessus de la ligne de flottaison) et chargez le reste de manière asynchrone. Supprimez entièrement le CSS et JavaScript inutilisés si possible.

Les scripts tiers sont un tueur de vitesse courant sur les boutiques ecommerce. Les widgets de chat, les outils d'analytics, les pixels de retargeting, les boutons de partage social et les widgets d'avis ajoutent chacun 100-500 ms au chargement. Auditez chaque script tiers. Supprimez ceux qui n'apportent pas activement de valeur. Chargez les restants de manière asynchrone ou après que le contenu principal a été rendu. Nous avons audité une boutique Shopify qui chargeait 23 scripts tiers sur chaque page. Après avoir supprimé 9 scripts inutilisés et différé 8 autres, leur LCP est passé de 4,8 à 2,1 secondes sur mobile. Notre guide SEO Shopify couvre l'optimisation de vitesse spécifique à la plateforme en détail.

Testez l'expérience utilisateur réelle, pas seulement les scores de laboratoire. PageSpeed Insights montre des données de lab (simulées) et des données de terrain (mesures réelles d'utilisateurs de CrUX). Les données de terrain sont ce que Google utilise pour le classement. Une page peut obtenir 90 en tests de lab mais avoir un LCP de 4 secondes dans le monde réel à cause des conditions réseau et des capacités des appareils. Concentrez-vous sur les données de terrain et testez sur mobile, car c'est ce que la plupart de vos clients utilisent.

Indexation mobile-first : ce que les boutiques ecommerce font mal

Google utilise l'indexation mobile-first depuis 2023. Cela signifie que Google explore et indexe la version mobile de votre site, pas la version desktop. Si votre site mobile manque de contenu, de liens ou de données structurées qui existent sur la version desktop, Google ne les voit pas.

Le problème mobile-first le plus courant que nous trouvons sur les boutiques ecommerce est le contenu caché. Les versions desktop affichent les descriptions produit complètes, les spécifications et les avis dans la zone visible de la page. Les versions mobiles les cachent derrière des onglets, des accordéons ou des boutons 'lire la suite' pour économiser l'espace écran. Google a dit qu'il traite le contenu dans les onglets et accordéons normalement, mais nos tests montrent que le contenu dans la zone visible principale performe mieux que le contenu nécessitant une interaction pour être révélé.

Vérifiez que votre site mobile inclut tout le contenu de votre site desktop. Effectuez une comparaison côte à côte en utilisant l'émulation d'appareil des Chrome DevTools. Vérifiez que les données structurées, les balises canonical et les balises meta sont identiques sur mobile et desktop. Si vous utilisez un site mobile séparé (m.votreboutique.fr), envisagez de migrer vers un design responsive, car les sites mobiles séparés créent des problèmes de maintenance et de parité.

Les problèmes d'utilisabilité mobile nuisent directement aux classements. Consultez le rapport Utilisabilité mobile dans Google Search Console pour les erreurs. Problèmes courants : texte trop petit pour être lu (sous 16 px), éléments cliquables trop proches les uns des autres (les boutons ont besoin d'au moins 48 px de zone de toucher avec 8 px d'espacement), et contenu plus large que l'écran (provoquant un défilement horizontal). Corrigez chaque erreur signalée dans ce rapport.

Testez votre tunnel de paiement sur mobile. Si le paiement mobile a des problèmes d'utilisabilité (petits champs de formulaire, mises en page confuses, chargement lent), votre taux de conversion mobile en souffre. Google remarque quand les utilisateurs rebondissent systématiquement de vos pages sur mobile, et cela affecte vos classements pour les recherches mobiles, qui représentent 60-70 % du trafic ecommerce.

Balises canonical et contenu dupliqué

Le contenu dupliqué est le problème SEO technique le plus répandu en ecommerce. Des produits qui apparaissent dans plusieurs catégories. Des URL de filtres qui créent des variations de la même page. Des variantes produit avec des URL séparées. La pagination créant des pages similaires. Des versions HTTP et HTTPS. Des versions WWW et non-WWW. La surface de contenu dupliqué sur une boutique ecommerce est énorme.

Les balises canonical sont votre défense principale. Chaque page indexable devrait avoir une balise canonical auto-référençante dans la section head. Pour les pages avec plusieurs variations d'URL (comme les URL de filtres ou de variantes), le canonical devrait pointer vers la version préférée. Si /chaussures?couleur=bleu et /chaussures?couleur=rouge existent tous les deux mais que vous voulez que /chaussures soit la version indexée, les deux URL avec paramètres reçoivent un canonical pointant vers /chaussures.

Erreurs canonical courantes que nous corrigeons régulièrement : utiliser des URL relatives au lieu d'URL absolues dans les balises canonical (utilisez https://votreboutique.fr/page pas /page). Canonicaliser toutes les pages paginées vers la page 1 (la page 2 devrait avoir un canonical vers la page 2, pas la page 1, car elles montrent des produits différents). Canonicaliser des pages vers des URL qui sont elles-mêmes en noindex ou qui redirigent (créant des chaînes de canonical). Avoir des signaux contradictoires où le canonical dit une chose mais le sitemap inclut une URL différente.

Pour les variantes produit, décidez d'une stratégie canonical et appliquez-la de manière cohérente. Si chaque variante de couleur a une URL séparée, choisissez la couleur la plus populaire comme canonical. Ou canonicalisez toutes les variantes vers l'URL produit principale sans paramètre de couleur. Les deux approches fonctionnent, mais mélanger les stratégies à travers le catalogue crée de la confusion.

Auditez vos canonicals trimestriellement avec un crawler ou notre vérificateur de balises canonical. Cherchez les pages sans canonical, les pages avec des canonicals incorrects, et les pages dont l'URL canonical retourne un code de statut non-200. Lors d'un audit client récent, nous avons trouvé 1 200 pages produit dont les canonicals pointaient vers des produits supprimés. Chacune de ces 1 200 pages disait effectivement à Google de l'ignorer. Corriger ces canonicals a restauré les classements pour des centaines de mots-clés produit long-tail.

Sitemaps XML pour les grands catalogues ecommerce

Un sitemap XML est une carte routière qui dit à Google quelles pages existent sur votre site et lesquelles sont les plus importantes. Pour les boutiques ecommerce avec des milliers de pages, un sitemap bien structuré peut significativement améliorer la vitesse à laquelle les nouveaux produits sont découverts et indexés.

Divisez votre sitemap en plusieurs fichiers par type de page. Créez des sitemaps séparés pour les pages produit, les pages de catégorie, les articles de blog et les autres pages de contenu. Cela facilite le diagnostic des problèmes d'indexation (si les produits ne sont pas indexés, vous pouvez vérifier spécifiquement le sitemap des produits) et garde chaque fichier sous la limite de 50 000 URL / 50 Mo.

N'incluez que des URL indexables et canoniques dans votre sitemap. N'incluez pas les URL avec des balises noindex, les URL qui redirigent, les URL bloquées par robots.txt, ou les URL non-canoniques. Votre sitemap devrait être une liste propre de chaque page que vous voulez que Google indexe. Si votre sitemap a 80 000 URL mais que seules 15 000 sont indexables, Google perd confiance dans la précision de votre sitemap et peut déprioriser son crawl.

Utilisez la balise lastmod avec précision. Si vous mettez à jour les prix ou la disponibilité des produits quotidiennement, les dates lastmod devraient refléter les changements réels. Ne mettez pas toutes les dates lastmod à la date d'aujourd'hui pour essayer de manipuler les signaux de fraîcheur. Google a confirmé qu'il ignore lastmod si les données ne sont pas fiables. Mais des dates lastmod précises aident Google à prioriser le crawl des pages récemment modifiées.

Soumettez votre sitemap dans Google Search Console et surveillez la couverture de l'index. Le rapport Sitemaps montre combien d'URL soumises ont été indexées. Si vous avez soumis 10 000 URL produit et que seules 6 000 sont indexées, enquêtez sur les 4 000 manquantes. Elles peuvent avoir du contenu maigre, des problèmes canonical ou des problèmes de qualité empêchant l'indexation.

Pour les très grandes boutiques (100 000+ produits), envisagez d'utiliser des fichiers d'index de sitemap et de générer les sitemaps dynamiquement. Les sitemaps statiques qui nécessitent une régénération manuelle chaque fois qu'un produit est ajouté ou supprimé seront toujours obsolètes. La plupart des plateformes ecommerce ont des plugins ou des fonctionnalités intégrées pour la génération dynamique de sitemaps. Vérifiez que la vôtre inclut réellement les nouveaux produits dans les 24 heures suivant la publication.

Configuration robots.txt pour l'ecommerce

Votre fichier robots.txt est un instrument rudimentaire, mais important. Il dit aux crawlers quelles parties de votre site éviter, et se tromper peut soit gaspiller le budget de crawl (trop permissif) soit bloquer des pages importantes (trop restrictif).

Un bon robots.txt ecommerce bloque : les résultats de recherche interne (/search), les pages panier et paiement (/cart, /checkout, /account), les zones admin et staging, les pages de tags qui dupliquent la fonctionnalité des catégories, et les schémas de paramètres courants qui génèrent des URL inutiles. Il autorise : toutes les pages produit, pages de catégorie, pages de contenu, fichiers CSS et JavaScript (Google en a besoin pour rendre vos pages), et images.

Voici une erreur qui coûte cher aux boutiques : bloquer les fichiers JavaScript ou CSS dans robots.txt. Certains développeurs bloquent les répertoires /assets/ ou /static/ pour éloigner les crawlers des fichiers de template. Mais Google a besoin de charger vos CSS et JavaScript pour rendre vos pages. Si Googlebot ne peut pas rendre une page, il ne peut pas évaluer correctement le contenu, et les classements en souffrent. Testez votre robots.txt en utilisant l'outil Inspection d'URL dans Search Console. Si Google ne peut pas rendre la page correctement, vous avez probablement bloqué quelque chose dont il a besoin.

Utilisez la directive Disallow avec précaution. Un Disallow pour /chaussures/ bloque /chaussures/, /chaussures/nike/, /chaussures/soldes/, et chaque URL commençant par /chaussures/. Si vous vouliez bloquer uniquement /chaussures/rapport-interne/ mais avez écrit Disallow: /chaussures/, vous venez de bloquer toute votre catégorie chaussures. Testez toujours vos modifications robots.txt avec le testeur robots.txt de Google ou notre analyseur robots.txt avant de les mettre en production.

Incluez une directive Sitemap en bas de votre robots.txt pointant vers votre sitemap XML (ou index de sitemap). Cela aide les crawlers à trouver votre sitemap même s'ils n'ont pas été sur Google Search Console. Le format est simple : Sitemap: https://votreboutique.fr/sitemap.xml.

Implémentation des données structurées à grande échelle

Les données structurées (balisage schema) aident Google à comprendre ce que contiennent vos pages et peuvent générer des résultats enrichis qui améliorent les taux de clics depuis la recherche. Pour l'ecommerce, les types de schema pertinents sont Product, BreadcrumbList, FAQPage, Organization, et potentiellement LocalBusiness si vous avez des magasins physiques.

Implémenter le schema à grande échelle nécessite une approche basée sur les templates. Vous ne pouvez pas coder manuellement le schema pour 5 000 pages produit. Construisez plutôt des templates de schema dans vos templates de page et peuplez-les dynamiquement depuis vos données produit. Votre template produit devrait extraire le nom, le prix, la disponibilité, le SKU, la marque, les images et les données d'avis directement de votre base de données produit et les produire en JSON-LD dans le head de la page.

JSON-LD est le format recommandé par rapport à Microdata ou RDFa. Il vit dans une balise script dans le head ou le body de la page et est plus facile à implémenter, déboguer et maintenir. Google recommande explicitement JSON-LD pour la plupart des types de schema. Placez la balise script JSON-LD dans la section head pour un traitement plus rapide. Notre outil générateur de schema crée du JSON-LD valide pour Product, BreadcrumbList et d'autres types de schema ecommerce.

Testez au niveau du template, pas seulement au niveau de la page. Si votre template de schema produit a un bug, il affecte chaque page produit. Lancez le test des résultats enrichis sur un produit de chaque variation de template. Puis surveillez la section Améliorations dans Search Console pour les problèmes à l'échelle du site. Erreurs courantes : champs obligatoires manquants (comme image ou offers), valeurs invalides (un prix de '0,00 €' sur un produit qui coûte en réalité 49,99 €), et balisage qui ne correspond pas au contenu visible de la page. Passez vos pages dans notre validateur de schema pour détecter les problèmes avant qu'ils n'affectent vos résultats enrichis.

Allez au-delà des bases. Le schema Product avec juste le nom et le prix est correct, mais ajouter aggregateRating, review, marque, GTIN et des données d'offres détaillées (incluant les politiques d'expédition et de retour) vous donne des résultats de recherche plus riches. Le schema Breadcrumb sur chaque page remplace l'affichage d'URL par défaut par un fil d'Ariane lisible. Le schema FAQ sur les pages de catégorie peut gagner de l'espace SERP supplémentaire. Chaque couche de données structurées donne à Google plus de matière et vous donne plus d'opportunités de vous démarquer dans les résultats de recherche.

Core Web Vitals pour les boutiques ecommerce

Les Core Web Vitals sont les métriques de Google pour l'expérience de page : Largest Contentful Paint (LCP), Interaction to Next Paint (INP), et Cumulative Layout Shift (CLS). Ce sont des facteurs de classement confirmés, et les boutiques ecommerce font face à des défis uniques avec chacun.

Le LCP mesure la rapidité de chargement du plus grand élément visible. Sur les pages produit, c'est généralement l'image produit principale. Sur les pages de catégorie, c'est souvent l'image bannière ou la première image produit dans la grille. Objectif : sous 2,5 secondes. Pour améliorer le LCP, optimisez vos images hero (format WebP, dimensionnement approprié, préchargez l'image avec une balise link rel=preload dans le head), utilisez un CDN et minimisez les ressources bloquant le rendu. Le temps de réponse serveur impacte aussi le LCP, assurez-vous donc que votre hébergement peut gérer les pics de trafic sans ralentir.

L'INP mesure la réactivité aux interactions utilisateur. Sur les sites ecommerce, les principaux responsables de l'INP sont : les interactions de filtres qui déclenchent des rechargements complets de page, les boutons d'ajout au panier qui figent la page pendant le traitement JavaScript, et l'autocomplétion de recherche qui bloque le thread principal. Objectif : sous 200 millisecondes. Optimisez en déplaçant le JavaScript lourd vers des web workers, en utilisant requestIdleCallback pour les tâches non critiques, et en appliquant le debounce sur les gestionnaires d'entrée des composants de recherche et de filtrage.

Le CLS mesure la stabilité visuelle. Les sites ecommerce sont connus pour les décalages de mise en page causés par : des images qui se chargent sans attributs explicites de largeur et hauteur (le contenu saute quand l'image apparaît), des bannières ou barres promotionnelles injectées en haut de la page après le chargement, et des échanges de polices où les polices personnalisées se chargent après le rendu de la page et redimensionnent tout le texte. Objectif : sous 0,1. Corrigez en définissant des dimensions explicites sur toutes les images et espaces publicitaires, en réservant de l'espace pour le contenu dynamique qui se charge après le rendu initial, et en utilisant font-display: optional ou font-display: swap avec des polices de remplacement ajustées en taille.

Surveillez les Core Web Vitals à deux endroits : le rapport Core Web Vitals dans Search Console (qui utilise les données réelles des utilisateurs) et PageSpeed Insights pour les tests de pages individuelles. Notre vérificateur Core Web Vitals gratuit vous donne un aperçu rapide des scores de performance de votre boutique. Concentrez-vous sur les données utilisateur réelles car c'est ce que Google utilise pour les décisions de classement. Les scores de lab sont utiles pour le débogage mais ne reflètent pas l'expérience utilisateur réelle sur des appareils et réseaux variables.

Priorisez vos pages d'atterrissage principales. Vous n'avez pas besoin de scores CWV parfaits sur chaque URL. Concentrez-vous sur les pages qui génèrent le plus de trafic organique : votre page d'accueil, les principales pages de catégorie, et les principales pages produit. Améliorer les CWV sur vos 50 pages principales par trafic aura un impact de classement plus important que des améliorations marginales sur 5 000 pages moins visitées.

Travaillez avec des experts SEO qui comprennent l’e-commerce

La première agence SEO fondée par des e-commerçants

SEO technique pour l'ecommerce : résoudre les problèmes clés | EcomSEO