En poursuivant votre navigation, vous acceptez l'utilisation de cookies afin de réaliser des statistiques d'audiences et vous proposer des services, contenus ou publicités adaptés selon vos centres d'intérêts.

Gérez la duplication de contenu de votre site web

Photo de mickael-serantes

mickael-serantes

Publié le 12 novembre 2018 dans la catégorie Conseils SEO / Aucun commentaire

Illustration de Gérez la duplication de contenu de votre site web

La duplication de contenu est présente sur la majorité des sites web. Elle peut poser un certain nombre de problèmes si elle n'est pas prise en compte correctement. 209 AGENCY vous explique comment prendre en compte le duplicate content.

Qu’est-ce que la duplication de contenus ?

Il faut savoir que Google passe son temps à explorer les sites web dans le but de les répertorier dans son index principal et secondaire. Pour ce faire il alloue un « budget de crawl » à votre domaine. Afin de ne pas dépenser son temps de crawl inutilement, Google préfère explorer les contenus originaux que des contenus dupliqués.

On parle alors de contenus dupliqués (ou duplicate content) lorsque 2 pages (ou plus) d’un même domaine possèdent un contenu identique ou similaire, ou que 2 pages de domaines différents sont identiques ou très proches. Mais il existe d’autres subtilités qui génèrent de la duplication de contenus :

  • Balise Meta Title ou Description dupliqués ;
  • Le DUST, Different URL, Same Text ;
  • URL avec paramètres (ou Query String) ;
  • Protocol HTTP et HTTPS, dans le cadre d’une migration HTTPS par exemple.

Ainsi les Googlebots vont répertorier dans l’index principal le contenu original, dit canonique, et l’ensemble des copies seront dans son index secondaire et seront donc déclassées, par rapport au contenu original. Il est donc primordial d’étudier votre duplicate content afin d’en connaître l’ampleur et d’indiquer aux moteurs de recherche votre contenu original.

Pourquoi indiquer à Google les contenus dupliqués ?

Il y a en effet un risque à laisser votre site tel quel, si vous êtes touchés par de la duplication de contenu. Google lance régulièrement le filtre Google Panda, afin de nettoyer son index des sites web, ou des pages de faible qualité. La duplication de contenu est un des critères du filtre Google Panda.

Pour être clair, si certaines de vos pages sont dupliqués, ou si vous présentez du contenu plagié de vos fournisseurs par exemple, le risque est de ne plus être visible sur des requêtes générant du trafic et donc du lead ou du chiffre d’affaires. Cette problématique est un enjeu crucial pour les site E-commerce notamment.

Comment connaître les contenus en duplication ?

Toute la difficulté résulte à lister ces pages en duplication, heureusement il existe des outils nous permettant d’identifier les pages en duplicate content. Chez 209 AGENCY, nous utilisons l’outil Oncrawl pour avoir un état précis de la duplication de contenu sur tout un domaine. Il est ainsi possible de connaître :

  • Les pages avec un titre dupliqué
  • Les pages avec une Meta description dupliquée
  • Les pages avec un H1 dupliqué
  • Les pages avec du duplicate content
  • Les pages contenant des Query String

À partir de ces listes, nous analysons les templates de page à traiter et nous établissons des recommandations techniques et sémantiques afin de limiter les effets de la duplication de contenu.

Gestion de la duplication de contenus avec Oncrawl

Source : Oncrawl

Que faire pour résoudre les problèmes de duplication de contenu ?

Il y a quelques actions basiques à mettre en place afin de limiter les effets d’une duplication de contenus :

Mettre en place une balise Canonical

Le plus important est d’indiquer à Google votre contenu original sur l’ensemble des pages dupliquées. Cela passe par l’utilisation d’une balise link rel= »canonical ».

Mettre en place des redirections 301

Mettez en place des redirections 301 (« RedirectPermanent ») de vos contenus dupliqués vers votre contenu original. Ainsi vous redirigerez vos internautes, mais également les robots d’exploration vers le contenu le plus important. Pour ce faire, il faut modifier votre fichier .htaccess et indiquer les règles de redirection comme ceci :

  • Redirect 301 ancienneURL nouvelleURL

Si vous souhaitez aller plus loin dans la gestion des redirections, vous pouvez utiliser les commandes RewriteRule, assez complexes à appréhender, mais très puissantes lorsqu’il faut utiliser des conditions de redirection. Par exemple : Si mon URI contient « sid=350 » ou « sid=351 » ou « sid=352 » alors je redirige vers cette URL.

Limiter le crawl avec le fichier robots.txt

Afin que le Googlebot ne crawle pas certaines URL, avec des paramètres par exemple, il est possible de lui en refuser l’accès. Le but est de conserver votre budget de crawl sur vos pages importantes. Pour ce faire il faut indiquer dans le fichier robots.txt les règles adéquates, par exemple :

User-agent: *
Disallow: /*?orderby=
Disallow: /*?orderway=
Disallow: /*?tag=
Disallow: /*?id_currency=
Disallow: /*?search_query=

L’accompagnement d’une agence SEO

Toute agence SEO digne de ce nom vous alertera sur la duplication de contenu et vous accompagnera dans votre phase de migration. Que ce soit pour un passage au protocole HTTPS, pour la refonte d’un site, la migration de votre socle ou pour repenser l’arborescence de votre site, il est primordial de penser à établir un plan de redirection. Il en va de votre pérennité sur les moteurs de recherche. Toute refonte s’accompagne OBLIGATOIREMENT d’un plan de redirection à mettre en place AVANT la sortie de votre site et à recetter dès la migration effectuée, ça parait évident mais tout le monde ne le fait pas !

Aucun commentaire, participez à la discussion !

Laisser un commentaire