Nombreux sont les sites web qui s’apparentent à une jungle d’URL, ce qui nuit fréquemment aux rankings et au trafic. Mais il y a une solution !
En effet, on peut éviter ce problème en contrôlant le nombre d’URL présentes sur un site et en identifiant et supprimant les URL inutiles.
Les meilleurs classements, le meilleur contenu, les meilleurs liens – en matière de SEO, il s’agit majoritairement de générer plus de trafic en ajoutant toujours plus d’ingrédients. Par conséquent, de nombreux sites web s’apparentent désormais plus à une jungle d’URL qu’à un jardin à la française bien entretenu. Même si ce petit chaos ne pose aucun problème à Papa Google, il préfère les sites web rasés de près.
Comment générer plus de trafic avec moins d’URL ? C’est la question que nous souhaitons aborder aujourd’hui.
À première vue, l’idée de "générer plus de trafic avec moins d’URL" semble contre-intuitive. En effet, lorsqu’un site web comprend moins d’URL, il peut être classé pour moins de thèmes (certains utilisent aussi l’expression "mots-clés"). Cela serait vrai si chacune des URL répertoriées pour un site présentait le meilleur contenu possible concernant un autre thème. La réalité est malheureusement toute autre. Pour être plus exact : cela n’arrive jamais.
C’est la raison pour laquelle il existe de nombreux arguments en faveur d’une réduction du nombre d’URL. La qualité générale d’un site web a des conséquences sur sa capacité de classement. Autrement dit : un nombre réduit d’URL présentant exclusivement des contenus intéressants est bien plus avantageux qu’un nombre important d’URL présentant des contenus partiellement pertinents, partiellement moyens et partiellement mauvais.
Par ailleurs, l’utilisation d’un nombre réduit d’URL présente de nombreux autres avantages. Pour n’en citer que quelques-uns :
Pour le moment, la visite sur votre site web ressemble plutôt à une expédition en canoë sur un bras encore inexploré du fleuve Amazone ? Afin d’éviter cela à l’avenir, nous souhaitons tout d’abord vous fournir une vue d’ensemble de la totalité du volume d’URL du/des site(s) web afin de rectifier ensuite les erreurs grossières. L’objectif est alors qu’une seule et unique version du site soit accessible en ligne. On la nommera :
https://www.monsite.com
Vous devez dans un premier temps avoir accès au serveur sur lequel se trouve le site web. De cette manière, vous pouvez vérifier quels répertoires ont été créés sur le serveur et comment ceux-ci sont liés au répertoire du site.
Dans l’idéal, vous avez également accès à l’interface d’hébergement du site correspondante. Vous pouvez y contrôler quels domaines et sous-domaines permettent d’accéder à votre site web et si les redirections 301 ont été correctement mises en place pour toutes les possibilités autres que https://www.monsite.fr. N’oubliez pas de vérifier également les paramètres concernant le protocole (HTTP ou HTTPS) et le préfixe (www ou non) par domaine/sous-domaine.
Illustration 1 : gérer ses domaines dans l'interface d'hébergement du site
Lorsque vous travaillez au sein d’assez grandes entreprises ou pour le compte de clients, il n’est pas rare que le département IT ne veuille pas ou ne puisse pas vous accorder l’accès à ces systèmes sensibles. Dans ce cas, vous n’avez pas d’autre solution de que procéder à la vérification du site par l’extérieur.
Pour ce faire, il est intéressant de se pencher sur le suivi du site. Étant donné que nous sommes à la recherche de duplicatas auto-générés 100 % identiques à notre version principale, un pixel de suivi identique est installé sur chacune des versions. Nous allons en tirer profit.
Lorsque vous utilisez Google Analytics, cette opération se révèle relativement simple. Il vous suffit d’installer le filtre suivant qui vous indique non seulement le chemin d’accès à l’URL mais également le nom de l’hôte. Laissez ensuite Google Analytics procéder au suivi des accès au site web pendant un mois (tout comme dans Google Analytics en général, le filtre fonctionne uniquement sur les nouvelles données, et non pas sur les données collectées précédemment).
Illustration 2 : nom de l'hôte dans Google Analytics
Une fois que Google Analytics a collecté de nouvelles données, vous pouvez voir très rapidement si votre suivi a été activé pour des URL qui ne correspondent pas à votre domaine, au protocole et au préfixe adéquats en vous rendant dans l’onglet Behavior -> Site Content -> All Pages.
Illustration 3 : contrer les duplicatas du site web
En outre, il peut être bénéfique d’envoyer un robot d’exploration externe sur votre site web. Pour ce faire, vous pouvez utiliser l’outil OnPage.org. Paramétrez le robot d’exploration de manière à ce que celui-ci explore également les sous-domaines. Vérifiez ensuite les résultats afin de déterminer si un grand nombre d’URL dotées d’un préfixe ou d’un protocole erroné émanent d’un sous-domaine ou d’un sous-répertoire en particulier.
Il est également intéressant de se pencher sur les liens externes. Certains domaines sont-ils visiblement identiques à la version principale ? Inspectez tous les liens suspects aléatoirement afin de déterminer s’il s’agit effectivement de duplicatas.
Astuce de pro : Il n’y a aucun inconvénient à se renseigner auprès des agences et des prestataires de services antérieurs ou actuels afin de savoir s’ils possèdent encore des duplicatas du site. En effet, on rencontre de temps à autres des prestataires de services qui pensent que c’est une bonne idée de mettre en ligne des duplicatas 100 % identiques des sites de leurs clients. Les agences de ce genre pensent que « SEO » est un prénom féminin coréen et non pas une mesure de marketing en ligne…
Après avoir délimité les frontières extérieures de notre site web et avoir supprimé tous les éléments qui proliféraient en dehors de celles-ci, nous allons concentrer nos efforts sur l’intérieur des terres. La première étape consiste à vérifier toutes les zones du site et de supprimer tout ce qui :
Les URL qui servent l’objectif de l’entreprise sont des avantages. Au contraire, les URL qui ne servent pas l’objectif de l’entreprise sont des lests et empêchent notre site d’être clair, convivial et optimisé pour les moteurs de recherche.
Les candidats les plus évidents sont les "URL de service" comme je les appelle (mentions légales, déclaration de protection des données, CGV, conditions d’envoi, etc.). Ces URL sont essentielles sur le plan juridique afin de pouvoir exploiter un site web (ou une boutique en ligne), cependant elles ne nous apportent pas grand-chose. Étant donné que nous ne pouvons pas les supprimer, il est nécessaire de les insérer dans la balise meta noindex afin de ne plus y penser.
Les pages de résultats de recherche internes sont également des candidats récurrents qui gonflent l’index des moteurs de recherche. Étant donné que nous ne pouvons pas non plus nous contenter de les supprimer (puisqu’elles sont générées de manière dynamique), il est nécessaire de recourir à nouveau à la balise meta noindex.
Les filtres des boutiques en ligne contribuent eux aussi à générer sans cesse de nombreuses URL inutiles lorsque les filtres sont installés sous forme d’URL avec des paramètres de filtres correspondants. Afin d’éviter cela, les filtres sont de préférence créés à l’aide d’AJAX et trient directement les produits sur la page, sans la charger à nouveau ni modifier l’URL. Lorsque ce n’est pas possible (c’est-à-dire qu’il n’y a pas de budget disponible pour le département IT), une balise canonique peut toutefois garantir que les pages de filtre n’atterrissent (normalement) pas dans l’index.
Vous utilisez WordPress ? Cliquez une fois sur l’une de vos images et vérifiez si elle s’ouvre avec une nouvelle URL. Si oui, félicitations, vous avez [nombre d’images] URL en trop sur votre site Internet. Il s’agit malheureusement du paramétrage standard de WordPress. Si vous maîtrisez MySQL, vous pouvez remédier directement à ce problème pour la totalité du site à l’aide d’une fonction REPLACE dans la banque de données. Sinon, vous devez corriger l’erreur à la main pour chaque image.
Illustration 4 : régler l'affichage dans WordPress
Bon à savoir : WordPress mémorise la dernière sélection effectuée dans ce menu. Ainsi, lorsque vous avez sélectionné une fois le paramètre "aucune URL", celui-ci est déjà présélectionné pour l’image suivante.
Les "features" des sites web, comme on les trouve (bel et bien) régulièrement sur les sites possédant un historique plus long, sont particulièrement passionnantes. Un livre d’or datant du début du millénaire, un forum mort (à l’exception des spams) ou un blog comportant un nombre réduit d’articles médiocres relatifs à un projet de contenu entamé et rapidement tombé aux oubliettes (avec des commentaires de spam, évidemment) : dans le cas de telles zones, il est facile de se rendre compte qu’il est grand temps de se munir de sa hache et d’effectuer une coupe franche. Ce genre d’URL fonctionne comme un boulet à la cheville de votre site Internet. Ne réfléchissez pas plus longtemps à une éventuelle optimisation, celle-ci vous ferait perdre du temps supplémentaire. Contentez-vous de vous débarrasser de ces contenus !
(Vous avez besoin d’un argumentaire solide face à votre supérieur ? Montrez-lui le nombre de visites enregistrées pour ces zones à l’aide du suivi du site. Cela vous aidera à prouver qu’il s’agit seulement d’un poids mort).
Une fois que vous avez également supprimé les zones mortes évidentes du site, il est temps de passer aux URL individuelles. Vérifiez d’abord la présence de duplicatas.
Certains produits d’une boutique en ligne sont attribués à différentes catégories qui génèrent chacune une URL individuelle ? Votre article dispose de différentes balises et votre CMS recrée la balise à chaque fois dans l’URL, ce qui la rend ainsi unique ? Il existe de nombreuses possibilités permettant d’expliquer pourquoi le même contenu peut être consulté en passant par plusieurs URL. C’est presque toujours inutile et dû au logiciel de votre site web.
Nous allons une nouvelle fois mettre à profit la fiabilité du robot d’exploration. Vérifiez le rapport concernant les contenus dupliqués dans Website Success. Celui-ci vous indique de manière fiable les éventuels contenus dupliqués présents sur votre site. J’examine également le nombre de mots contenus dans les URL. Un nombre de mots identique constitue un bon indice de duplicata.
La plupart du temps, il est possible d’identifier rapidement des structures claires. Les produits classés dans plusieurs catégories, qui donnent lieu à la création d’une URL individuelle, sont un grand classique dans 95 % des boutiques en ligne.
Il existe deux moyens d’éviter les duplicatas : les supprimer ou installer une balise canonique. En revanche, l’installation d’une balise meta noindex ou une interdiction d’exploration dans le fichier robots.txt ne constituent pas des options viables dans cette situation. Nous vous expliquons pourquoi ci-dessous.
Dans l’idéal, vous devez éliminer l’origine du duplicata. En effet, les URL qui n’existent plus ne peuvent (à long terme) plus causer de problème. Tout ne se déroule pas toujours sans avoir besoin de l’intervention d’un développeur, étant donné que la boutique / le CMS a prévu la création d’URL individuelles pour ce cas particulier et que votre département IT doit d’abord apprendre au logiciel comment fonctionner sans.
Cette solution constitue de loin la démarche la plus durable et la plus sûre afin d’éviter la création d’autres duplicatas à l’avenir. Aucun stagiaire ne peut oublier votre protocole de prévention des duplicatas longuement étudié et appliqué à tous les départements de votre entreprise. Personne ne peut publier par inadvertance votre article premium sur une dizaine d’URL au lieu d’une seule dans le feu de l’action (adieu, classements aux premières places et augmentation du trafic). Et pour y parvenir, personne n’est obligé de cliquer sur chacun des articles à la recherche de duplicatas.
Lorsque vous supprimez des duplicatas qui enregistrent un nombre significatif de visites, pensez aux redirections 301.
Si la suppression est impossible, on a généralement recours aux balises canoniques. À travers la mise en place d’une balise canonique, on indique aux moteurs de recherche que l’URL en question est seulement une copie et qu’ils doivent enregistrer la version canonique dans leur index.
Malheureusement, la balise canonique de Google est seulement perçue comme une indication et non pas une règle stricte et il arrive donc couramment que la version canonique ne soit pas la seule à apparaître dans les résultats de recherche et que les duplicatas y figurent également.
L’effet positif est (ou devrait être) que tout le PageRank et tous les signaux utilisateurs des duplicatas sont comptabilisés au profit de la version canonique, ce qui finit par la renforcer.
Dans le cas présent, la solution consistant à installer une balise meta noindex ne constitue pas réellement une alternative.
Avantage : Les moteurs de recherche identifient la balise noindex comme une règle fixe, c’est-à-dire qu’une URL associée à la balise noindex a très peu de chance d’apparaître dans les résultats de recherche.
Inconvénient : L’utilisation de la balise noindex empêche l’effet de concentration de la balise canonique (tout le PageRank et les signaux utilisateurs des duplicatas sont comptabilisés au profit de la version canonique). Le PageRank est réparti entre les différents liens internes présents sur le site web, mais cette répartition n’est malheureusement pas focalisée. Les signaux utilisateurs deviennent alors complètement caducs.
La dernière possibilité, qui consiste à imposer une interdiction d’exploration à l’aide d’un fichier robots.txt, n’est pas non plus la meilleure idée.
Avantage : Elle permet de réaliser des économies en matière de budget d’exploration.
Inconvénients : Google n’aime pas les interdictions d’exploration parce qu’il ne sait pas ce qui se dissimule derrière cette URL. Google ne peut donc pas garantir à ses utilisateurs que la visite de cette URL est sûre. Dans le pire des cas, cela peut avoir des conséquences sur l’évaluation du reste du site. En outre, une interdiction d’exploration ne constitue en aucun cas une interdiction d’indexation. Cela signifie qu’une URL qui ne doit pas être explorée peut néanmoins être indexée avec cependant le minimum d’informations, que Google parvient à collecter sur cette URL à l’aide des liens internes ou externes, ce qui ne donne pas une bonne image dans les SERP et conduit à un moins bon classement.
Il arrive régulièrement que les mauvais résultats enregistrés ne soient pas dus à des zones complètes d’un site web mais que quelques URL en nombre limité fassent diminuer les performances globales d’une zone d’un site. C’est par exemple le cas des URL sans contenu, des produits qui ne sont jamais achetés ou des articles qui ne sont pas lus. Une fois de plus, il peut être intéressant de procéder à un tri afin que les utilisateurs et les moteurs de recherche puissent uniquement trouver des contenus de qualité et les récompenser en leur attribuant de bons signaux et de meilleurs classements.
Afin de déterminer quelles URL sont particulièrement bien ou particulièrement mal perçues auprès des utilisateurs et des moteurs de recherche, il peut se révéler approprié de jeter un œil sur le suivi du site et Google Search Console.
Remarque : Sur les sites web de grande envergure en particulier, toutes les URL ne remplissent pas les mêmes fonctions. Il est donc pertinent de comparer la performance d’une URL avec celle d’autres URL revêtant les mêmes fonctions plutôt qu’avec les valeurs moyennes de la totalité du site. Pour ce faire, Google Analytics offre la possibilité d’agglomérer des URL dans des domaines à l’aide des Content Groupings.
Illustration 5 : évaluation des regroupements de contenu dans Google Analytics
Les indicateurs suivants permettent d’évaluer la performance des URL :
Plus le nombre d’indicateurs pour lesquels une URL obtient un mauvais résultat est élevé, plus les signes de suppression deviennent évidents. Il peut certes se révéler pertinent d’installer dans un premier temps une balise noindex avec la ferme intention d’optimiser l’URL concernée plus tard. D’après notre expérience, la démarche du "J’optimiserai ça plus tard" constitue cependant le prétexte le plus courant pour attribuer du trafic de moteur de recherche inutile à long terme. Il est de loin préférable d’adopter les mesures nécessaires immédiatement.
Pour ce faire, il est évidemment nécessaire d’être (auto-)critique, même lorsque cela peut se révéler très désagréable. Depuis la création de la notion de "Content is King", les sites web regorgent de contenus mal rédigés. Soyez honnête avec vous-même et votre entreprise. Personnellement, souhaiteriez-vous réellement lire ça ? Voulez-vous vraiment que votre entreprise continue à être associée à des contenus de mauvaise qualité ? Bon alors !
Lorsque votre supérieur consultera les chiffres correspondants au nombre de visiteurs et aux revenus dans trois mois, il vous remerciera d’avoir eu le courage de lui dire en face : "Cela nous porte préjudice, nous devons nous en débarrasser !".
Nous avons désormais effectué les travaux préliminaires et nous sommes ainsi passés de la vue d’ensemble aux détails du site et éliminé les sources d’URL inutiles. Dans la pratique, ces mesures peuvent conduire à une modification spectaculaire du nombre d’URL existantes.
Exemple : Après avoir effectué l’analyse complète du site web d’un client (un prestataire de services disposant d’une petite boutique en ligne comportant 50 produits), nous avons trouvé plus de 180 000 URL. Parmi celles-ci, Google en avait seulement indexé 3 000. Une fois notre optimisation achevée, seules 2 420 URL étaient encore présentes, parmi lesquelles 1 490 ont été indexées par Google jusqu’à présent. Depuis, le site est passé à la vitesse supérieure en termes de classements et de trafic.
À l’heure actuelle, nous travaillons pour un client dont la boutique en ligne a été associée à plus de 3 000 000 d’URL (dont moins de 5 000 sont indexées). Une fois l’optimisation terminée, il reste seulement 100 000 URL environ. Nous nous réjouissons à l’avance des conséquences de cette optimisation pour Google.
Texte publié en allemand le 04/07/2017 par Eico Schweins.
Rien ne vaut la pratique : faites analyser votre site web avec Ryte FREE
Écrit le 04.07.2017 par Pauline Mitifiot.
Après des études d’histoire et de gestion de projet qui lui permirent de découvrir la Turquie, l’Italie et l’Allemagne, Pauline posa ses valises à Munich car elle ne pouvait plus se passer de son bretzel quotidien. Curieuse et dynamique, elle contribue à la section française du blog et du Wiki de Ryte.
Suivi, analyse et optimisation de vos actifs numériques grâce à notre technologie unique
S’inscrire gratuitement