La question d’aujourd’hui vie, qui demande :
« J’ai un client qui possède un site Web avec des filtres basés sur une carte de localisation. Lorsque le visiteur se déplace sur la carte, une nouvelle URL avec des filtres est créée. Ils ne sont pas dans le plan du site. Cependant, il y a plus de 700 000 URL dans la Search Console (non indexées) et un budget d’exploration gourmand.
Quelle serait la meilleure façon de se débarrasser de ces URL ? Mon idée est de conserver l’emplacement de base « index, follow » et les URL nouvellement créées de la zone entourée avec des filtres passent à « noindex, no follow ». Marquez également les zones entourées avec des canoniques jusqu’à l’emplacement de base + désavouez les liens indésirables.
Excellente question, Michal, et bonne nouvelle ! La réponse est simple à mettre en œuvre.
Tout d’abord, examinons ce que vous essayez et appliquons-le à d’autres situations telles que le commerce électronique et les éditeurs. De cette façon, davantage de personnes peuvent en bénéficier. Ensuite, examinez vos stratégies ci-dessus et terminez par la solution.
Qu’est-ce que le budget d’exploration et comment sont créés les paramètres qui le gaspillent
Si vous n’êtes pas sûr de ce à quoi Michal fait référence avec budget d’explorationc’est un terme que certains professionnels du référencement utilisent pour expliquer que Google et d’autres moteurs de recherche n’exploreront qu’un certain nombre de pages sur votre site Web avant qu’il ne s’arrête.
Si votre budget d’exploration est utilisé sur des pages de faible valeur, légères ou non indexables, vos bonnes pages et vos nouvelles pages risquent de ne pas être trouvées lors d’une exploration.
S’ils ne sont pas trouvés, ils risquent de ne pas être indexés ou actualisés. S’ils ne sont pas indexés, ils ne peuvent pas vous apporter de trafic SEO.
C’est pourquoi il est important d’optimiser un budget d’exploration pour plus d’efficacité.
Michal a partagé un exemple de la façon dont “mince” Les URL d’un point de vue SEO sont créées au fur et à mesure que les clients utilisent des filtres.
L’expérience pour l’utilisateur est une valeur ajoutée, mais du point de vue du référencement, une page basée sur la localisation serait meilleure. Cela s’applique également au commerce électronique et aux éditeurs.
Les magasins de commerce électronique rechercheront des couleurs comme le rouge ou le vert et des produits comme des t-shirts et des chips.
Ceux-ci créent des URL avec des paramètres tout comme une recherche de filtre d’emplacements. Ils pourraient également être créés en utilisant des filtres de taille, de sexe, de couleur, de prix, de variation, de compatibilité, etc. dans le processus d’achat.
Les résultats filtrés aident l’utilisateur final mais entrent en concurrence directe avec la page de collection, et la collection serait la “non mince” version.
Les éditeurs ont la même chose. Quelqu’un pourrait être sur SEJ à la recherche de SEO ou de PPC dans le champ de recherche et obtenir un résultat filtré. Le résultat filtré contiendra des articles, mais la catégorie de la publication est probablement le meilleur résultat pour un moteur de recherche.
Ces résultats filtrés peuvent être indexés car ils sont partagés sur les réseaux sociaux ou quelqu’un les ajoute en tant que commentaire sur un blog ou un forum, créant ainsi un backlink explorable. Il peut également s’agir d’un employé du service client qui a répondu à une question sur le blog de l’entreprise ou de toute autre manière.
L’objectif est désormais de s’assurer que les moteurs de recherche ne perdent pas de temps à explorer les “mince” versions afin que vous puissiez tirer le meilleur parti de votre budget d’exploration.
La différence entre l’indexation et l’exploration
Il y a encore une chose à apprendre avant d’aborder les idées et solutions proposées : la différence entre l’indexation et l’exploration.
- L’exploration est la découverte de nouvelles pages au sein d’un site Web.
- L’indexation consiste à ajouter à la base de données de pages les pages qui méritent d’être montrées à une personne utilisant le moteur de recherche.
Les pages peuvent être explorées mais non indexées. Les pages indexées ont probablement été explorées et le seront probablement à nouveau pour rechercher des mises à jour et des réponses du serveur.
Mais toutes les pages indexées n’apporteront pas de trafic ou n’atteindront pas la première page, car elles ne constituent peut-être pas la meilleure réponse possible aux requêtes recherchées.
Voyons maintenant comment utiliser efficacement les budgets d’analyse pour ces types de solutions.
Utiliser des méta-robots ou des robots X
La première solution évoquée par Michal était une “indexer, suivre” directif. Cela indique à un moteur de recherche d’indexer la page et de suivre les liens qui s’y trouvent. C’est une bonne idée, mais seulement si le résultat filtré constitue l’expérience idéale.
D’après ce que je peux voir, ce ne serait pas le cas, je recommanderais donc de le faire “pas d’index, suivez.”
Noindex dirait : « Ce n’est pas une page officielle, mais bon, continuez à explorer mon site, vous trouverez de bonnes pages ici. »
Et si votre menu principal et vos liens de navigation internes sont correctement définis, l’araignée continuera, espérons-le, à les explorer.
Des canoniques pour résoudre le budget d’exploration gaspillé
Les liens canoniques sont utilisés pour aider les moteurs de recherche à savoir quelle est la page officielle à indexer.
Si un produit existe dans trois catégories sur trois URL distinctes, une seule doit être “le fonctionnaire” version, donc les deux doublons doivent avoir un canonique pointant vers la version officielle. Le lien officiel doit avoir un lien canonique qui pointe vers lui-même. Ceci s’applique aux emplacements filtrés.
Si la recherche de localisation aboutissait à plusieurs pages de villes ou de quartiers, le résultat serait probablement un double de celui officiel que vous avez dans votre plan de site.
Demandez aux résultats filtrés de pointer de manière canonique vers la page principale de filtrage au lieu d’être auto-référencés si le contenu de la page reste le même que celui de la catégorie d’origine.
Si le contenu extrait votre page localisée avec les mêmes emplacements, pointez plutôt le canonique vers cette page.
Dans la plupart des cas, la version filtrée hérite de la page à partir de laquelle vous avez recherché ou filtré, c’est donc vers là que la version canonique doit pointer.
Si vous faites à la fois du noindex et que vous avez un canonique auto-référencé, ce qui est excessif, cela devient un signal contradictoire.
Il en va de même lorsque quelqu’un recherche un produit par son nom sur votre site Web. Le résultat de la recherche peut entrer en concurrence avec la page réelle du produit ou du service.
Avec cette solution, vous dites à l’araignée de ne pas indexer cette page car elle ne vaut pas la peine d’être indexée, mais c’est aussi la version officielle. Cela n’a pas de sens de faire ça.
Au lieu de cela, utilisez un lien canonique, comme je l’ai mentionné ci-dessus, ou n’indexez pas le résultat et pointez le canonique vers la version officielle.
Désavouer pour augmenter l’efficacité de l’exploration
Le désaveu n’a rien à voir avec l’efficacité de l’exploration, à moins que les robots des moteurs de recherche ne trouvent votre “mince» pages via des backlinks spammés.
L’outil de désaveu de Google est un moyen de dire : « Hé, ces backlinks sont du spam et nous ne voulons pas qu’ils nous nuisent. S’il vous plaît, ne les comptez pas dans l’autorité de notre site.
Dans la plupart des cas, cela n’a pas d’importance, car Google sait détecter les liens spammés et les ignorer.
Vous ne souhaitez pas ajouter votre propre site et vos propres URL à l’outil de désaveu. Vous dites à Google que votre propre site contient du spam et ne vaut rien.
De plus, soumettre des backlinks pour les désavouer n’empêchera pas un robot de voir ce que vous voulez et ne souhaitez pas être exploré, car il s’agit uniquement de dire qu’un lien provenant d’un autre site est du spam.
Le désaveu ne contribuera pas à l’efficacité de l’exploration ni à l’économie du budget d’exploration.
Comment rendre les budgets d’exploration plus efficaces
La réponse est robots.txt. C’est ainsi que vous indiquez aux moteurs de recherche et aux robots d’araignée spécifiques ce qu’il faut explorer.
Vous pouvez inclure les dossiers que vous souhaitez qu’ils explorent en les commercialisant sous le nom “permettre,” et tu peux dire “refuser” sur les résultats filtrés en interdisant le « ? » ou le symbole « & » ou selon celui que vous utilisez.
Si certains de ces paramètres doivent être explorés, ajoutez le mot principal comme “?filter=emplacement” ou un paramètre spécifique.
Robots.txt vous permet de définir les chemins d’analyse et de travailler sur l’efficacité de l’analyse. Une fois que vous avez optimisé cela, regardez vos liens internes. Un lien d’une page de votre site à une autre.
Ceux-ci aident les araignées à trouver vos pages les plus importantes tout en apprenant de quoi il s’agit.
Les liens internes incluent :
- Fil d’Ariane.
- Navigation dans les menus.
- Liens dans le contenu vers d’autres pages.
- Menus de sous-catégories.
- Liens de pied de page.
Vous pouvez également utiliser un plan du site si vous avez un site volumineux et que les robots ne trouvent pas les pages souhaitées en priorité.
J’espère que cela aidera à répondre à votre question. C’est une situation que je reçois souvent – vous n’êtes pas le seul coincé dans cette situation.