Méfiez-vous du faux trafic Googlebot

By: Mr. Cointe

Spread the love

Martin Splitt, défenseur des développeurs de Google, avertit les propriétaires de sites Web de se méfier du trafic qui semble provenir de Googlebot. De nombreuses requêtes prétendant être Googlebot proviennent en réalité de scrapers tiers.

Il a partagé cela dans le dernier épisode de la série SEO Made Easy de Google, soulignant que « tous ceux qui prétendent être Googlebot ne sont pas en réalité Googlebot ».

Pourquoi est-ce important ?

Les faux robots d’exploration peuvent fausser les analyses, consommer des ressources et rendre difficile l’évaluation précise des performances de votre site.

Voici comment faire la distinction entre le trafic légitime de Googlebot et les fausses activités des robots d’exploration.

Méthodes de vérification de Googlebot

Vous pouvez distinguer le trafic réel de Googlebot des faux robots d’exploration en examinant les modèles de trafic globaux plutôt que les demandes inhabituelles.

Le trafic réel de Googlebot a tendance à avoir une fréquence, un timing et un comportement de requêtes cohérents.

Si vous soupçonnez une fausse activité de Googlebot, Splitt vous conseille d’utiliser les outils Google suivants pour la vérifier :

Outil d’inspection d’URL (Search Console)

  • La recherche d’un contenu spécifique dans le HTML rendu confirme que Googlebot peut accéder avec succès à la page.
  • Fournit une capacité de test en direct pour vérifier l’état d’accès actuel.

Test de résultats riches

  • Agit comme une méthode de vérification alternative pour l’accès à Googlebot
  • Montre comment Googlebot affiche la page
  • Peut être utilisé même sans accès à la Search Console

Rapport sur les statistiques d’exploration

  • Affiche les données détaillées de réponse du serveur spécifiquement à partir des requêtes Googlebot vérifiées
  • Aide à identifier des modèles de comportement légitime de Googlebot

Il convient de noter une limitation clé : ces outils vérifient ce que le véritable Googlebot voit et fait, mais ils n’identifient pas directement les usurpateurs d’identité dans les journaux de votre serveur.

Pour vous protéger pleinement contre les faux Googlebots, vous devez :

  • Comparez les journaux du serveur avec les plages IP officielles de Google
  • Implémenter la vérification de la recherche DNS inversée
  • Utilisez les outils ci-dessus pour établir le comportement légitime de base de Googlebot

Surveillance des réponses du serveur

Splitt a également souligné l’importance de surveiller les réponses du serveur aux demandes d’exploration, en particulier :

  • Erreurs de la série 500
  • Récupérer les erreurs
  • Délais d’attente
  • Problèmes DNS

Ces problèmes peuvent avoir un impact significatif sur l’efficacité de l’exploration et la visibilité de la recherche pour les grands sites Web hébergeant des millions de pages.

Splitt dit :

“Faites attention aux réponses que votre serveur a données à Googlebot, en particulier un nombre élevé de 500 réponses, des erreurs de récupération, des délais d’attente, des problèmes DNS et d’autres choses.”

Il a noté que même si certaines erreurs sont passagères, les problèmes persistants « pourraient nécessiter une enquête plus approfondie ».

Splitt a suggéré d’utiliser l’analyse des journaux du serveur pour établir un diagnostic plus sophistiqué, tout en reconnaissant que ce n’est « pas une chose fondamentale à faire ».

Cependant, il a souligné sa valeur, notant que « consulter les journaux de votre serveur Web… est un moyen puissant de mieux comprendre ce qui se passe sur votre serveur ».

Voir aussi : Comment changer les agents utilisateurs dans Chrome, Edge, Safari et Firefox

Impact potentiel

Au-delà de la sécurité, le faux trafic Googlebot peut avoir un impact sur les performances du site Web et les efforts de référencement.

Splitt a souligné que l’accessibilité d’un site Web dans un navigateur ne garantit pas l’accès à Googlebot, citant divers obstacles potentiels, notamment :

  • Restrictions du fichier Robots.txt
  • Configurations de pare-feu
  • Systèmes de protection contre les robots
  • Problèmes de routage réseau

Regarder vers l’avenir

Le faux trafic Googlebot peut être ennuyeux, mais Splitt dit que vous ne devriez pas trop vous inquiéter des cas rares.

Supposons que les fausses activités des robots deviennent un problème ou utilisent trop de puissance du serveur. Dans ce cas, vous pouvez prendre des mesures telles que limiter le taux de requêtes, bloquer des adresses IP spécifiques ou utiliser de meilleures méthodes de détection des robots.

Pour en savoir plus sur cette question, regardez la vidéo complète ci-dessous :


 


Spread the love