Le Google Leak révèle des secrets cachés sur le moteur de recherche

Le Google Leak n’a pas fini de surprendre, dévoilant de nouvelles informations intéressantes pour les passionnés de SEO. Mike King a poursuivi ses recherches dans les 2500 documents ayant fuité de l’équipe de recherche de Google. Voici un tour d’horizon des découvertes les plus marquantes.

Ce qu’il faut retenir

  • Mike King a découvert de nouvelles informations en explorant les 2500 documents.
  • Il semblerait qu’un score d’effort soit attribué aux contenus générés par IA et par les utilisateurs.
  • Les backlinks toxiques pourraient réellement être pénalisants, contrairement aux affirmations de Google.
  • L’intention de recherche est prise en compte pour déterminer le type de contenu – commercial, informationnel, etc.

Nouvelles découvertes du Google Leak

Baby Panda n’est pas le HCU

Contrairement à ce que l’on pouvait penser, le système « Baby Panda » mentionné dans les documents fuités est un ancien système et non la mise à jour du contenu utile (Helpful Content Update). Selon une source bien informée, Baby Panda partage toutefois des propriétés similaires avec HCU.

La fuite remonte à deux ans

Les documents du Google Leak sont accessibles depuis deux ans dans diverses bibliothèques clients de Google pour Java, Ruby et PHP. La différence notable est que ces documents avaient peu de documentation, contrairement à ceux découverts récemment.

Score d’effort pour le contenu IA

Google semble évaluer l’effort consacré à la création de contenu, notamment ceux générés par intelligence artificielle. Il n’est pas encore clair si tous les contenus sont notés de cette manière ou seulement ceux soupçonnés d’être générés par l’IA.

Importance des mises à jour de page

Google mesure l’importance des mises à jour des pages pour déterminer la fréquence de leur exploration et potentiellement leur indexation. Des mises à jour significatives sont nécessaires pour signaler la fraîcheur du contenu. Modifier simplement les dates sur la page ne suffira pas.

Des pages protégées avec Penguin

L’algorithme Penguin, intégré aujourd’hui dans l’algorithme principal de Google, aurait des pages considérées comme « protégées » en raison de l’historique de leur profil de liens. Cette fonctionnalité, combinée aux signaux de vitesse des liens, pourrait expliquer pourquoi Google affirme que les attaques de SEO négatif avec des liens ne sont pas efficaces.

Backlinks toxiques

Google a affirmé que les backlinks toxiques sont simplement ignorés par l’algorithme, et n’ont aucun impact sur le positionnement des pages. Toutefois, la fonctionnalité « badbacklinksPenalized » suggère le contraire. Certains backlinks toxiques pourraient donc entraîner des pénalités.

Score de copie pour les blogs

D’après le module BlogPerDocData, Google pourrait utiliser un score de copie spécifique pour les blogs, mesurant la duplication et affectant la qualité perçue du contenu. Ce n’est pas explicite, mais le module est lié au docQualityScore.

Mentions et entités

Les mentions d’entités semblent jouer un rôle important dans le classement des pages. Bien que les mentions ne soient pas traitées comme des liens, intégrer des entités nommées dans votre stratégie de contenu pourrait être bénéfique.

Capacités de Googlebot

Googlebot ne se contente pas d’effectuer des requêtes GET, mais peut également réaliser des requêtes POST, PUT et PATCH. Cela témoigne de capacités plus sophistiquées que ce qui était connu jusqu’à présent.

Effort pour le contenu généré par les utilisateurs

Google mesurerait la qualité du contenu généré par les utilisateurs (user generated content) séparément du contenu principal, influençant ainsi la visibilité des sites basés sur le contenu utilisateur.

Score commercial des pages

L’intention de recherche est cruciale pour le classement. Google évalue visiblement les documents en prenant en compte leur intention de recherche, comme en témoigne le commercialScore. Il est donc essentiel de répondre précisément à l’intention de recherche de l’utilisateur en créant votre page.

Changements stratégiques dans l’approche SEO

Quelques conseils pratiques en lien avec ces nouvelles découvertes sur le Google Leak :

  • Travaillez davantage votre UX parallèlement à votre SEO. Une bonne expérience utilisateur peut inciter les utilisateurs à passer plus de temps sur votre site.
  • Soyez attentifs aux statistiques de clics. Si vous avez beaucoup d’impressions mais aucun clic, il y a probablement un problème qui pourrait affecter vos positions.
  • Restez dans un domaine d’expertise précis. Le contenu doit être ciblé et vos auteurs doivent démontrer une expertise dans ce domaine.
  • Testez et ajustez continuellement vos stratégies SEO en fonction des résultats obtenus.
  • Surveillez ce que les utilisateurs font après avoir quitté votre site en utilisant des outils comme Semrush ou SimilarWeb pour améliorer vos pages.
  • Vérifiez les SERP lors de vos études de mots-clés. Google peut limiter le nombre de certains types de contenu dans les SERP, il est donc crucial de vérifier les résultats de recherche avant de tenter de se positionner sur des mots-clés difficiles.

Changements opérationnels dans l’approche SEO

Quelques recommandations plus concrètes à prendre en compte :

  • Il n’y a pas de limite stricte de 60 à 70 caractères pour les titres, vous pouvez écrire des titres plus longs.
  • Faites appel à moins d’auteurs différents pour développer davantage leur expertise sur des sujets spécifiques.
  • La valeur des liens est plus élevée pour les pages les plus populaires et qui génèrent le plus de clics.
  • Un contenu long aura moins d’impact qu’un contenu original avec un meilleur gain d’informations.
  • Toutes les dates associées à une page doivent être cohérentes.
  • Lorsque vous utilisez un ancien domaine, mettez à jour le contenu pour progressivement supprimer ce que Google a en mémoire.

Les révélations du Google Leak apportent un éclairage précieux sur le fonctionnement interne de Google. Ces nouvelles informations permettent d’ajuster et d’affiner nos stratégies SEO pour mieux répondre aux exigences du moteur de recherche. En combinant une excellente expérience utilisateur, une expertise ciblée et une vigilance constante sur les nouveaux critères de classement, vous pourrez optimiser votre visibilité et votre positionnement dans les résultats de recherche.

Retour en haut