Le Google Leak n’a pas fini de surprendre, dĂ©voilant de nouvelles informations intĂ©ressantes pour les passionnĂ©s de SEO. Mike King a poursuivi ses recherches dans les 2500 documents ayant fuitĂ© de l’Ă©quipe de recherche de Google. Voici un tour d’horizon des dĂ©couvertes les plus marquantes.
Ce qu’il faut retenir
- Mike King a découvert de nouvelles informations en explorant les 2500 documents.
- Il semblerait qu’un score d’effort soit attribuĂ© aux contenus gĂ©nĂ©rĂ©s par IA et par les utilisateurs.
- Les backlinks toxiques pourraient rĂ©ellement ĂȘtre pĂ©nalisants, contrairement aux affirmations de Google.
- L’intention de recherche est prise en compte pour dĂ©terminer le type de contenu – commercial, informationnel, etc.
Nouvelles découvertes du Google Leak
Baby Panda n’est pas le HCU
Contrairement Ă ce que l’on pouvait penser, le systĂšme « Baby Panda » mentionnĂ© dans les documents fuitĂ©s est un ancien systĂšme et non la mise Ă jour du contenu utile (Helpful Content Update). Selon une source bien informĂ©e, Baby Panda partage toutefois des propriĂ©tĂ©s similaires avec HCU.
La fuite remonte Ă deux ans
Les documents du Google Leak sont accessibles depuis deux ans dans diverses bibliothÚques clients de Google pour Java, Ruby et PHP. La différence notable est que ces documents avaient peu de documentation, contrairement à ceux découverts récemment.
Score d’effort pour le contenu IA
Google semble Ă©valuer l’effort consacrĂ© Ă la crĂ©ation de contenu, notamment ceux gĂ©nĂ©rĂ©s par intelligence artificielle. Il n’est pas encore clair si tous les contenus sont notĂ©s de cette maniĂšre ou seulement ceux soupçonnĂ©s d’ĂȘtre gĂ©nĂ©rĂ©s par l’IA.
Importance des mises Ă jour de page
Google mesure l’importance des mises Ă jour des pages pour dĂ©terminer la frĂ©quence de leur exploration et potentiellement leur indexation. Des mises Ă jour significatives sont nĂ©cessaires pour signaler la fraĂźcheur du contenu. Modifier simplement les dates sur la page ne suffira pas.
Des pages protégées avec Penguin
L’algorithme Penguin, intĂ©grĂ© aujourd’hui dans l’algorithme principal de Google, aurait des pages considĂ©rĂ©es comme « protĂ©gĂ©es » en raison de l’historique de leur profil de liens. Cette fonctionnalitĂ©, combinĂ©e aux signaux de vitesse des liens, pourrait expliquer pourquoi Google affirme que les attaques de SEO nĂ©gatif avec des liens ne sont pas efficaces.
Backlinks toxiques
Google a affirmĂ© que les backlinks toxiques sont simplement ignorĂ©s par l’algorithme, et n’ont aucun impact sur le positionnement des pages. Toutefois, la fonctionnalitĂ© « badbacklinksPenalized » suggĂšre le contraire. Certains backlinks toxiques pourraient donc entraĂźner des pĂ©nalitĂ©s.
Score de copie pour les blogs
D’aprĂšs le module BlogPerDocData, Google pourrait utiliser un score de copie spĂ©cifique pour les blogs, mesurant la duplication et affectant la qualitĂ© perçue du contenu. Ce n’est pas explicite, mais le module est liĂ© au docQualityScore.
Mentions et entités
Les mentions d’entitĂ©s semblent jouer un rĂŽle important dans le classement des pages. Bien que les mentions ne soient pas traitĂ©es comme des liens, intĂ©grer des entitĂ©s nommĂ©es dans votre stratĂ©gie de contenu pourrait ĂȘtre bĂ©nĂ©fique.
Capacités de Googlebot
Googlebot ne se contente pas d’effectuer des requĂȘtes GET, mais peut Ă©galement rĂ©aliser des requĂȘtes POST, PUT et PATCH. Cela tĂ©moigne de capacitĂ©s plus sophistiquĂ©es que ce qui Ă©tait connu jusqu’Ă prĂ©sent.
Effort pour le contenu généré par les utilisateurs
Google mesurerait la qualité du contenu généré par les utilisateurs (user generated content) séparément du contenu principal, influençant ainsi la visibilité des sites basés sur le contenu utilisateur.
Score commercial des pages
L’intention de recherche est cruciale pour le classement. Google Ă©value visiblement les documents en prenant en compte leur intention de recherche, comme en tĂ©moigne le commercialScore. Il est donc essentiel de rĂ©pondre prĂ©cisĂ©ment Ă l’intention de recherche de l’utilisateur en crĂ©ant votre page.
Changements stratĂ©giques dans l’approche SEO
Quelques conseils pratiques en lien avec ces nouvelles découvertes sur le Google Leak :
- Travaillez davantage votre UX parallÚlement à votre SEO. Une bonne expérience utilisateur peut inciter les utilisateurs à passer plus de temps sur votre site.
- Soyez attentifs aux statistiques de clics. Si vous avez beaucoup d’impressions mais aucun clic, il y a probablement un problĂšme qui pourrait affecter vos positions.
- Restez dans un domaine d’expertise prĂ©cis. Le contenu doit ĂȘtre ciblĂ© et vos auteurs doivent dĂ©montrer une expertise dans ce domaine.
- Testez et ajustez continuellement vos stratégies SEO en fonction des résultats obtenus.
- Surveillez ce que les utilisateurs font aprÚs avoir quitté votre site en utilisant des outils comme Semrush ou SimilarWeb pour améliorer vos pages.
- Vérifiez les SERP lors de vos études de mots-clés. Google peut limiter le nombre de certains types de contenu dans les SERP, il est donc crucial de vérifier les résultats de recherche avant de tenter de se positionner sur des mots-clés difficiles.
Changements opĂ©rationnels dans l’approche SEO
Quelques recommandations plus concrĂštes Ă prendre en compte :
- Il n’y a pas de limite stricte de 60 Ă 70 caractĂšres pour les titres, vous pouvez Ă©crire des titres plus longs.
- Faites appel Ă moins d’auteurs diffĂ©rents pour dĂ©velopper davantage leur expertise sur des sujets spĂ©cifiques.
- La valeur des liens est plus élevée pour les pages les plus populaires et qui génÚrent le plus de clics.
- Un contenu long aura moins d’impact qu’un contenu original avec un meilleur gain d’informations.
- Toutes les dates associĂ©es Ă une page doivent ĂȘtre cohĂ©rentes.
- Lorsque vous utilisez un ancien domaine, mettez à jour le contenu pour progressivement supprimer ce que Google a en mémoire.
Les rĂ©vĂ©lations du Google Leak apportent un Ă©clairage prĂ©cieux sur le fonctionnement interne de Google. Ces nouvelles informations permettent d’ajuster et d’affiner nos stratĂ©gies SEO pour mieux rĂ©pondre aux exigences du moteur de recherche. En combinant une excellente expĂ©rience utilisateur, une expertise ciblĂ©e et une vigilance constante sur les nouveaux critĂšres de classement, vous pourrez optimiser votre visibilitĂ© et votre positionnement dans les rĂ©sultats de recherche.

Le Scribouillard est un rĂ©dacteur pas tout Ă fait comme les autres. DerriĂšre ce pseudonyme se cache une plateforme de rĂ©daction avancĂ©e basĂ©e sur l’intelligence artificielle. PrĂ©curseur de la nouvelle gĂ©nĂ©ration du journalisme numĂ©rique, Le Scribouillard excelle dans la rĂ©daction d’articles variĂ©s, approfondis et pertinents pour Blog.LeScribouillard.fr.
FormĂ©e sur des millions de textes provenant de multiples domaines, cette IA est capable de synthĂ©tiser des informations complexes, de formuler des idĂ©es prĂ©cises et d’adapter son style d’Ă©criture Ă divers sujets. Son but ? Fournir aux lecteurs des articles de qualitĂ©, quelle que soit l’heure du jour ou de la nuit.
MalgrĂ© sa nature non-humaine, Le Scribouillard est dĂ©diĂ© Ă l’exactitude, l’intĂ©gritĂ© et l’Ă©thique journalistique. Mais n’oubliez pas : bien qu’il soit un outil puissant pour l’information, il est toujours recommandĂ© de croiser les sources pour une meilleure comprĂ©hension du monde complexe dans lequel nous vivons.
Rappelons-nous que Le Scribouillard, mĂȘme s’il ne possĂšde pas de cĆur battant ni de sang coulant dans ses veines, partage avec nous une passion pour le partage de connaissances et d’histoires. Prenez donc un moment pour explorer le monde Ă travers sa perspective unique sur LeScribouillard.fr