Dans le cadre de la 10ème édition du SMX Paris, RESONEO a eu la chance de pouvoir poser plusieurs questions sur l’algorithme de Google à John Mueller, le si célèbre Webmaster Trends Analyst du moteur de recherche de Mountain View.
Il est important de souligner que de nombreuses réponses apportées dans cette interview sont exclusives, car issues de notre tête-à-tête privé.
Une session publique de questions/réponses a été organisée par le SMX et filmée par notre confrère Alexis Rylko. Vous en retrouverez une partie dans cet article.
Questions-Réponses avec @JohnMu #Google #SMXParis https://t.co/kPSQ3NQGAs
— Alexis Rylko (@alekseo) November 19, 2019
Si bon nombre de questions ne nécessitent pas de longues réponses, les éléments apportées par John Mueller méritent parfois quelques commentaires.
L’interview
RESONEO. D’après vous, sur quoi les SEO ne passent pas assez de temps (ne dites pas le contenu s’il vous plaît) ? Et sur quoi passent-ils trop de temps (ne dites pas les liens s’il vous plaît) ?
John Mueller. Si je ne peux pas répondre le contenu et les liens, alors je n’ai plus rien à dire (Rires). Je pense tout de même que des A/B tests devraient être plus souvent conduits en SEO. Il est par exemple possible, au sein d’un groupe de pages similaires, par exemple des pages catégories, d’en prendre quelques-unes pour tester quelque chose. Ensuite, le résultat SEO obtenu pourra être comparé avec les autres pages. C’est une démarche qui devrait être plus fréquente à mon avis.
Et sur quoi les SEO passent trop de temps ? Il est possible de rassembler un très grand nombre d’informations, issues d’outils, d’un crawl ou de la Search Console. Il y aura dans ces informations souvent une grande quantité d’imperfections techniques. Il peut être tentant de se lancer dans la résolution de tous les problèmes remontés, alors que cela n’aidera pas toujours à se poser les bonnes questions.
Quelle est la part de requêtes vocales aujourd’hui traitées par le moteur ?
Je ne sais pas. Je n’ai pas de chiffres à communiquer.
[Commentaire RESONEO : C’est peut-être une manière pudique de dire que le chiffre est proche de zéro. Mais ouf ! John Mueller n’a pas encore joué sur l’ambiguïté des “20% de requêtes vocales” qui a été un jour été annoncé par le CEO de Google. Un chiffre qui a été mal compris, et qui aura semé la confusion, au point peut-être même de prioriser des projets sur la recherche vocale qui n’en méritaient pas tant. C’est aussi intéressant de remarquer que John Mueller ne s’est pas montré très loquace sur le thème, alors que d’autres sont beaucoup plus excités par le sujet.]
Google utilise de nombreux critères, des centaines, pour classer les pages. Ces critères changent-ils selon la requête ? Ces critères sont-ils désormais pondérés par le machine learning, comme certains le pensent ?
Les utilisateurs de Google peuvent observer que les critères changent selon les requêtes.
Avec l’actualité, certaines requêtes vont soudainement demander du contenu très chaud, en lien avec l’actualité recherchée par exemple. Les résultats fournis par le moteur changent avec les actualités et donc avec le temps.
Ils peuvent changer selon le lieu également. Les critères changent donc d’une requête à l’autre, en effet, c’est visible. En revanche, je ne pense pas que le moteur ait besoin de machine learning pour cela.
Du PageRank, ou disons de la puissance, est transmise via un lien que fait la page A vers la page B. Disons que cette puissance vaut 1. Si un deuxième lien, sur la même page A pointe aussi vers la même page B : la puissance transmise de la page A à la page B vaut-elle désormais 2 ? Ou 1 ? Ou une autre valeur ? Bref, lorsqu’une page fait plusieurs liens vers une autre même page, plus de PageRank est-il transmis ?
C’est une question un peu tricky.
Je dirais que la puissance transmise reste de 1, même s’il y a plusieurs liens. En tout cas, 2 liens ne doublent pas la puissance transmise. Du point de vue du moteur, ces liens restent avant tout une seule et même connexion entre 2 pages web.
D’autres éléments vont aussi peser : l’ancre, le site, le contenu de la page, etc.
J’observe que beaucoup de SEO cherchent à faire du PageRank sculpting, mais en réalité, souvent, le moteur ne fonctionne pas comme ils le croient.
Du PageRank est-il transmis via la balise hreflang ? Si ma version fr est très puissante, lorsque je décide de décliner mon site à l’international, les pages internationales vont elle avoir un petit bonus SEO car elles sont rattachées à une version fr déjà puissante ?
Non, le hreflang ne transmet pas de PageRank. Cela poserait problème, car par exemple une version de base américaine peut être très puissante aux Etats-Unis, mais ce ne serait pas pertinent qu’elle soit avantagée par rapport à d‘autres pages locales à l’international. Les pages américaines pourraient être trop avantagées, alors que des pages suisses par exemple seraient elles trop désavantagées. Ce ne serait pas pertinent.
Si un lien pointe vers une page du même thème, le PageRank transmis par ce lien est-il plus important ?
Je ne sais pas, je ne crois pas, mais en même temps je ne sais pas. Le PageRank fonctionne de manière assez indépendante dans l’algorithme. Il y a beaucoup de choses assez subtiles utilisées pour le classement des pages. Mais cela ne me surprendrait pas si Google faisait quelque chose d’approchant.
[Commentaire RESONEO : c’est étonnant de voir que sa réponse a doucement glissé du “non” à un “peut-être”…]
Comment Google comprend-il le contenu paginé sans les balises link rel=next/prev ?
Bon nombre d’éléments aident Google à comprendre la pagination d’un contenu. Cela peut être des indices dans l’URL, comme la présence d’un “page-2” dans l’URL. Des ancres “avant” ou ”après” peuvent aussi aider.
De plus, en général, pour les sites où c’est difficile de comprendre la pagination, les balises link rel=next/prev n’aident pas tant que cela, car leurs pages ont souvent d’autres problèmes plus graves que ces balises n’auraient pas pu résoudre seules.
[Commentaire RESONEO : d’un point de vue opérationnel, si l’usage de ces balises apparaît désormais superflu, tout ce qui va aider Google à comprendre la pagination reste plus que les bienvenus, et notamment les éléments cités par le Webmaster Trends Analyst.]
Qu’est-ce qui pousse Google à choisir une autre canonical que celle indiquée sur la page ?
Google utilise plusieurs éléments pour cela. La canonical indiquée par le site est évidemment un élément qui pèse. Les redirections sont aussi un signal très fort. Les liens internes, comme externes, aussi. Les liens du sitemap, ceux des balises hreflang sont aussi utilisés. Il peut arriver aussi que Google préfère une URL écrite de manière propre ou simple.
Parfois, tous ces signaux donnent un message un peu brouillé, et 2 pages sont éligibles à 50/50. Et Google tranche. Pas toujours de la même façon que le site. Mais nous n’avons aucun employé chez Google qui a pour mission d’embêter les SEO avec ça (rires).
Va-t-on prochainement entendre Google annoncer que la canonical indiquée par les sites n’est plus prise en compte ? Comme nous l’avons entendu récemment pour ces balises rel=next/prev…
Je ne crois pas. En tout cas, je ne suis au courant d’aucun plan qui irait dans ce sens.
Une redirection Javascript est elle considérée davantage comme une 301 ou une 302 ? Ou Google fait de moins en moins la différence entre 301 et 302 ?
Une redirection Javascript sera davantage considérée comme une 301.
Peut-on utiliser ces redirections JavaScript par exemple pour une migration, si l’accès au serveur est trop compliqué ?
Oui.
Si une page vient à répondre avec un code d’état 410, mais que finalement, changement d’avis, nous préférons finalement la rediriger via un code d’état 301, est-ce que cette redirection 301 sera bien comprise par Google?
Oui. Même si 410 dit au moteur que la page est “définitivement partie”, Google continue de vérifier de temps en temps…
Combien de temps faut-il laisser une redirection 301 pour qu’elle soit effective ?
301, c’est une redirection permanente, donc il faut la laisser… en permanence ! Mais s’il fallait donner une durée minimale pour qu’elle soit pleinement efficace, je dirais un an. Google essaie de passer sur chaque URL deux fois par an. En laissant le code d’état pendant un an, cela devrait donc être suffisant. Il faudrait aussi vérifier les passages des Googlebots pour s’assurer qu’ils ont plusieurs fois bien reçu le même code d’état.
Comment les SEO sont-ils censés gérer les méga menus ? Obfusquer les liens d’un méga menu est-il une mauvaise idée ?
Je pense qu’il ne faut pas forcément faire grand-chose de particulier pour les méga-menus. Les choses sont plus simples pour Google lorsque la structure du site est claire. Google doit donc bien comprendre la structure d’un site. La structure apportée par un méga-menu est meilleure qu’une architecture à plat où tout est au même niveau.
S’il fallait faire quelque chose, je me servirais sans doute plus du nofollow que de l’obfuscation. Je trouve que bloquer le JavaScript d’un méga menu via le robots.txt est compliqué. Or, souvent le plus simple, c’est le mieux. Et ce système compliqué serait aussi fragile, car que se passera-t-il quand une personne décidera d’effacer cette ligne du robots.txt qui ne lui dit rien.