SEO et les algorithmes de Google


Si les référenceurs confrontent autant leur désaccord quant aux classements des moteurs, c’est qu’aucun n’a réellement pu percer le secret de leurs algorithmes respectifs, qui permettrait d’avoir toutes les clés pour hisser dans les SERP les pages d’un site web, quel que soit son secteur d’activité.

Nous apportons un éclairage sur le rôle d’un algorithme et les évolutions multiples de celui conçu par Google, ce dernier représentant l’immense majorité du trafic issu des moteurs organiques en France.

Qu’est-ce que l’algorithme d’un moteur de recherche ?

Un algorithme désigne un ensemble d’opérations réalisées par un moteur de recherche (Google, Bing etc.)  dans le but de déterminer un classement de l’information par pertinence.

Les algorithmes actuels recourent à des centaines de facteurs pour évaluer la qualité d’une page web sur une requête donnée et la positionner dans les pages de résultats.

À titre d’exemple, Google, le moteur dominant en occident, annonce modifier son algorithme 500 à 600 fois chaque année. Si l’essentiel des mises à jour n’ont pas une influence significative sur les résultats de son index, des changements sont au contraire parfois à l’origine d’évolutions considérables des positions.

Panda : l’algorithme qui filtre les sites de piètre qualité

Depuis sa création en 1998, le moteur développé par Serguei Brin et Larry Page a vu croître année après année sa popularité. Toutefois, cela ne s’est pas fait sans heurts, leurs équipes ont constaté que des professionnels du webmarketing recouraient à diverses techniques dans le but de tromper le moteur et favoriser la visibilité de contenus qui ne méritaient pas nécessairement d’être mis en avant. En 2011, Google a lancé Panda, un filtre algorithmique visant à lutter contre les plateformes caractérisées par du contenu estimé comme étant de piètre qualité.

Les ressources de cette nature présentent plusieurs point communs. Ce sont notamment des contenus trop concis, ils proposent une information trop brève qui n’est pas susceptible de contenter les internautes. Il s’agit ensuite de textes à la qualité déplorable, potentiellement généré au moyen d’un système d’automatisation. On a aussi constaté que les pages de résultat d’un moteur interne d’un site avait été ciblé par ce filtre, tout comme les ressources dont l’intérêt est quasi nul pour les moteurs organiques, à l’instar des formulaires.

Pingouin : l’algorithme qui stigmatise les plateformes dont trop de liens semblent artificiels

Le moteur à la popularité incontestée sur le Vieux Continent a perpétuellement cherché à améliorer la pertinence des réponses offertes à ses utilisateurs. Or, les professionnels du référencement naturel ont bien cerné l’importance des liens dans le classement des informations. Pour l’entreprise de Mountain View, il a sans doute été philosophiquement difficile d’amoindrir le facteur netlinking, elle s’est ainsi adaptée et a pénalisé les plateformes suroptimisées.

Autrement dit, ce sont les sites bénéficiant d’un trop fort pourcentage de liens “non naturels” qui ont été affectés par le filtre Google Panda, appliqué au printemps 2012.

Les acteurs pénalisés furent ceux qui possédaient une grande quantité de backlinks de faible qualité (par exemple des liens en provenance d’un site d’une thématique très éloignée) et des liens dont les ancres étaient trop souvent composées de mots-clés. La première version de Google Panda a tout de même impacté eu un impact sur 3,1 % des requêtes.

Hummingbird et Rankbrain :

La firme californienne a mis les bouchées doubles pour satisfaire toujours plus les utilisateurs de son moteur. Cela s’est traduit une année plus tard par la mise en place de Google Hummingbird (Colibi en Français). Il s’est principalement agit de répondre plus efficacement aux requêtes inédites, à la longue traîne ainsi qu’aux requêtes pouvant présenter plusieurs sens.

Google a également marqué le coup avec RankBrain, un algorithme d’intelligence artificielle (IA)

qui doit permettre d’appréhender plus efficacement les requêtes complexes.

Sa spécificité ? Une partie du code est désormais automatisée, RankBrain a la capacité de s’améliorer par lui-même. Cette évolution d’algorithme SEO accroît ou baisse l’importance de divers facteurs ( backlinks, autorité du domaine etc.) selon le ou les mots-clés recherchés.

Les dernières mises à jour algorithmiques

Lancé à l’octobre 2019, Bert (Bidirectional Encoder Representations from Transformers) ne se distingue en apparence pas significativement de Rank Brain, il a en effet pour objectif de mieux cerner le langage naturel. Il doit bénéficier aux plateformes qui publient des contenus de qualité et celles qui répondent efficacement aux requêtes vocales croissantes. Pour y parvenir, Google tire profit d’une technique de machine learning pour aider son algorithme à mieux comprendre le contexte d’une requête.

Le moteur dominant ne s’arrête jamais, comme en atteste le “Mai 2020 Core Update”, une actualisation de son algorithme qui aurait manifestement occasionné beaucoup de changements de position dans les résultats de recherche. Micromania a figuré parmi les grands gagnants de cette mise à jour sur Google francophone tandis que Spotify a vu sa visibilité décliner sensiblement. Cela étant, à l’heure où nous rédigeons ces lignes, les spécialistes du SEO s’interrogent quant aux facteurs qui peuvent expliquer ces incidences.

Deux mois plus tôt, le Local RankFlux de Bright Local a mis en évidence des tendances de fluctuation sur le référencement local anglophone, preuve s’il en est que Google cherche à rendre tous les types résultats bien plus pertinents.