Quels sont les 10 principaux algorithmes de Google ?

algorithmes-google

Le fonctionnement d’un moteur de recherche se base sur l’algorithme de recherche google qui est essentiel pour positionner votre site sur les résultats des moteurs de recherches. Ces algorithmes ont pour but d’améliorer la qualité des résultats de recherche et ainsi fournir la meilleure expérience utilisateur aux internautes.

Avec l’évolution des besoins de ces derniers, les algorithmes s’adaptent également via des mises à jour. Il y a de nouvelles règles qui sont créées ou certaines qui sont modifiées suivant les besoins des utilisateurs. Voici une liste des 10 principaux algorithmes de Google que vous devrez prendre en compte pour mieux référencer votre site web.

Panda

L’algorithme Panda a été introduit pour la première fois en février 2011. Cet algorithme est un filtre à recherche. En effet, avec Panda, Google pénalise le référencement de sites web dont les contenus sont peu qualitatifs. Ce filtre a été créé pour lutter contre les sites qui exploitent les faillent de l’algorithme, créés uniquement pour le référencement et le spam. Il s’agit par exemple de sites avec trop de publicités, des fermes à liens (PBN) ou des sites ne proposant pas de contenus intéressants…

Lors de son premier déploiement, Panda a fait pas mal de bruit dans le monde du référencement naturel (SEO). En effet, il a eu un impact sur la configuration des résultats de recherche des moteurs de recherche. Google a annoncé que 12 % des sites indexés ont vu leur classement baisser.

Cet algorithme est régulièrement mis à jour afin de permettre aux sites qui ont été pénalisés précédemment de récupérer leur référencement après avoir amélioré leur contenu. Dans le cas contraire, ils sont sanctionnés s’ils ne respectent plus les directives de Google.

Panda a connu au moins 4 évolutions majeures pour mieux faire la chasse aux tricheurs. En 2016, Panda a été intégré à l’algorithme de Google. Il est constamment pris en compte pour définir la position d’un site web dans les résultats de recherche.

Penguin

Lancé pour la première fois en 2012, l’algorithme Penguin est comme Panda, un filtre de recherche. Il sanctionne le référencement des sites web qui ne respectent pas les directives de Google en matière de création, d’achat ou de liens entrants (réseaux de liens).

Penguin marque sensiblement l’année 2012 en impactant 3,1 % des résultats de recherche sur Google. Les webmasters qui ont été sanctionnés par Penguin devaient nettoyer leurs dossiers en réprouvant les liens litigieux. Si le nettoyage était fait correctement, ils pouvaient récupérer leur référencement dans la mise à jour suivante.

Cependant, le nettoyage est une tâche ardue qui peut prendre des mois voire des années pour espérer échapper aux pénalités de référencement Google. Penguin est un cauchemar pour les webmasters dont chaque mise à jour suscite de vives discussions sur le web.

Exact Match Domain

L’algorithme Exact Match Domain (ou Correspondance exacte au nom de domaine) a été introduit en septembre 2012. Cet algorithme permet de diminuer le poids du nom de domaine. Il consiste en effet, à éviter que des sites de faible qualité soient référencés dans les premières positions des résultats de recherche.

Leurs noms de domaines correspondant à une requête fortement recherchée par les internautes. Il faut savoir que le nom de domaine influence grandement le référencement et certains webmasters avaient trouvé la technique pour sensiblement optimiser leur référencement.

Par exemple, un site web avec le nom de domaine « www.trouver-un-logiciel-de-gestion.com » ne figurera plus en tête des recherches Google pour la requête  » trouver un logiciel de gestion » si son contenu ne correspond pas au sujet. Avec cet algorithme, impossible de tricher avec des noms de domaines optimisés à outrance.

Hummingbird – Colibri

Hummingbird (ou Colibri en français) a été lancé en septembre 2013. Il s’agit de l’un des algorithmes les plus importants de Google. L’objectif de Hummingbird est de mieux comprendre l’intention de l’internaute. La recherche devenait ainsi précise et rapide, d’où le nom Hummingbird.

Désormais, Google est capable de comprendre une requête ou une phrase prise dans son ensemble et non plus en fonction des mots-clés. Avec ce nouvel algorithme, il est désormais possible d’obtenir des résultats précis avec des requêtes du type « Quel est le café le plus proche » ou « Quelle est la pharmacie de garde la plus proche ».

Pigeon

L’algorithme Pigeon fut introduit en juillet 2014 aux États-Unis et sur le plan international, il fut déployé en juin 2015. Cette mise à jour concerne principalement la recherche locale afin d’apporter des solutions précises aux requêtes des utilisateurs.

Il permet de distinguer lorsqu’un utilisateur vise des résultats locaux ou généraux. Par exemple : un nom de ville, un code postal, un nom de département. Ou encore certains indices locaux tels que : « à proximité » ou « près d’ici ». L’algorithme Pigeon a eu un impact significatif sur les entreprises locales tels que les restaurants, cafés, cabinets d’avocats ou de médecins…

Par exemple chez K-LYA, agence web à Nantes, nous travaillons essentiellement le SEO local car il représente presque 50% des recherches. Donc le potentiel de business est très important.

Mobile Friendly

Google annonce en avril 2015, le déploiement de son algorithme Mobile Friendly ou Compatibilité mobile. À travers cet algorithme, Google entend favoriser les sites internet qui s’adaptent parfaitement aux formats des écrans des appareils mobiles, comme les smartphones. Ainsi, un site qui ne s’adapte pas aisément sur un smartphone se retrouve être pénalisé. Cet algorithme a eu un impact majeur sur le travail SEO et a nécessité énormément de travail de mise à jour de nombreux sites.

Son impact a été beaucoup plus important que celui de Penguin ou Panda. Plusieurs experts SEO l’ont même renommé « Mobilegeddon », c’est-à-dire, l’Armageddon de la compatibilité mobile.

Rankbrain

Introduit en 2015, l’algorithme Rankbrain fait en réalité partie intégrante de l’algorithme de recherche Hummingbird. Il en est l’amélioration. L’algorithme Rankbrain serait une sorte d’intelligence artificielle capable d’apprendre et de comprendre le sens des requêtes similaires, mais formulées différemment. L’intelligence artificielle pourrait par exemple, au fur et à mesure de son apprentissage, comprendre que les requêtes « Macron » et « Mari de Brigitte Macron » doivent apporter une réponse concordante : « Emmanuel Macron ».

Avec Rankbrain, Google peut s’attaquer au côté abstrait des recherches des internautes. Il a pour but de les interpréter et de les comprendre. Selon Google, son algorithme Rankbrain fait partie des 3 piliers de référencement les plus importants avec la qualité du contenu et le blacklinking.

Medic update : Google EAT

Introduit le 1er août 2018, l’algorithme Core Broad de Google a eu un impact important sur les sites qui traitent de la santé. C’est pourquoi il a été nommé « Medic update« . Un nom proposé par Barry Schwartz suit à une enquête effectuée sur 300 sites. En effet, suite à cette mise à jour, plusieurs sites ont vu leur positionnement dans les recherches être grandement modifié. Il s’agit particulièrement des sites du secteur de la santé en grande majorité, du secteur de la finance et du business et le secteur de l’e-commerce.

google-eat

Medic update s’inscrit dans la volonté de Google de proposer aux internautes, des résultats de qualités irréprochables sur des questions pouvant avoir un impact sur leur vie. Ainsi, Google a donc mis en place un certain nombre de critères qu’une page internet doit respecter pour être bien référencée. Il s’agit des critères Google EAT, en anglais Expertise, Authority, Trust, soit Expertise, Autorité, Confiance en français.

Avec ces critères, la rédaction d’un article exempt de fautes d’orthographe ne suffit plus pour obtenir un bon positionnement. Un site de qualité doit dorénavant faire autorité dans son domaine, jouir d’une haute réputation et publier des contenus d’experts.

BERT

L’algorithme BERT a été lancé en 2019 et officiellement en décembre 2019 en France. Cet algorithme représente une avancée particulière pour le moteur de recherche Google. Il constitue les véritables prémices du moteur en termes d’intelligence artificielle. La mise à jour BERT vise à mieux interpréter l’intention des requêtes de recherche. Il s’agit de mieux interpréter le langage naturel utilisé par les internautes dans les formulations de leurs recherches.

Par exemple, le mot « avocat » peut aussi bien signifier un fruit tout comme une profession. Les mots qui lui seront ajoutés permettront à Google de déterminer l’intention de l’internaute. Ainsi, si l’on parle de type d’avocat, on parle plus de la profession et si l’on parle de recettes, on parle du fruit. L’algorithme BERT permet à Google de mieux comprendre le contexte d’une requête au lieu de l’examiner mot par mot. Ce qui permet à Google d’afficher des résultats précis.

Cet algorithme permet donc de mieux comprendre les requêtes complexes. Il impacterait ainsi 10 % des requêtes les plus longues.

Core WebVitals

Google c​​​​​ontinue dans sa démarche d’offrir à ses utilisateurs des expériences toujours plus riches sur son moteur de recherche. Il ouvre ainsi la voie à de nouveaux éléments qui influencent le référencement. Il s’agit de signaux qui concernent la rapidité de téléchargement d’une page, la réactivité et la stabilité visuelle. Ces signaux sont des facteurs de classement nommés Core Web Vitals et qui seront pris en compte dans l’algorithme de Google en 2021.

core-vitals-google-facteurs

Par exemple, une page qui met trop de temps à charger va générer un haut taux de rebonds. Pareillement, une page qui met trop de temps à être utilisable ou qui a des éléments visuels qui gênent l’utilisateur ne le fera pas rester longtemps. En fait, Google va prendre en compte l’expérience de page ou l’expérience utilisateur pour classer les pages dans son moteur de recherche. Cet algorithme compte 3 signaux.

D’abord le LCP (Largest Contentful Paint) qui est une mesure des performances de chargement de la page. Précisément, il mesure le temps nécessaire pour afficher le contenu principal visible à l’écran à l’arrivée sur votre page.

Il ne s’agit pas du temps de chargement de la page entière, mais des premiers éléments importants pour l’utilisateur. Pour une meilleure expérience utilisateur, Google considère qu’un mauvais LCP fait plus de 4 secondes et qu’un bon LCP fait moins de 2,5 secondes. Il prend en compte le chargement des images, des vidéos et du texte. Avec l’utilisation plus accrue des smartphones, personnes n’aime voir des pages blanches longtemps affichées à l’écran.

Vient ensuite le FID (First Input Delay) qui mesure la réactivité du chargement de la page. Il mesure le temps écoulé entre la première interaction de l’utilisateur avec votre page et le moment où le navigateur est capable de répondre à cette interaction. Pour Google, un mauvais FID est au-delà de 300 ms et un bon FID est en dessous de 100 ms. Le FID est très important dans la satisfaction de l’utilisateur.

Enfin le CLS (Cumulative Layout Shift) permet de mesurer la stabilité visuelle et les changements de mise en page inattendus. Un changement visuel se produit chaque fois qu’un élément visible de votre page change de position. Vous lisez un paragraphe et soudainement il disparaît et est remplacé par un bouton. Il vous faut alors scroller plus bas pour reprendre votre lecture. Selon Google, un mauvais CLS est au-dessus de 0,25 et un bon CLS en dessous de 0,1.

Conclusion

Vous en savez maintenant assez sur les éléments qui influencent vos recherches ou le référencement de votre site internet. Il ne s’agit toutefois, que d’une infime partie des améliorations de l’algorithme de Google et ils évoluent en permanence. Il faut donc retenir quelques principes fondamentaux pour obtenir un bon référencement. Proposer un contenu de qualité, éviter de suroptimiser son site, éviter les publicités intrusives, développer un site sécurisé….