Comme la plupart des sites web, nous utilisons nos propres cookies et ceux de tiers à des fins d'analyse et pour vous montrer des publicités personnalisées ou basées sur vos habitudes de navigation.
En général, ces informations ne permettent pas de vous identifier directement, mais elles peuvent vous offrir une expérience web plus personnalisée. Parce que nous respectons votre droit à la vie privée, vous pouvez choisir de ne pas nous autoriser à utiliser certains cookies. Cependant, le blocage de certains types de cookies peut affecter votre expérience sur le site et les services que nous pouvons offrir.
Pour plus d'informations, vous pouvez consulter notre politique en matière de cookies.
Les algorithmes Google : c’est quoi et quelles conséquences pour votre site Web
Les algorithmes Google : Comment Google et son algorithme ont-ils changé ?
Vous travaillez sur Internet et le classement des sites Web ?
Si la réponse est oui, l’une de vos principales préoccupations devrait être les modifications apportées à l’algorithme Google.
Pourquoi ?
Chaque fois que Google apporte une modification importante à son algorithme, les règles du jeu changent. Vous devez vous adapter aux nouvelles exigences que le moteur de recherche met en place.
Les règles du jeu changent
Dans le Google plus archaïque, par exemple, on utilisait énormément le keyword stuffing.
En quoi consiste-t-il ? Répéter les mots-clés de manière très exagérée et les placer dans la partie la plus basse des sites Web. En utilisant des tailles de police imperceptibles et parfois de la même couleur que l’arrière-plan du site Web.
Cela a très bien fonctionné à l’époque, mais aujourd’hui, il est manifestement insensé de seulement y penser.
C’était la même chose avec les liens. Personne ne se souciait d’obtenir des centaines de liens entrants et de mettre des centaines de liens sortants en retour. Inimaginable aujourd’hui.
Tout cela a beaucoup changé au fil du temps. Et cela va encore évoluer. Avec les algorithmes Google, on ne sait jamais.
Dans cet article, nous vous donnons un aperçu de certains des changements d’algorithmes qui ont le plus marqué l’évolution de nos méthodes de travail. Il y en a évidemment beaucoup d’autres, antérieurs et intermédiaires, mais ce sont ceux qui ont le plus influencé les règles du jeu du référencement.
Caffeine
L’arrivée de Google Caffeine a eu lieu en juin 2010.
Une mise à jour qui était assez importante. Cela a rendu le moteur de recherche beaucoup plus dynamique et rapide.
Qu’est-ce que cela signifie ? Il indexait le contenu beaucoup plus rapidement et, de la même manière, il détectait les modifications apportées aux sites Web beaucoup plus rapidement qu’auparavant.
Panda
La première apparition de Google Panda remonte à février 2011.
Nous évoquons la première parce qu’il y a eu de nombreuses mises en œuvre ultérieures de cet algorithme.
Sur quoi Google Panda s’est-il concentré ? Sur le contenu des sites Web, et plus particulièrement sur la qualité de ce contenu.
L’objectif de cet algorithme était de dévaloriser le positionnement des sites Web dont le contenu n’était pas pertinent ou de mauvaise qualité.
Quels sont les sites Web les plus touchés par cette nouvelle affaire des algorithmes Google ?
- Ceux qui ont copié le contenu.
- Ceux qui ont créé un contenu automatisé de faible qualité.
- Ceux dont le contenu est médiocre.
Freshness
Novembre 2011 a été la date choisie par Google pour une nouvelle modification de son algorithme.
Cela a eu un impact considérable sur certains contenus qui étaient considérés comme évoluant dans le temps. En d’autres termes, dans certaines recherches, il a commencé à accorder une plus grande pertinence aux nouveaux contenus et aux contenus plus récents.
À partir de ce moment, on a parlé de l’importance accrue de renouveler certains contenus statiques. Par ailleurs, l’introduction d’un contenu entièrement nouveau permet de maintenir les sites Web à jour.
Venice
C’était en février 2012.
Ce nouvel algorithme Google a marqué un tournant pour les recherches locales.
Jusqu’alors, lorsque vous vouliez rechercher un service local dans une ville, vous deviez chercher « plombier Toulouse ». Mais après cette mise à jour, Google a commencé à afficher des résultats pour chaque ville dans les recherches locales.
En d’autres termes, vous pouvez rechercher un plombier à partir d’une adresse IP située à Toulouse et obtenir des résultats pour des plombiers à Toulouse. Vous pourriez effectuer la même recherche pour un plombier à partir d’une adresse IP située à Brest et obtenir des résultats provenant de cette ville.
Cela signifiait un grand changement lorsqu’il s’agissait de travailler sur le positionnement des recherches locales. Nous avons dû commencer à travailler sur d’autres types de mots-clés.
Penguin
Une mise à jour de ce redoutable algorithme datant d’avril 2012.
Redouté parce qu’à sa première apparition, il a fait d’énormes ravages dans les résultats de recherche. De nombreux sites Web ont été pénalisés et le chaos s’est installé dans le monde du référencement. Merci les algorithmes Google !
Sur quoi le Penguin était-il basé ?
Il s’est fondé sur plusieurs facteurs.
Mais celui qui nous a donné le plus de maux de tête est celui des liens. Avant l’apparition de Google Penguin, toutes sortes de liens étaient créés sans pratiquement aucun contrôle. Il était très difficile (mais pas impossible) de s’attirer des ennuis.
Google Penguin mesure la qualité des liens et a commencé à pénaliser les sites Web dont les liens sont de très mauvaise qualité, très « hasardeux », c’est-à-dire artificiels, etc.
Le problème de cet algorithme était la difficulté de sortir de la pénalité. Vous ne pouviez pas en sortir tant qu’il n’y avait pas une nouvelle implémentation de l’algorithme.
Par la suite, plusieurs mises à jour de Penguin ont été effectuées sans changements drastiques jusqu’en septembre 2016, date à laquelle nous avons atteint la mise à jour 4.0 que nous attendions tous.
Pourquoi l’a-t-on tant attendu ?
Il s’agissait d’une mise en œuvre de l’algorithme Penguin directement au cœur du système.
Il a permis d’effectuer le classement des liens en temps réel. C’était une excellente nouvelle, car nous n’aurions plus à attendre une nouvelle mise en œuvre de Penguin pour sortir des pénalités de liens algorithmiques.
Droits d’auteur
En août 2012, cette nouvelle fonctionnalité est arrivée.
Cela signifiait le début d’une vague de sanctions en matière de droits d’auteur. La grande majorité de ces sanctions étaient dues à des demandes DMCA.
Cela a eu un impact important sur les sites Web de films, de chansons, etc. qui étaient devenus très à la mode à cette époque. L’un des sujets les plus mémorables des algorithmes Google.
EMD
Jusqu’en septembre 2012, avoir un domaine EMD (exact match domain) avec un mot clé exact signifiait qu’il était plus facile de se classer pour ce mot clé spécifique.
L’enregistrement de ce type de domaines était très utilisé afin de se classer avec le moins d’efforts possible.
C’est un élément qui a changé avec cette mise à jour et qui a dévalué la valeur supplémentaire de ce type de domaines.
Hummingbird
Une autre évolution majeure, attendue depuis longtemps, qui a été mise en œuvre en août 2013.
Sur quoi était basé Hummingbird ? À partir de ce moment-là, la recherche serait beaucoup plus sémantique, avec une plus grande connexion entre les concepts en général.
En d’autres termes, Google allait interpréter beaucoup mieux les mots liés, le contexte, etc. Une réaction qui a accru l’importance de la sémantique dans notre contenu.
Mobile Friendly
En avril 2015, Google a émis un avertissement selon lequel il serait très important d’avoir un site Web optimisé pour mobiles.
Les résultats seraient différents selon qu’il s’agit de recherches sur mobile ou sur PC. En d’autres termes, il y aurait une différenciation de certaines SERP pour mobiles et d’autres pour PC.
Qu’est-ce que cela signifie ? Tous ceux qui n’avaient pas encore de version mobile de leur site Web ont dû en créer une afin de ne pas perdre leur position dans les SERP mobiles.
RankBrain
Une autre des grandes annonces de Google a eu lieu en octobre 2015, avec RankBrain. Bien qu’il soit probable que cet algorithme était déjà appliqué avant cette date.
Qu’est-ce que RankBrain ? L’algorithme du moteur de recherche était plus intelligent, faisait des mises à jour pour l’améliorer et apprenait lui-même.
Il l’a amélioré pour qu’il soit plus intelligent et qu’il tire des enseignements des différents sites Web.
Algorithme Fred
Il est arrivé le 8 mars 2017, avec une confirmation officielle de Google 15 jours plus tard.
Ce changement algorithmique, selon John Mueller, a touché les sites de faible qualité et remplis de publicités et d’annonces.
En définitive, c’est ce changement qui a permis de mesurer l’authenticité et l’utilité d’un site Web. Fred a été le fruit de nombreuses discussions.
⭐️ Algorithmes Google
Connaître les principaux changements algorithmiques de Google vous permettra de travailler sur le référencement de votre site Web en toute sécurité et sans surprise de dernière minute.
Les algorithmes Google aujourd’hui
Depuis les débuts du référencement jusqu’à aujourd’hui, les choses ont beaucoup changé.
En substance, le référencement est toujours le même. Nous devons toujours créer des sites Web et optimiser le référencement des pages. Très différent de ce que nous faisions avant, c’est sûr. Et nous devons continuer à travailler sur le linkbuilding, beaucoup plus naturel et de qualité qu’auparavant.
D’une manière générale, le référencement actuel a évolué vers plus de naturel dans tous ses aspects, tant au niveau du contenu que des liens.
Nous devons nous concentrer sur la création d’un contenu de qualité pour l’utilisateur.
Améliorer notre CTR et notre UX.
N’oubliez pas de travailler sur la sémantique et les synonymes dans notre contenu.
⚠️ La répétition des mots-clés appartient au passé.