search
top

Le contexte du SEO

Le référencement naturel, n’est pas une discipline figée. C’est à dire que nous évoluons dans un environnement changeant dans lequel il faut en permanence se maintenir à jour, ce qui passe par un travail de veille important, des tests et surtout de la curiosité. Si nous avons vu dans les précédents articles des bases du SEO ce qu’était le référencement et l’anatomie des pages de résultats sur Google, il est également important de bien comprendre le contexte du SEO, car il joue un rôle majeur dans la mise en place d’une stratégie SEO. Mettre en place une stratégie de référencement, ne rime pas avec « mettre un mot clé ici et là », il y a plusieurs points à prendre en compte et à analyser. Au programme, la domination de Google, son algorithme, ses filtres anti-spam et la concurrence sur une requête ciblée.

En France, Google domine largement

Quand on parle de SEO en France, on parle presque uniquement de Google, et pour cause, sa part de marché est écrasante, avec en moyenne, sur le premier trimestre 2012, 90% de parts de marchés:

Parts des moteurs de recherches France

Google domine avec 90% de parts de marché en 2012

Aux Etats-unis, c’est différent car Bing détient un peu plus de 30% de parts de marché. Dans d’autres pays, vous pourriez être amenés à travailler sur différents moteurs, par exemple, Yandex en Russie, Baidu en Chine ou Seznam en République Tchèque.

L’algorithme de Google

Pour classer les sites dans les pages de résultats, Google utilise un algorithme de positionnement qui reste difficile à appréhender car:

  • Google reste discret par rapport aux critères pris en compte même si maintenant nous connaissons les principaux et que finalement, les fondamentaux restent le mêmes.
  • Les mises à jour de l’algorithme sont fréquentes, avec des centaines de changements par an
  • Google met en place des filtres et des pénalités qui sont censés nettoyer les pages de résultats
  • De nouvelles interfaces et outils entrent en jeu, donc de nouvelles façons de positionner un contenu

Aussi, la maturité de plus en plus affirmée de la population Internet et les nouveaux dispositifs (smartphones, tablettes…) modifient le comportement des internautes sur les pages de résultats.

Ainsi, pour connaitre les critères pris en compte, il faudra avant tout compter sur l’expérience et la vigilance de votre responsable SEO. Néanmoins, vous pouvez mieux les appréhender en suivant:

  • Les déclarations faites par Google, par exemple à travers les vidéos pour webmasters de Matt Cutts et les communications mensuelles sur les changements d’algorithme
  • Les études faites par des professionnels du référencement, par exemple avec les « white-board friday » de Seomoz
  • Les tests SEO que vous pourrez trouver sur différents blogs, dont de très bons réalisés par des SEO français

A noter que chaque responsable SEO à ses propres croyances, optimisations, bons plans et que finalement ce qui est vrai pour un, ne l’est peut-être pas pour l’autre, tout comme ce qui est vrai aujourd’hui, peut ne pas l’être demain. Il y a des années la Meta Keywords était prise en compte, aujourd’hui non, mais des « agences » proposent toujours de les optimiser, mais ceci est un autre débat.

L’évolution des critères de positionnement

Des centaines d’optimisations peuvent être apportées à un site Internet mieux le positionner dans les pages de résultats. Chaque optimisation, par exemple, l’optimisation des titres de pages, comporte des bonnes pratiques à respecter.

Pour vous donner un exemple de ces évolutions impressionnantes, voici deux infographies, par Greenlight, qui datent de 2010, mais qui permettent de bien comprendre que les signaux changent:

Évolutions des signaux SEO entre 1994 et 2001

Algorithme Google entre 1994 et 2001

Les critères de Google ont rapidement évolués entre 1994 et 2001

Évolutions des signaux SEO entre 2002 et 2009

Changements de l'algo Google

Mais également entre 2002 et 2009

Sans rentrer dans le détail de ces changements d’algorithme, vous pouvez apprécier les différentes évolutions en vous focalisant uniquement sur les codes couleurs. Le responsable SEO doit donc effectuer une veille constante. En 2012, on pourrait très bien ajouter les temps de chargements, la qualité du site, la prise en compte croissante du SMO etc…

Cliquez ici (SEOmoz), si vous souhaitez plus de détails sur les changements d’algorithme.

La lutte anti-spam et qualité

En plus de ces différents changements, Google tente de mener une lutte acharnée contre le spam mais surtout cherche à privilégier la qualité, tant en termes de contenus (Google Panda) que de liens entrants (Google Penguin).

C’est à dire qu’en plus des centaines de signaux à prendre en compte, il s’agit aussi de ne pas trop dépasser la ligne jaune, sous peine de subir une pénalité ou un retrait pure et simple de l’index. Avec 90% de parts de marchés, on comprend facilement qu’un site blacklisté est une plaie profonde pour son propriétaire, surtout si celui-ci ne varie pas suffisament ses sources de trafic et surtout si c’est un site e-commerce.

Mise à jours de l'algorithme google

Les mises à jour de Google pour lutter contre le spam

Voici donc une infographie, crée par SEO.com, qui résume très bien les diverses actions entreprises par Google dans sa lutte contre le spam, depuis 2003:

Boston(Mars 2003) concernait les liens entrants et le contenu unique ce qui avait impacté le Page Rank et le poids des backlinks.
Cassandra(Avril 2003), concernait la pertinence du nom de domaine notamment pour lutter contre les domaines avec mots clés génériques.
Dominic (Mai 2003), visait à améliorer la pertinence des data centers.
Esmeralda (Juin 2003), visait à améliorer le classement des pages internes qui peuvent donner des informations plus pertinentes aux internautes.
Florida (Novembre 2003), avait pour but de mieux comprendre le contexte d’une recherche et donnait plus de poids aux pages optimisées et aux sites correctement liés.
Austin (Janvier 2004) a été mis en place pour lutter contre le Google Bombing et surtout donner plus de poids aux liens pertinents, internes et externes.
Brandy (Février 2004) misait sur la qualité de contenu d’une page donnée.
Allegra (Février 2005) visait surtout les sites spammy qui se positionnaient bien dans les SERP mais cette mise à jour a également touchée des sites propres.
Bourbon (Mai 2005) souhaitait corriger certaines erreurs de Allegra et traiter les demandes de réexamens.
Jagger (Octobre 2005) donnait la parole aux webmasters pour qu’ils donnent leurs impressions quant aux sites utilisant des techniques Black Hat pour se positionner.
Big Daddy (Février 2006) se concentrait sur les liens, internes et externes, et la confiance (Trust) qu’ils inspiraient au moteur.
Pluto (Août 2006) était également en rapport avec les backlinks.
Caffeine (Août 2009) a permis d’optimiser l’indexation des contenus en étant plus rapide. A cette période, Page Speed est entré dans le ronde.
Mayday (Mai 2010) visait à améliorer le trafic issu de la longue traine.
Panda(Février 2011) a impacté les sites avec un contenu de basse qualité et souhaitait privilégié le contenu unique.
Penguin (2012) vise surtout à pénaliser les sites aux techniques de linking spammy.
C’est dire toute l’énergie qui est mise en place par Google depuis des années, mais il faut dire, qu’en 2012, certaines requêtes et certains sites font peur à voir, même avec la mise en place de tous ces filtres.

La concurrence

En référencement naturel, la concurrence signifie l’ensemble des pages Internet qui sont positionnées
sur une requête que vous ciblez. On ne parle pas de concurrence sectorielle.

Ainsi quant bien même vous vous acharnez à:

  • Respecter les bonnes pratiques de Google
  • Optimiser vos sites de manière efficace
  • Veiller aux dernières évolutions et adapter vos sites en conséquence

Vous pouvez ne pas être positionné comme vous le souhaiteriez! Vos concurrents également respectent (ou non?) les best-practices, optimisent (ou non?) et suivent (ou non?) les évolutions.

Bien souvent, certains webmasters voient en leur baisse de positionnement, un filtre de Google, mais si c’était tout simplement leurs concurrents qui ont menées des actions SEO plus efficaces?

Par conséquent, il faut les analyser pour connaitre:

  • Les différents axes utilisés dans leur stratégie SEO
  • Le niveau de qualité de leurs sites
  • Le niveau de maturité de leurs stratégies
  • Les mots-clés ciblés
  • Les stratégies off-site utilisées

Que faire avant de mettre en place une stratégie SEO

Une stratégie se prépare, le marché, au sens des moteurs de recherches, doit être analysé en amont. En fait, il ne faut pas se lancer tête baisser, il vaut mieux:

  • S’entourer d’un référenceur qualifié
  • Connaitre les dernières évolutions de Google
  • Sélectionner les contenus à travailler, en fonction de votre site Internet
  • Prendre en compte les changements d’algorithme et prévoir les impacts
  • Analyser votre concurrence
  • Bien sélectionner les mots clés (article à venir)

Killian Kostiha, 27 printemps, SERP addict, curieux et passionné, je suis consultant en référencement dans une agence web à ParisSpikly. Je partage ici quelques articles sur le référencement, le SMO, des bases SEO et des outils pratiques pour mieux gérer un site Internet. Vous pouvez également me suivre sur TwitterFacebookGoogle Plus pour discuter et échanger sur le référencement naturel, où autre. Il n’y a pas que Google dans la vie :-) .

19 Responses to “Le contexte du SEO”

  1. Arnaud from référencement angers dit :

    Bien joué ! Le genre de message que tu fais lire à tes clients pour qu’ils comprennent mieux les problématiques actuelles du SEO…

  2. Littlebuzz from Bague en argent dit :

    « Prendre en compte les changements d’algorithme et prévoir les impacts » => à l’allure ou Google met en place ces modifications, il reste difficile de les anticiper, c’est un des points « compliqué » du SEO actuel. Ce qui fonctionnait parfaitement il y a encore quelques mois en white et maintenant quasi considéré comme du BH !

  3. SEO is not a crime dit :

    C’est compliqué oui, il faut du recul et pas vraiment de règles précises. Je te rejoint sur ce point, des sites « whites » semblent aussi avoir été touchés, des sites moins propres non. Et puis les changements ne sont pas finis :)

  4. Betrash_seo dit :

    Jolie l’infographie sur les màj, et pratique pour avoir un peu de recul sur ce qui se passe en ce moment. Gg.

  5. Mikiweb from référenceur sur antibes dit :

    Tu résumes bien la situation dans laquelle on se trouve. On test, on essai, on regarde les résultats et on corrige. Mais en général on navigue un peu à l’aveugle, on peut encore moins qu’avant faire de prédiction sur les objectifs à atteindre car cela change sans arrêt.
    Google essai d’être de plus en plus pertinent même si sur certaines requêtes des sites spammy au possible ressortent en tête.
    C’est difficile pour une grosse machine comme Google de cibler son action vu la quantité énorme de site web indéxé.
    Certains sites bien tenus ont donc fait les frais de ces mise à jour de masse ayant pour but de virer le plus de sites spammy que possible.
    Mais ce qui me fait bien marrer c’est que sur certaines requêtes très concurrencielles comme les 3P, il n’y a que des sites utilisant des techniques black hat. Alors là comment Google fait pour faire le ménage : on désindexe tous les sites sur ces requêtes ??
    Bref tout ça pour dire que Google est une énorme machine qui rame pour faire le ménage car comme toute entreprise, plus on est gros plus on s’expose aux problèmes ;)
    L’avenir nous dira si big G sera remplacé ou si Bing rattrapera son retard. En tout cas pour moi ça ne ferai pas trop mal de changer cette position dominante.

  6. Ben from développement photo dit :

    Très bon article qui résume bien le contexte actuel du référencement et qui donne un aperçu des difficultés auxquelles sont confrontés les référenceurs.
    L’adaptabilité est depuis toujours l’une des principales compétences que ceux-ci se doivent de posséder. Avant même les mises à jour récurrentes imposées aujourd’hui par Google, celui-ci avait déjà fait évoluer son algorithme, notamment pour accorder davantage de poids aux liens. Les changements en SEO ne datent donc pas d’hier !
    Le problème actuellement c’est qu’en France peut-être plus qu’ailleurs, Google a le champ libre et, parce qu’il ne souffre d’aucune concurrence, peut se permettre de commettre des erreurs qui nous affectent nous en tant que référenceurs, mais aussi les utilisateurs, ce qui est encore plus grave. Comme le dit Mikiweb, il serait donc bon pour tout le monde que Bing ou tout autre moteur à même de lui faire de l’ombre se réveille…

  7. LaurentB dit :

    Pourtant, je vois l’évolution différemment.
    On sait depuis le début comment travailler dans les règles de l’art, en adéquation avec les fondamentaux.
    Cependant, les faiblesses des algos ont permis de prendre des raccourcis. Ce sont ces derniers qui se bouchent. Cela n’enlève en rien aux fondamentaux qui demeurent quasiment immuables.

  8. SEO is not a crime dit :

    @Mikiweb: Je ne sais plus ou j’avais entendu (peut être au SEO Camp) qu’ils ne faisaient pas le ménage sur ce type de SERP car finalement les sites qui attendaient derrière n’étaient pas forcément plus clean…

    @Ben: Oui tant que Google dominera le marché, nous devrons « suivre ses guidelines »…

    @Laurent: Je suis complètement d’accord sur le fait que les fondamentaux sont les mêmes depuis des lustres. L’idée de ce post était surtout de montrer que le référencement évolue, ou tout du moins que Google tente de faire évoluer les SERP vers quelque chose de plus clean…Mais n’y arrives pas forcément.

  9. Excellent… mais il manque peut-être une « petite » chose…. Google étant une entreprise commerciale qui vend du référencement payant, son intérêt est de tout faire pour essayer d’empêcher autant que possible tout travail de référencement naturel… par exemple en modifiant trés souvent l’algo sous des prétextes plus ou moins fallacieux tel que « lutte contre le spam »… non?

  10. Daniel Roch from Référencement naturel dit :

    Entièrement d’accord avec Laurent Bourrelly. Les bases ne changement pas. C’est plutôt les techniques qui exploitent les faiblesses qui tendent à disparaître au fur et à mesure (même si Google a toujours un train de retard sur le sujet).

    L’essentiel, c’est que les fondamentaux ne changent pas : un code source lisible et structuré, un bon maillage interne, des contenus pertinents et des liens variés.

  11. SEO is not a crime dit :

    @Daniel: Je le suis aussi. Le but étant de montrer que l’algorithme évolue, les signaux, le poids etc…Après sur les fondamentaux je suis en phase avec ceux que tu cites. Je l’ai mentionné dans l’article (…même si maintenant nous connaissons les principaux…) mais peut être pas assez clair. Donc j’édite le post :)

  12. raphaël from Agence Web Montpellier dit :

    Très bon article, clair et synthétique (non c’est pas du spam de commentaire!) qui a le mérite de mettre en avant l’aspect mouvant du SEO. (impressionnante liste des actions de google). Le graphe de l’évolutions dans la prise en compte des éléments par google est frappant !

  13. lereferenceur from blog seo dit :

    Sympa le recap.

    Je n’ai pas de tres grande experience dans le referencement mais j’ai l’impression que les methodes ne changent pas, il suffit juste d’etre moins bourrin et plus naturel

  14. SEO is not a crime dit :

    Les grandes lignes changent peu (title, linking, contenu…) mais Google est en évolution permanente pour éviter les techniques spammy. Mais ça ne marche pas toujours à voir la tête de certaines SERP…

  15. Christophe from Création de textes dit :

    De superbes infographies!
    Le SEO n’a pas tant évolué que cela si l’on y regarde de plus près, ce sont juste les techniques de bourrin qui permettent de gruger Mister G. qui disparaissent les unes après les autres.
    La seule question, c’est savoir d’anticiper ce que Google va faire, mais cela me semble très difficile de le prévoir (ce qui fait la différence entre un bon et un mauvais SEO?)

  16. SEO is not a crime dit :

    Oui, ce sont surtout les MAJ de l’algorithme qui sont fréquentes. Mais je serai moins catégorique sur le fait que les techniques de bourrin disparaissent. Encore aujourd’hui sur certaines SERP, c’est la pagaille.

  17. timothée from couverturezingueriealsace.com dit :

    Sympa les infographies. Et ça ne fait pas de mal de se rappeler l’historique des évolutions de Google. Pour ma part j’ignorais un bon nombre des filtres mis en place par Google contre le spam hormis les plus récents (panda et penguin)

  18. Merci pour l’article!

    C’est vrai qu’avec toutes ces mises à jour il est de plus en plus difficile de suivre la tendance, mais il est encore possible de ne pas être touché par ces mises à jour! Fournir des contenu de qualité, unique…
    Alexandra

  19. Alexandre from Agence Web Nice dit :

    En 2012, une stratégie efficace pour beaucoup d’entreprise : tenir un blog avec un contenu de qualité.

    Le contenu de qualité = Linkbaiting = partage sur les réseau sociaux.

    Sur les pages recevant beaucoup de liens, on fait des liens vers nos pages commerciales de manière naturel et on dispose du jus des liens du linkbaiting.

    Cela ne suffit pas, mais c’est une bonne base à adopter je pense.

top