Accéder au contenu principal

SEO : le temps des experts est-il révolu ?

Le chat et la souris

Le SEO est une discipline qui nécessite soumission et d'abnégation. Depuis que la pratique est née avec l'essor des moteurs de recherche (début des années 2000), elle ne cesse de devoir s'adapter aux changements de fonctionnement de son maître, le moteur de recherche.
Ainsi, pendant près de 10 ans, les webmasters ont du (et su) s'adapter aux évolutions des critères pris en compte par les moteurs, et surtout par Google, forcément.


Chronologiquement, et de mémoire :
  • le contenu textuel des pages
  • les balises meta keywords et description
  • le titre de page
  • le nom de domaine
  • la réécriture d'URL
  • le nombre de liens entrants
  • l'ancre de ce mêmes liens
  • un mix d'un peu de tout ça à la fois

Évidemment, chaque nouvelle génération d'algorithme a engendré sa part sombre de spams et d'abus, plus communément appelée "techniques SEO" :
  • l'ancestral Texte blanc sur fond blanc (toujours vivant)
  • <meta name="keywords" content="jeux,vidéo,jeu,vidéo,jeux vidéo,sexe,xxx" (même spour un site non prono cela va de soi)
  • les titres de billets qui sont plus bossés que le billet lui-même
  • http://www.la-meilleure-banque.com
  • http://www.la-meilleure-banque.com/avec-les-credits-les-plus-avantageux.html
  • les fermes de liens, les inscriptions automatiques à 1000+ annuaires, etc.
  • les commentaires sur un blog lambda signés "Agence Web à Lyon"
Pris au jeu de la suroptimisation qu'il a lui-même causée de par son quasi-monopole, qu'a fait Google ?
Il a crée la Sandbox, le nofollow, la dénonciation des liens sponsorisés qui ne sont pas marqués nofollow, les pénalités de positionnement (minus 50)...

Aujourd'hui, les techniques d'optimisation sont connues de tous, gérées nativement ou presque par tous les CMS majeurs, et les techniques secrètes, de l'ordre du black hat SEO, sont moins faciles à mettre en place que l'ajout d'un simple mot-clé.

Les SERP personnalisées


Depuis quelques jours, Google intègre la personnalisation des pages de résultats (SERP) pour tous ses utilisateurs, même les non inscrits. Ça signifie qu'un site sur lequel vous cliquerez souvent dans les pages de résultats de recherche aura tendance à être positionné plus haut lorsqu'il apparaitra dans de futures recherches.

C'est l'utilisateur qui fait sa propre promotion des sites qui répondent à sa recherche, et lui seul profite de cette optimisation.

Et n'est-ce pas l'essence même d'un moteur de recherche ?

Allons plus loin, peut-on imaginer que dans l'avenir le moteur étudie notre navigation post-SERP pour en déduire notre réaction positive ou non à la lecture des pages trouvées ?

En tant que webmaster, je souhaite évidemment que mon site soit bien positionné et que tout le monde clique dessus lorsqu'il apparait dans les résultats.

En tant qu'utilisateur, soyons honnête, si un site que j'apprécie aborde un sujet que je recherche, alors autant consulter ce site en priorité. Oui, ça ne pousse pas à la diversité mais après tout, rien ne m'empêche d'aller voir plus bas pour avoir d'autres propositions. Ou tout simplement d'oublier Google et passer à autre chose.

L'avenir ?

Si Google poursuit dans cette voie, en dépendant de moins en moins des techniques d'optimisation, ça signifie que l'expert SEO ne sera plus cet ajusteur capable d'améliorer le positionnement d'un site en quelques lignes de codes magiques.

Si l'optimisation pour les moteurs de recherche pourrait prendre moins d'importance puisqu'ayant moins d'impact sur le trafic d'un site, les notions d'intérêt du site, fidélisation du visiteur et taux de conversion en ressortiront renforcées.


Se recentrer sur le client en quelque sorte...

Commentaires

  1. Très bon article, l'avenir du référencement, sera c'est sur différent de se qui ce pratique aujourd'hui ! N'étant pas expert et n'ayant pas le temps pour ce travail d'optimisation j'ai du payer une société spécialisé dans se domaine afin d'optimiser chaque page de mon site web. Mai justement que proposera cette société comme prestation dans les années à venir ?
    Au passage j’en profite pour vous proposer un lien sur la réalisation de la première vidéo de notre studio de création : http://www.youtube.com/watch?v=9yNdCFLLWks

    RépondreSupprimer
  2. J'apprécie ton article, effectivement si Google pouvait prendre en compte les réactions des internautes, ça changerait beaucoup de choses. Mais je me demande si les articles de fond, qui n'intéressent pas la plupart des gens car trop "intellectuel", ne perdrait pas au profit des sites à contenu plus léger.

    RépondreSupprimer
  3. N'importe quoi je dirais.
    "Aujourd'hui, les techniques d'optimisation sont connues de tous, gérées nativement ou presque par tous les CMS majeurs"

    ah bon ? non les techniques des agences SEO sont connues de tous mais ce ne sont pas les techniques des vrais SEO purs et durs.

    De plus tu va un peu vite en enterrant le SEO à cause des "choix" des utilisateurs, les utilisateurs sont des moutons, c'est pour ça que Google a crée son système il y a 10 ans, les utilisateurs ne savent pas distinguer une page SEO d'une vraie page, ils tombent rapidement dans le panneau.

    Le SEO a encore de beaux jours devant lui.

    RépondreSupprimer
  4. Et que font les vrais SEO purs et durs ? Du black hat ?

    RépondreSupprimer

Enregistrer un commentaire

Posts les plus consultés de ce blog

La compression HTTP pour accélérer vos sites

Avec les récents changements et déclarations de Google autour de la prise en compte de la performance des sites comme un éventuel futur critère de pertinence des sites, les problématiques d'optimisation vont (re)devenir d'actualité. Un des moyens très rapide pour optimiser sensiblement les performances de son site web consiste à compresser le flux de données qui transite entre votre serveur et le navigateur Internet de vos visiteurs.

Les outils d'analyse de requêtes HTTP

L'analyse des échanges HTTP entre navigateur et serveur web est un bon moyen de détection des opérations les plus consommatrices en temps, soit celles qui impactent le plus le temps de chargement global d'une page. Tour d'horizon des outils gratuits existants : Outils en ligne D'une utilisation simple et rapide, ces outils proposent une vision synthétique des échanges à travers une chronologie précise des opérations, ainsi que le détail des requêtes et réponses HTTP. Toutefois, ils ne proposent généralement pas les mêmes options qu'un navigateur, notamment en terme de gestion de cache. site-perf.com Pingdom tools L'analyse de ce blog par Pingdom tools Plugins navigateurs Ces outils s'intègrent à votre navigateur, ce qui vous permet de simuler exactement les situations de configurations de vos visiteurs. Firefox Le compagnon idéal est l'extension livehttpheaders , outil de capture des requêtes et réponses HTTP Firebug propose également une analyse complè

Optimiser son site en maitrisant sa mise en cache

Précédemment dans notre quête de la performance, nous avions vu qu'à l'aide de quelques consignes données à notre serveur, nous pouvons alléger la quantité de données reçues par nos visiteurs sans les altérer. Poursuivons le raisonnement. Plutôt que d'alléger les données, posons-nous la question : mon visiteur a t-il vraiment besoin de recevoir cette donnée ? Le principe du cache navigateur est de stocker sur le disque dur du visiteur les composants de pages (images, scripts, page HTML), pour ne pas avoir à les recharger plus tard.