Architecture, contenus et SMO VS backlinks :

Architecture, contenus et SMO VS backlinks : - Référencement naturel

En référencement, la création de Backlinks vers les sites et les contenus que j'ai à charge de référencer est le travail que j'apprécie le moins. Trouver les bons spots SEO avec de bons PR, réaliser ensuite un contenu (même court) pour y glisser ses liens sur de bonnes ancres. Attendre ensuite la publication et le résultat sonnant et trébuchant dans les Serps de Google. Depuis longtemps je m'attache à gagner plus d'autonomie vis à vis du backlinking dans mon travail de référenceur.

Mon travail de recherche en référencement s'est donc orienté vers la compensation d'un déficit de liens entrants le jeu d'autres leviers tels que :

  1. L'architecture et la structure du site
  2. La qualité et la structure des contenus
  3. L'optimisation du ratio code / texte visible
  4. La performance client et serveur du site
  5. Le respect des normes
  6. La sémantisation des contenus
  7. La diffusion des contenus sur les réseaux sociaux

J'ai aujourd'hui la gestion (plus ou moins lointaine) de vieux sites qui enfreignent presque toutes ces "bonnes pratiques" et qui pourtant se tiennent bien dans les résultats des moteurs et cela sur des requêtes très concurrentielles. On verra là l'action et le bénéfice que l'on tire de l'ancienneté d'un site et des liens entrants constitués au fil du temps qui constituent l'autorité d'un site sur certains sujets aux yeux des moteurs de recherche.

Sur un site fraichement mis en ligne, pas d'ancienneté et pas d'autorité. Le backlinking est donc le moyen tout désigné pour créer artificiellement cette autorité manquante. Un autre avantage des Backlinks en référencement est aussi sa rapidité d'action. Il n'y aura pas, en général, à attendre des semaines le résultat de son travail.

Si on ajoute à cela un caractère unique et une bonne qualité aux contenus /site visé, il ne devrait pas y avoir trop de soucis pour atteindre les objectifs de visibilité souhaités.

Mon expérimentation sur un référencement se passant (le plus possible) de Backlink s'est exercée d'abord sur le "contenant" et sa structure, c'est à dire le site et son architecture puis sur la structure, qualité et la sémantisation des contenus.

1) L'architecture de site :

L'architecture d'un site doit privilégier l'accès au contenu dans un flux logique le plus direct possible et avec un maximum de légèreté pour le code html/css afin d'augmenter le plus possible la part du texte utile et visible. Evidement vient rapidement les questions d'intégration CSS et du design, il faudra être au top pour qu'à cette étape la 'Divite aigue' ou la "Spanite chronique" ne ruine à néant vos efforts.

A ce titre HTML5 propose nombre de nouveaux éléments dédiés pouvant faciliter cette tâche. Le maillage interne du site est lui aussi primordial, des URLs uniques "sémantisées" et des catégories dynamiques qui sauront mettre en lumière vos contenus anciens ou en relatifs

2) La rédaction de contenus :

La première des qualités d'un contenu (pour le web) est son caractère unique, il ne doit évidemment pas s'agir d'un copier/coller ou d'une synthèse à la "Macé-Scaron/Yade". Deuxièmement, le contenu doit être écrit avec le souci de son positionnement dans un champ lexical et sémantique propre à le qualifier "pertinent" pour le sujet auquel il est dédié. Et cela sans le rendre imbuvable aux lecteurs. La langue française est riche et saura nous donner tous les mots et moyens de construire cette pertinence.

Ajouter ensuite une bonne structure Titre H1 et sous-titres H2, H3, ... listes, etc. Ce sera le squelette et le soutien de la logique de ces contenus.

3) L'optimisation du ratio code / texte visible :

Comme cité précédemment, le code HTML structurel doit se faire le plus léger possible et donné la part belle au "lisible et à l'intelligible". Là pas de secret il va falloir "dégraisser le Template" et ajuster le code au strict nécessaire. HTML5 CSS3 nous donne aussi des outils pour parvenir à cet objectif.

4) La performance client et serveur du site :

Combien de superbes blogs, sites pêchent de leur rédhibitoire lenteur, pour un background de 2Mo, 50 images, 5 fichiers .CSS, 12 fichiers .js, des plug-ins qui déchirent, et tout ceci dans l'absence de mise en cache. Je pense que, comme l'internaute, Google dans sa mission d'indexation souhaite accéder rapidement aux contenus et économiser son temps et ses ressources.

Faire en sorte de facilité l'accès à vos informations aux robots comme aux hommes donne de nombreux autres bénéfices.

5) le respect des normes :

Etre valide W3C n'est certes pas un gage de qualité ou de respect des normes (essayez de valider un site HTML5 comprenant des microformats ou du RDF ! ;-), cependant là encore la validité d'une structure de site est certainement un gage de crawl rapide pour les robots et une assurance de la compatibilité d'un site avec les différents types d'appareils pouvant l'afficher.

6) la sémantisation des contenus :

Le web de demain (l'aube se lève ;-) sera calculé, c'est à dire qu'à partir de données dispersées sur la toile mais signifiantes et structurées, il sera possible de calculer en temps réel la meilleure réponse pour une requête donnée. Par exemple le Graph de Facebook à pour but de permettre cela, le moteur " Wolfram Alpha" utilise déjà ce principe et le futur moteur Volunia exploitera certainement la sémantique comme base de la révolution qu'il promet.

Servir dès aujourd'hui à ces applications, search engine et réseaux sociaux rend notre contenu sémantique plus visible (ex. les "Rich Snippets" qui s'affichent dans les SERPs de Google) où tissent des liens subtils entre différents contenus que nous mettons en ligne (ex. les "link rel="me" rel="author").

7) la diffusion des contenus sur les réseaux sociaux (un peu de liens quand même ;- mais sociaux...) :

Plus qu'un CMS, c'est aussi d'une gestion intégrée de la "(re)publication" sur les réseaux sociaux (Twitter, Facebook, Google+), qui en plus de créer des Backlinks (éphémères) permet de toucher d'autres audiences. Sur ce point, un peu de code et les APIs de ces services en lignes permettra de développer de petits outils dédiés qui en automatisant certaines tâches rébarbatives faciliteront la diffusion externe de l'information tout en créant quelques liens entrants.

Conclusion :

Ces derniers mois j'ai mis en ligne plusieurs sites répondants à ces critères, sans prestations de référencement, je remarque que malgré tout ces sites web se sont très bien positionnés par rapport à leur concurrents, je veux dire en haut de la première page sur des requêtes très concurrentielles. Ces sites (concurrents) bénéficient tous de 2 à 5 ans d'ancienneté et de nombreux backlinks et pour certains le contenu est riche et fréquemment mis à jour.

Je suis heureux de voir ainsi mes clients se positionner en 1ère, deuxième ou troisième place sur Google sur des requêtes ciblées et concurrentielles sans investissement SEO. Pour certains d'entre eux j'assume l'animation rédactionnelle de leur site et là encore je peux remarquer la réactivité des moteurs au grain que je leur donne à moudre. 

En effet, sur cette base globalement optimisée, Google semble plébisciter fortement tous les articles qui viennent corroborer son classement initial. C'est sûr, le (bon mais rare) backlink est très efficace, cependant, l'intelligence (artificielle) de nos chers moteurs semble séduite par les soins que l'on apporte dans la publication des contenus. 

Rajoutons à cela un peu de SMO et un peu de patience...

Bref, Le contenu est Roi surtout s'il est bien habillé et j'avoue apprécier tailler et coudre du sur-mesure ;-)
 


Par Johan Puisais - Xtendo : création de site internet Poitiers

Pour continuer votre lecture sur la thématique Applications mobile

Partager l'article sur :

Tags : Applications mobile, , ,

Commenter et noter cet article

Les commentaires pour cet article

-

Olivier, vous avez tout à fait raison d'utiliser des DIV plutôt que des tableaux. Ma remarque sur la "Divite aigue" concerne la profusion de div servant la mise en page pour positionner ou styler divers éléments du contenu d'une page web. Il est fréquent de retrouver dans les templates html des successions de DIV imbriqués les uns dans les autres et sans sémantique. C'est une facilité qui nuit l'efficience de votre site tant au niveau de la performance que du référencement. Une architecture solide et efficiente est économe en éléments. Le CSS peut largement aider à réaliser des structures de site légères et robustes. De plus le rapport texte/code est amélioré et valorise ainsi vos contenus indexables par les moteurs de recherche.

Ecrit le : 03/03/2012 à 16h08


-

Concernant la structure, vous parlez de Divite aigue. Qu'elle est donc la meilleur structure pour un site ? Je n'utilise que des div, j'ai bannis la mise en page tableau. A tords ou à raison ?

Ecrit le : 28/02/2012 à 10h52