Suite à un article très complet de la charmante Ann Smarty, spécialiste du référencement naturel sur le site searchenginejournal.com, qui présente les 200 paramètres de l’algorithme de Google, je sous présente ici une traduction en Français pour que le SEO n’ai plus aucun secret pour vous !
Le domaine…
– l’age du domaine
– la durée d’enregistrement du domaine
– la mise à disposition des information sur l’enregistrement du domaine (nom, adresse, etc.)
– l’extension du domaine (extension locale : .fr ou générique : .com)
– l’utilisation de sous-domaines
– derniers enregistrements du domaine (fréquence de changement de l’ip associée)
– derniers propriétaires du domaine (fréquence de changement du propriétaire)
– mots clefs dans le nom de domaine
Le domaine doit faire preuve de longévité et de stabilité pour avoir la confiance de Google quand aux intentions du propriétaire. Plus celui-ci aura de la bouteille, plus il aura de chance de mieux se positionner dans les résultats des moteurs de recherche.
Le serveur…
– ip du serveur
– domaines avec la même ip (serveur mutualisé)
– la localisation géographique du serveur d’hébergement
– la fiabilité du serveur et ses performances
Mieux vaut utiliser un serveur performant capable se supporter un trafic important et dédié unique à l’hébergement d’un seul domaine pour se donner toutes les chances d’apparaitre sur des requêtes génératrices de visites. En effet il semble que de temps en temps Google teste des changements dans les serps pour un site web afin d’observer si celui-ci est capable de résister à un trafic important. S’il ne tiens pas le choc, Google ne le laissera jamais franchir les meilleures positions pour ne pas proposer à ses utilisateurs des sites qui sont trop lents à s’afficher ou qui ne s’affichent même pas!
L’architecture du site…
– la structure et la lisibilité des URLs
– la structure et la simplicité du code source HTML
– la structure sémantique du site
– l’appel de fichiers externes CC et JavaScript
– l’arborescence des page du site et leurs accessibilité par les robots crawlers
– l’utilisation des URLs canoniques
– l’utilisation de cookies
Pour que le site apparaisse dans les moteurs de recherche, il faut qu’il puisse être compréhensible et accessible par les crawlers afin que les moteurs de recherche puissent déterminer pour quelles requêtes faire apparaitre votre site web.
Le contenu…
– la langue utilisée
– le contenu unique
– la quantité de texte (ratio texte/HTML)
– le nombre de liens par page (ratio liens/texte)
– le contenu ‘intemporel »
– le thème de la page, de la rubrique et/ du site
– les mots clefs utilisés
– l’utilisation de texte dans une image
– l’utilisation de la ponctuation et des séparateurs de mots
« Le contenu est roi »! Le contenu textuel d’un site est surement l’élément le plus important aux yeux des moteurs de recherche, car c’est ce qu’ils vont « lire » et ce à partir de quoi il détermineront l’importance de tel ou tel mot ou expression dans une page. Il faut que Google trouve un intérêt à placer votre site en première page pour présenter des résultats pertinent et intéressant pour ses utilisateurs.
Le linking interne des pages…
– le nombre de liens internes liant une page
– la répétition de mots clef dans l’ancre des lien internes pointant une page
– la localisation (texte, footer, blogroll) des lien internes pointant une page
– l’utilisation ou non de l’attribut “nofollow” pour ces liens
– le nombre de liens sortant d’une page
Des informations sont transmises via les liens : un aperçu du contenu de la page de destination (ancre), la thématique de celle-ci, si on souhaite lui apporter du Page Rank, etc. Un bon maillage interne de liens permet de faire ce que l’on appelle du link building, technique qui consiste à valoriser certaines page plutôt que d’autre en les liant plus ou moins.
Facteurs techniques du site…
– le contenu du fichier robots.txt
– la fréquence de mise à jour des pages
– le nombre de pages du site
– l’utilisation d’un sitemap XML
– la transparences des données du propriétaire du site (contact, mentions légales, …)
– le type de site (plaquette, actualité, etc.)
Un fois de plus l’accessibilité des pages du site et le contenu affiché sont à prendre en compte pour bien référencer votre site!
Facteurs techniques des pages du site…
– l’utilisation de balises meta
– l’age d’une page
– la fréquence de mise à jour d’une page
– la part de contenu dupliqué dans la page
– la profondeur de la page (nombre de clics avant d’y accéder)
– le temps de chargement
– le type de contenu de la page
– le nombre de liens (interne et externe) pointant vers la page
Les mots clefs…
– les mots clefs dans le titre
– la position des mots clefs
– les mots clefs dans les balises alt des images
– les ancres des liens
– la mise en valeur de mots clefs (gras, italique, titre, section,…)
– les mots clefs utilisés dans les nom des fichiers appelés
– les mots clef utilisés dans les urls
Les liens sortants…
– le nombre de liens sortants pour le domaine
– le nombre de liens sortants pour la page
– la qualité des pages et des domaines linkés
– la pertinence des liens sortants
– liens pointant vers des pages inaccessibles (404, 500,…)
– liens pointant vers des sites de professionnels du référencement
– l’utilisation d’images non hébergés sur le domaine
Il est important de faire attention aux liens que l’on fera vers d’autres sites web. Si on linke des sites malveillants, on sera en quelque sorte complice et donc coupable. Il faut donc veiller à faites des liens pertinents et de préférence vers des sites de confiance.
Les liens entrants…
– le pertinence des liens entrants
– la qualité des sites faisant des backlinks
– la qualité des pages faisant des backlinks
– l’utilisation de liens quand on cite une source
– la diversité de provenance des liens entrants ( variation des ancres, ips, localisation des serveurs, les extensions des domaines, les types de sites,…)
– les nombre de liens sortant provenant de la page faisant un backlink
– la fréquence de création des liens entrants
– la création naturelle ou non des liens entrants
Facteur important pour le référencement, les liens entrants permettent de booster le positionnement d’une page dans les résultats des moteurs de recherche.
Les visiteurs…
– le nombre de visites
– l’origine géographique des visites
– le taux de rebond
– les visites parallèles des internautes (quels autres sites ont étés vus avant et après)
– l’origine des visites
Par l’utilisation de l’outil gratuit de d’analyse des visites « Google Analytics » vous fournissez au moteur de recherche toutes les informations nécessaire pour qu’il sache tout des visiteurs de votre site : de leur provenance, à leur navigation sur le site, jusqu’à ce qu’ils quittent votre site…
Les pénalités, filtres et manipulations…
– sur optimisation des mots clefs
– l’achat de liens entrants
– la vente de liens
– le spam
– le cloacking
– les textes cachés
– le contenu dupliqué
– l’historique des pénalités du domaine
– l’historique des pénalités du propriétaire du domaine
– les attaques et piratages subis par le site
Il est possible de manipuler les résultats des moteurs de recherche en utilisant des techniques interdites par ceux-ci qui peuvent fonctionner pour améliorer le classement dans les serps, mais il convient de ne pas se faire avoir sous peine de soir son site sévèrement sanctionné…
Autres facteurs…
– l’utilisation de Google Webmaster Tools
– la présence dans Google News
– la présence dans Google Blog search
– l’utilisation de Google Adwords
– l’utilisation de Google Analytics
Cette liste, bien quelle semble exhaustive, ne reste que des hypothèses qui qui pour certaines ont été vérifiées à l’aide d’expériences sur le comportement des moteurs par des experts en référencement. Tout n’est donc pas à prendre en considération, mais si vous respectez au moins la moitié de ces conseils, vous augmenterez vos chance de multiplier vos visiteurs provenant des moteurs de recherche!
Google Google Analytics et Webmaster tools semblent prendre de plus en plus d’influence sur le jugement de google…..
Mes expériences sont bluffante….laisser les infos de Webmaster Tools sans corrections = carton rouge…. bref merci pour les infos même si je ne suis pas en accord avec toutes.
Agence de communication à l’île de la Réunion.
http://www.agencesolution.com/la-meilleure-agence-internet-de-lile-de-la-reunion.html
Merci pour la traduction de l’article. C’est un excellent outil synthétique des points de vigilances à avoir pour GOOGLE.
Merci pour cet article, ça permet de réviser et voir que l’on ne pense jamais à tout…
Intéressant infos ,merci pour le partage.
Et pour le lien optimisé 😉
Merci c’est cool, un petit condensé à garder sous le coude
Vraiment très intéressant… mais est-ce encore à jour avec Panda ?
Article très intéressant. J’aurais cependant aimé avoir plus d’infos sur l’inpact du taux de rebond sur le référencement.
Bonjour
merci pour cette super liste, qui d’un certain point de vue est rassurante, mais il est clair qu’il y a des critères internes à Google (pour Google) qui restent inconnus.La pondération des éléments est une inconnue majeure, néanmoins une rapide analyse ne fait que confirmer que les petits territoires (ou populations linguistiques) sont pénalisées (prime au gros), par la bande passante, le volume (évidemment), la notoriété, l’ancienneté (certain nom de domaine DOM-TOM sont assez récents),…
Bref un des atouts de 3-SI.fr est justement la prise en compte de cette problématique spécifique des territoires ultra-marins.
En tout cas, merci pour vos articles.
http://www.3-si.fr