- L’agenceL’agence
- BACK
- A proposA propos
- CertificationsCertifications
- Offre d’emploiL’agence Référenceur est à la recherche de nouveaux talents qui sauront s’intégrer dans une équipe jeune et créative ! Découvrez nos offres d’emploi détaillées.Offre d’emploiL’agence Référenceur est à la recherche de nouveaux talents qui sauront s’intégrer dans une équipe jeune et créative ! Découvrez nos offres d’emploi détaillées.
- Foire aux questions (FAQ)Foire aux questions (FAQ)
- Fit 4 DigitalFit 4 Digital
- ProjetsProjets
- ServicesServices
- BACK
- Campagnes publicitaires SEACampagnes publicitaires SEA
- Référencement Naturel SEORéférencement Naturel SEO
- Création de site internetCréation de site internet
- Marketing AutomationMarketing Automation
- Remarketing / ReciblageRemarketing / Reciblage
- Réseaux sociaux SMORéseaux sociaux SMO
- Web AnalyticsWeb Analytics
- ActualitésActualités
- ContactContact
FAQ
Découvrez notre
foire aux,
questions.
1. Les définitions en référencement naturel
Les définitions en référencement naturel
1. Les définitions
QU’EST-CE QUE LE RÉFÉRENCEMENT / LE SEO ?
Le référencement sur les moteurs de recherche consiste à positionner les sites internet le mieux possible sur des requêtes choisies au préalable en fonction du secteur d’activité (de l’entreprise, de la personne morale ou du site web).
Le référencement (ou SEO – Search Engine Optimization) consiste à mettre en place différentes techniques qui permettront à un site internet de se positionner dans les meilleurs résultats des recherches de Google (ou SERP).
Il existe du SEO « on page » qui consiste en la création de contenu de son site internet, son maillage internet, etc. Et du SEO « off page », en dehors du site, qui vise à faire du netlinking, du linkbaiting, etc.
SEA, SEM, SEO, SMO : QU’EST-CE QUE C’EST ?
Les professionnels du référencement utilisent toute une série d’abréviations qui ne sont pas toujours compréhensibles pour les novices.
- Le SEO (Search Engine Optimization) désigne l’optimisation pour les moteurs de recherche, c’est-à-dire le référencement.
- Le SEA est le Search Engine Advertising, c’est-à-dire la publicité sur les moteurs de recherche. Chez nous, le SEA le plus connu est l’AdWords de Google qui permet d’afficher ses annonces dans les pages de résultats.
- SEM ou Search Engine Marketing est le marketing sur les moteurs de recherche. Cela consiste en toutes les techniques qui permettent de renforcer la visibilité d’un site internet sur le web. Aujourd’hui, le SEM ne se limite plus aux moteurs de recherche et s’est étendu aux réseaux sociaux.
- SMO ou Social Media Optimization est l’optimisation sur les réseaux sociaux. Cette optimisation comprend toutes les techniques qui permettent d’augmenter sa visibilité sur les réseaux sociaux.
CMS: DÉFINITION
CMS est l’acronyme de Content Management System, c’est-à-dire des systèmes de gestion de contenu. Il s’agit donc d’une famille de logiciels qui permettent de concevoir et de mettre à jour des sites internet ou des applications.
Il existe de nombreux CMS différents mais les plus connus sont WordPress, Joomla!, Drupal et Prestashop.
UN EMD: C’EST QUOI ? CA SERT À QUOI ?
Dans le jargon du référencement, EMD est l’acronyme de Exact Match Domain, soit un nom de domaine incluant des mots correspondant exactement à la requête visée. Par exemple, le nom de domaine voyage-pas-cher.com sera utilisé pour se positionner sur le mot clé “Voyage pas cher”.
Ces dernières années, Google a cherché à combattre les EMD de mauvaise qualité afin de nettoyer ses SERP des sites de pauvre qualité. Il semblerait donc que l’influence de ces mots clés au sein du nom de domaine soit de moins en moins grande et nous conseillons donc de les éviter à l’heure actuelle. Privilégiez plutôt le nom de votre marque comme nom de domaine !
DÉFINITION: LIEN NOFOLLOW
L’attribut nofollow sert à indiquer que le lien en question ne doit pas être pris en compte par le moteur de recherche ou par le programme qui lit la page. On retrouve ce type de lien sous la forme :
<a href=”http://www.monsite.lu” rel=”nofollow”>ancre du lien</a>
Cet attribut a été inventé par Google en 2005 afin de lutter contre le spam. Il est régulièrement utilisé dans les commentaires laissés sur des blogs afin d’empêcher les webmasters mal intentionnés de bénéficier de liens artificiels.
DÉFINITION: LES IN-DEPTH ARTICLES (ARTICLES DE FOND)
Les In-Depth Articles (traduits en français par “articles de fond”) apparaissent dans les résultats de recherche de Google afin de mettre en évidence du contenu de qualité supérieure aux internautes.
Les articles de fond apparaissent généralement dans Google grâce aux signaux envoyés par ses algorithmes mais il est possible d’aider le moteur de recherche à comprendre qu’un certain contenu est de qualité supérieure grâce au balisage pour article schema.org
QUE SIGNIFIE L’ACRONYME UX?
Le terme UX est un acronyme qui vient de l’anglais (User Experience) et qui désigne l’expérience de l’utilisateur, c’est-à-dire le ressenti d’un utilisateur face à un design de site internet (pour le domaine qui nous concerne) mais aussi face à un objet ou à un service par exemple.
L’expérience de l’utilisateur reprend plusieurs éléments importants parmi lesquels on citera:
- L’apparence et l’ergonomie du site internet
- La capacité à offrir une crédibilité au site internet
- L’efficacité du site internet
- La facilité d’utilisation du site internet
- La capacité du site internet à s’adapter à toutes les plateformes
- Etc.
CRAWLER UN SITE, ÇA VEUT DIRE QUOI ?
Un crawler est un robot logiciel qui explore automatiquement le web afin de permettre aux moteurs de recherche d’indexer les contenus des sites internet (images, vidéos, textes, pages web, etc.).
Le mot crawler vient de l’anglais (to crawl signifie ramper) et ce nom a été traduit en français en 2013 par collecteur.
DÉFINITION: LES RICH SNIPPETS (EXTRAITS ENRICHIS)
Les rich snippets (qu’on appelle en français extraits enrichis) correspondent à un certain nombre de données que le moteur de recherche de Google parvient à récupérer sur votre site afin de l’insérer dans ses résultats. Parmi ces informations, on peut trouver les prix des produits, des informations sur l’auteur, des avis de consommateurs, du maillage interne, etc.
En général, les rich snippets sont insérés dans les SERP afin d’enrichir l’expérience de l’internaute et de se démarquer de la concurrence.
Pour bénéficier des rich snippets, il convient d’optimiser la structure HTML du site internet ou de la page en question.
QU’EST-CE QUE LE KNOWLEDGE GRAPH ?
Annoncé dans le courant du mois de mai 2012, le Knowledge Graph désigne une base de connaissance utilisée par Google pour offrir des informations aux internautes sans que ceux-ci ne doivent quitter le moteur de recherche.
Les informations proposées par le Knowledge Graph proviennent de différentes sources parmi lesquelles on citera Wikipedia ou Freebase.
Au fur et à mesure que les mois passent, Google enrichit les données du Knowledge Graph afin de devenir un véritable moteur de réponse.
Les réponses fournies par le Knowledge Graph sont disponibles aussi bien sur ordinateur que sur tablette ou sur smartphone (de manière à ce que les internautes puissent y avoir accès de partout).
DÉFINITION: LE FIL D’ARIANE
Le fil d’Ariane (en anglais, on utilise le terme “breadcrumb”) permet de hiérarchiser un site internet et d’en faciliter la navigation. Situé en général au-dessus du contenu de la page, il permet de visualiser l’endroit où on se situe sur le site internet et d’atteindre d’autres catégorisations d’un simple clic.
Voici un exemple de fil d’Ariane: Accueil > Voiture > Location > Ford
L’utilisation du fil d’Ariane est très pertinente car il permet aux internautes de savoir où ils se trouvent sur le site internet, il permet d’accéder directement à d’autres pages et il améliore le référencement via le maillage interne du site internet.
QU’EST-CE QUE LA LONGUE TRAÎNE ?
La longue traîne est une requête précise qui apporte des visites de qualité à un site internet. En résumé, son principe consiste dans le fait que plus une expression clé est longue, plus le trafic que cette expression amènera sera pertinent et plus les chances de conversions seront élevées.
Un exemple de longue traîne sera “jupe rouge courte taille 36” tandis qu’une expression clé générique (tête de longue traîne) sera “jupe”.
LA RECHERCHE UNIVERSELLE SUR GOOGLE: DÉFINITION
Déployée en mai 2007 par Google, la recherche universelle (Universal Search en anglais) désigne le concept qui permet aux internautes d’obtenir des réponses associées à des résultats verticaux ou à des services tiers.
La recherche universelle de Google comprend notamment des cartes, des images, des actualités, des extraits de livre, des résultats personnalisés, des résultats provenant des réseaux sociaux, des traductions, des vidéos, des définitions, des résultats sportifs, la météo, etc.
Google utilise parfois des rubriques particulières dans le cadre de la recherche universelle. Il s’agit notamment de Google Maps, de Google Images, de Google Actualités, de Youtube, etc.
QUE SIGNIFIE L’ACRONYME PPC/CPC ?
L’acronyme PPC désigne un mode de tarification signifiant Pay Per Click en anglais ou Coût par clic (CPC) en français. Principalement utilisé lors de campagnes publicitaires effectuées sur le web (et notamment sur Google AdWords), le PPC détermine le prix de l’enchère des clics des internautes sur une annonce. Plus le PPC maximum autorisé sera élevé, plus les chances de voir l’annonce se positionner au top seront grandes.
QUE SIGNIFIE L’ACRONYME CTR?
CTR signifie Click-Through Rate en anglais ou taux de clic en français. Il s’agit d’un indicateur qui permet de mesurer efficacement la performance d’une annonce lors d’une campagne publicitaire (sur Google AdWords par exemple).
Le taux de clic désigne le rapport entre le nombre de clics sur une annonce et le nombre d’affichages de l’annonce (x 100 pour obtenir le pourcentage). Par exemple, si une annonce est vue 100 fois et reçoit 5 clics, son taux de clics sera de 5 %.
LE FICHIER ROBOTS.TXT: DÉFINITION
Le fichier Robots.txt est un document texte qui se trouve à la racine de votre site internet et qui est utilisé par une grande majorité des moteurs de recherche pour indiquer aux robots ce qu’ils doivent et ce qu’ils ne doivent pas explorer.
Par convention, les robots des moteurs de recherche consultent toujours les fichiers robots.txt avant d’explorer les sites internet.
REDIRECTION 301: DÉFINITION
Une redirection 301 est un code d’exécution présent dans l’en-tête d’une page pour indiquer au navigateur que le contenu de la page a changé d’URL. On utilise donc ce code lorsqu’on change le nom d’un site ou d’une page pour maintenir le trafic et la visibilité. Les internautes sont automatiquement redirigés vers la nouvelle URL grâce à ce type de redirection.
DÉFINITION DU FICHIER SITEMAP
Le fichier SiteMap désigne un fichier en format XML qui liste les pages d’un site internet pour qu’elles soient toutes prises en compte par les moteurs de recherche. Ce fichier permet aussi aux moteurs de recherche d’analyser plus rapidement les pages d’un site web.
Créé au départ par Google, le fichier sitemap est aujourd’hui utilisé par tous les moteurs de recherche. Il est généralement placé à la racine du site.
DÉFINITION: LE CLUSTERING
Le clustering désigne une pratique utilisée par les moteurs de recherche afin de limiter le nombre de pages d’un même site dans ses résultats de recherche. Le but de cette pratique consiste à éviter qu’un site internet monopolise complètement les résultats de recherche du moteur.
En général, Google limite à 2 le nombre de pages provenant d’un même site dans sa page de résultat mais les internautes pourront cependant découvrir plus de résultats en cliquant sur l’option “Plus de résultats” (quand elle est affichée).
QU’EST-CE QU’UNE BALISE CANONICAL ?
La balise rel= “canonical” désigne une balise HTML qui permet d’informer les moteurs de recherche qu’une page similaire existe déjà ailleurs (sur une URL différente donc).
L’intérêt de cette balise réside dans le fait qu’elle permet de solutionner des problèmes de duplicate content.
La balise rel= “canonical” doit être insérée entre les tags <head> de la page concernée.
LE BLACK HAT ET LE WHITE HAT : DÉFINITIONS
En référencement naturel, il convient de distinguer deux types de pratiques courantes dans le milieu : les pratiques white hat (chapeau blanc) qui consistent à suivre les guidelines de Google en termes de référencement et les pratiques black hat (chapeau noir) qui sont plus “à la limite” de ce qu’on peut faire en SEO et qui sont plus sujettes à recevoir des pénalités du moteur de recherche.
Au sein de notre agence de référencement, nous travaillons exclusivement avec des techniques white hat, plus pérennes et moins risquées aux yeux de Google. La raison de ce choix est simple : il s’agit de positionner les sites de manière durable dans le temps car en cas de pénalité de Google, le site peut disparaître des moteurs de recherche pendant plusieurs mois.
A l’inverse, les techniques de black hat sont privilégiées pour donner très rapidement de la visibilité à un site web mais pour une durée très limitée puisque les moteurs de recherche risqueront à tout moment de le pénaliser.
UNE PAGE D’ATTERRISSAGE (OU LANDING PAGE): QU’EST-CE QUE C’EST ?
Ce qu’on désigne par Page d’atterrissage (ou en anglais Landing Page) correspond à la page sur laquelle l’internaute arrive après avoir cliqué sur un résultat (publicitaire ou naturel) dans les résultats de recherche. Pour garder l’internaute sur son site internet, il importe que la landing page soit pertinente, claire et efficace.
La qualité d’une page d’atterrissage est déterminante à la fois pour les moteurs de recherche et pour les internautes.
Les algorithmes et filtres de Google
Les algorithmes et filtres de Google
LES ALGORITHMES DE GOOGLE, C’EST QUOI ?
Comme l’explique Google sur son site web, “les algorithmes sont des programmes informatiques conçus pour naviguer parmi des milliards de pages”. En effet, pour offrir des résultats qui répondent à la recherche effectuée, Google se sert d’algorithmes qui classent et répertorient les pages web.
Parmi les éléments (il y en a plus de 200) pris en compte par les algorithmes de Google on trouve : les termes figurants sur le site internet, le rafraîchissement du contenu du site web, la localisation ou encore le PageRank.
GOOGLE PANDA, C’EST QUOI ?
Les algorithmes de Google sont régulièrement mis à jour par des filtres qui doivent permettre à Google d’offrir des meilleurs résultats de recherche aux internautes. Google Panda fait partie de ces filtres et est apparu pour la première fois en février 2011 pour les requêtes anglophones et en août 2011 (la version 2.3) pour les requêtes françaises.
L’objectif de Google Panda est simple puisque la mise à jour vise à pénaliser les sites internet qui :
- Sont sans valeur ajoutée pour les utilisateurs,
- Copient les contenus d’autres sites internet (duplicate content),
- Ne sont pas très utiles.
Jusqu’au début de l’année 2013, des mises à jour de Panda étaient effectuées presque tous les mois par Google mais Matt Cutts, le chef de l’équipe anti-spam de Google, a ensuite indiqué que ces mises à jour se feraient tous les mois pendant une dizaine de jours sans que cela ne soit indiqué par le moteur de recherche (retrouvez toutes les mises à jour de Google Panda ici).
GOOGLE PAYDAY LOAN, C’EST QUOI ?
Lancé au mois de juin 2013, Google Payday Loan est un filtre antispam mis au point par Google afin de lutter contre les requêtes particulièrement spammy, c’est-à-dire celles qui proviennent du registre de la porn0graphie, des jeux, du viagra, des casinos ou encore de ce que les anglophones appellent le “Payday Loan” (qu’on pourrait traduire par “prêt sur salaire”).
Depuis le lancement de Google Payday Loan a été lancé en 2013, plusieurs actualisations du filtre ont été réalisées. Vous pouvez découvrir l’ensemble de ces mises à jour ici: Les mises à jour de Google Payday Loan.
QU’EST-CE QUE LE PAGERANK ?
Le PageRank est une valeur numérique variant entre 0 et 10 qui est associée par Google à tous les sites web afin de quantifier sa popularité. Le PageRank figure parmi les éléments qui servent à positionner les sites internet dans le moteur de recherche.
A l’heure actuelle, le PageRank n’est plus actualisé par Google (la dernière mise à jour date de 2013 et avait été effectuée par erreur). Il ne faut donc plus se fier à cet indicateur.
GOOGLE PENGUIN, C’EST QUOI ?
Un an après la première mise à jour de Google Panda, ce fût au tour de Google Penguin de voir le jour dès le mois d’avril 2012. Cette fois, il n’était pas question de viser le contenu des sites internet mais bien de pénaliser les pratiques externes que Google jugeait irrégulières et non-naturelles parmi lesquelles on trouvait des pratiques de netlinking abusives et des backlinks non-naturels.
Les mises à jour de Google Penguin auront été beaucoup moins régulières que celles de Panda puisqu’on a pu en dénombrer uniquement 6 depuis son lancement en avril 2012 (contre plus d’une vingtaine pour Google Panda). N’hésitez pas à découvrir la liste des mises à jour de Penguin ici.
GOOGLE PIRATE, C’EST QUOI ?
Google Pirate est un filtre du moteur de recherche qui a été déployé au mois d’août 2012 puis mis à jour en octobre 2014. Ce filtre a pour objectif d’empêcher les sites qui enfreignent le droit d’auteur de se positionner dans les meilleurs résultats du moteur de recherche.
Parmi les sites qui ont été principalement touchés par les mises à jour, on trouve ceux qui figurent dans le système DMCA (Digital Millenium Copyright Act) ainsi que de nombreux sites de téléchargement illégal.
GOOGLE HUMMINGBIRD, C’EST QUOI ?
A la fin du mois de septembre 2013, Google a annoncé la sortie d’un nouvel algorithme à l’occasion du 15ème anniversaire de son moteur de recherche. Le nom de ce nouvel algorithme : Hummingbird (ou Colibri).
L’objectif de ce nouvel algorithme : améliorer la pertinence des résultats fournis par les moteurs de recherche et “mieux répondre aux requêtes les plus complexes”. D’après de nombreux observateurs, ce nouvel algorithme devrait essentiellement impacter les recherches sur la longue traîne.
GOOGLE PIGEON, C’EST QUOI ?
Lancé au mois de juillet 2014 aux Etats-Unis, Google Pigeon est un algorithme de Google qui a pour objectif de proposer des résultats plus pertinents et plus précis lorsque les internautes effectuent des recherches locales, c’est-à-dire les recherches ciblées géographiquement.
Après les Etats-Unis, cet algorithme s’est petit à petit déployé en Europe (notamment au Royaume-Uni), au Canada et en Australie afin d’apporter des améliorations au niveau de la correction orthographique, du Knowledge Graph ou encore de la gestion des synonymes (en plus de la pertinence des résultats de recherche géolocalisés).
L’ALGORITHME MOBILE-FRIENDLY: QU’EST-CE QUE C’EST ?
Le 21 avril 2015, Google a décidé de modifier son algorithme dans le but de rendre les résultats affichés sur smartphones plus pertinents. Pour ce faire, il a introduit un nouveau critère dans son algorithme mobile (le critère de compatibilité mobile) et les sites internet qui n’étaient pas adaptés pour smartphones ont perdu de la visibilité dans les résultats de recherche.
Cette modification de l’algorithme de Google n’a touché que les résultats affichés sur les smartphones et a été déployé directement mondialement.
Pour plus d’informations sur l’algorithme mobile-friendly, nous avons rédigé un livre blanc sur le sujet que vous pouvez télécharger ici !
3. Le référencement naturel en questions
3. Le référencement naturel en questions
3. Le référencement naturel en questions
SUIS-JE INDEXÉ SUR GOOGLE ?
Pour savoir si on est visible sur Google, on peut taper la commande “site:http://www.nomdedomaine.lu” dans la barre de recherche. Si vous voyez apparaître toutes les pages de votre site internet, cela veut dire que Google les reconnait et les identifie. Cependant, cela ne veut pas dire qu’on se positionnera dans les premiers résultats des recherches.
COMMENT ÊTRE VISIBLE SUR GOOGLE ?
L’ATTRIBUT ‘ALT’, ÇA SERT À QUOI ?
FAUT-IL RÉÉCRIRE SES URL POUR UN MEILLEUR RÉFÉRENCEMENT ?
Lorsqu’on travaille le référencement d’un site internet, il faut prêter une attention particulière au format des URL des pages afin de ne pas les modifier par la suite. En effet, Google prend en compte l’ancienneté des pages et une modification de l’URL pourra avoir pour effet la perte totale du positionnement de la page.
Si l’URL d’une page doit absolument être modifiée (changement de nom de domaine par exemple), une redirection permanente (301) pourra être mise en place pour transférer la popularité de la page et rediriger les internautes.
La réécriture des URL doit être réalisée avec soin pour éviter toute chute de visibilité dans les résultats de recherche.
COMMENT AUGMENTER LES VENTES D’UN SITE INTERNET ?
Pour augmenter les ventes d’un site internet, il convient d’envoyer plus de trafic ciblé vers les produits mis en vente sur le site internet. Pour cela, il convient de travailler la visibilité du site internet sur les moteurs de recherche (SEO et/ou SEA) pour des requêtes générales mais également pour des requêtes spécifiques (ce qu’on appelle la longue traîne).
Si le produit est attrayant (prix et qualité) et qu’il est vu par un public ciblé et intéressé, il est certain de voir ses ventes augmenter petit à petit.
FAUT-IL SE CONCENTRER UNIQUEMENT SUR GOOGLE POUR LE RÉFÉRENCEMENT ?
A l’heure actuelle (2015), Google est le moteur de recherche le plus utilisé dans le monde. Il détient notamment plus de 60% des parts de marché aux Etats-Unis et plus de 90% des parts de marché dans de nombreux pays européens (comme la Belgique, la France, la Suisse, l’Espagne, la Grande-Bretagne, l’Allemagne, etc.) mais aussi au Brésil ou en Australie.
Si vous souhaitez améliorer la visibilité de votre entreprise sur un marché européen, il conviendra donc de se concentrer exclusivement sur Google.
Par contre, si vous souhaitez rendre votre entreprise davantage visible aux Etats-Unis, en Russie ou en Chine, d’autres moteurs de recherche devront être pris en compte. Parmi les moteurs de recherche qui concurrencent Google dans le monde, on citera:
- Yahoo et Bing (aux Etats-Unis)
- Yandex (Russie)
- Baidu et 360 (Chine)
FAUT-IL AVOIR UN BLOG POUR FAIRE DU RÉFÉRENCEMENT ?
Tenir régulièrement un blog à jour afin de proposer des actualités, des conseils ou des informations diverses à ses clients potentiels n’est pas un impératif en référencement. Toutefois, nous estimons que cette stratégie est très utile car elle permettra de garder le site internet à jour, de proposer du contenu pertinent aux internautes et de travailler son image de marque et son expertise dans son domaine d’activité.
Google et les autres moteurs de recherche insistent depuis quelques années sur l’importance de proposer du contenu de qualité qui sera partagé et lu par les internautes. Grâce à la création d’un blog et à son actualisation régulière, on parviendra plus facilement à répondre à ces consignes.
COMBIEN DE TEMPS FAUT-IL AVANT D’ÊTRE BIEN POSITIONNÉ ?
Tout dépend de la stratégie de référencement mise sur pied. Avec du référencement publicitaire (AdWords), on positionne son site en 24 heures.
Pour le référencement naturel, il s’agit plutôt d’un travail de fond. Le site prendra plus de temps pour se positionner dans les résultats organiques. En temps normal, on considère qu’il faut environ trois mois pour bénéficier d’un bon référencement naturel.
Ce laps de temps dépend également du l’âge du site internet et de la concurrence sur le mot clé à positionner.
« OPTIMISER SON SITE », ÇA VEUT DIRE QUOI ?
Optimiser son site est nécessaire pour bénéficier d’un bon référencement. A moins d’avoir des connaissances pointues en informatique ou en référencement, il est nécessaire de faire appel à des professionnels.
Quand on parle d’optimiser son site, on fait essentiellement référence au SEO “On Page” afin de rendre son site compatible et compréhensible pour les moteurs de recherche.
A QUOI SERT LA BALISE TITLE ?
Chaque page d’un site internet comprend une balise “Title” (ou “Titre”) et d’après beaucoup de spécialistes en référencement, s’il ne fallait optimiser qu’un seul élément de son site internet, ce serait certainement le titre de ses pages.
Cette balise se présente sous cette forme : <title>Le titre de votre page</title> et s’affiche tout en haut de la page lorsque vous la consultez mais également sur les moteurs de recherche lorsque vous effectuez une recherche. C’est d’ailleurs la première chose que l’internaute voit lorsqu’il effectue sa recherche, il faut donc que cette balise soit attractive et donne envie de cliquer.
Dans l’exemple ci-dessous, la balise Title est la suivante : “Balise Title : 5 conseils pour augmenter les clics”.
Pour que la balise Title soit bien optimisée, il est important d’y inclure des mots clés (et synonymes), de les personnaliser et d’inciter l’internaute à cliquer dessus.
La longueur de cette balise ne doit pas dépasser 70 caractères en sachant que certains caractères sont plus gros que d’autres, ce qui influencera le nombre.
COMMENT INDIQUER AUX MOTEURS DE RECHERCHE DE NE PAS INDEXER CERTAINES PAGES D’UN SITE INTERNET ?
De nombreuses raisons peuvent pousser une entreprise à empêcher l’indexation d’une page ou d’un répertoire de son site internet. Parmi celles-ci, on trouve les pages qui sont trop pauvres et qui peuvent avoir des conséquences négatives (Google Panda par exemple), les fichiers PDF qui sont identiques à certaines pages du site, les pages dupliquées, etc.
Pour indiquer aux moteurs de recherche qu’ils ne doivent pas prendre en compte ces pages, plusieurs solutions sont possibles:
- L’utilisation de la balise meta noindex: à insérer dans la balise <head> de la page sous la forme <meta name=”robots” content=”noindex”>
- Les en-têtes HTTP: pour empêcher l’indexation d’un répertoire complet, utilisez le fichier .htaccess (par exemple, insérer ceci dans le répertoire concerné: Header set X-Robots-Tag “noindex”)
- Le fichier robot.txt: par exemple: [User-agent: * Disallow: /ref ] aura pour effet de demander aux robots de ne pas visiter les adresses commençant par /ref
LES BALISES H1, H2, H3, ETC. SONT-ELLES IMPORTANTES EN RÉFÉRENCEMENT ?
Les balises h1, h2, h3, hn désignent les balises qui introduisent les titres dans les pages HTML d’un site internet. Elles ont plusieurs vocations, notamment:
- Aider la lecture des internautes en structurant le contenu;
- Indiquer aux moteurs de recherche les informations les plus importantes de la page (un titre h1 aura plus d’importance qu’un titre h3).
COMMENT RÉFÉRENCER UN SITE EN FLASH SUR GOOGLE ?
Les sites internet créés en Flash (une technologie créée par Adobe qui permet notamment de créer des lecteurs audio, des lecteurs vidéos, des bannières animées, des sites internet, etc.) posent encore de gros problèmes au niveau du référencement sur Google car le moteur de recherche ne parvient pas à lire ce contenu car il n’y a pas de code source et le contenu n’est pas balisé (contrairement à celui réalisé en HTML).
En d’autres mots, cela signifie qu’un site entièrement réalisé en Flash passera inaperçu aux yeux de Google qui ne pourra l’indexer de manière idéale même si des progrès ont été réalisés dans le domaine ces dernières années.
Plutôt que le Flash, on utilisera donc le HTML pour mettre toutes les chances de son côté et s’assurer que son site soit bien référencé sur Google !
COMMENT OPTIMISER SON SITE WEB ?
Pour qu’un site soit bien compris par les moteurs de recherche, il est important de l’optimiser de manière adéquate. Parmi les éléments à optimiser : les métadonnées, le contenu, l’autorité, les performances ou encore les canaux secondaires. Nous avons rédigé un article reprenant 5 conseils pour optimiser son site web que vous pouvez retrouver ici.
Attention : il ne faut pas chercher à optimiser son site web de manière radicale pour les moteurs de recherche car Google peut le détecter et pénaliser le site en question.
A QUOI SERT LA BALISE META DESCRIPTION?
La balise Meta Description peut être considérée comme la petite soeur de la balise Title puisque, dans l’affichage des SERPs (Résultats des Moteurs de recherche ou Search Engine Page Result), elle figure juste en-dessous et permet de donner des informations plus précises à l’internaute concernant ce qui se trouve dans la page.
Dans l’exemple ci-dessus, la balise description est : “Les balises title sont très importantes en SEO. Elles permettent de se positionner mais aussi d’informer l’internaute de ce qui se trouve dans la page”.
Pour une bonne meta description, il faut que cette description soit en relation avec ce qui se trouve sur la page et il est préférable d’éviter les successions de mots clés pour ne pas être pénalisé par les moteurs de recherche.
COMMENT AUGMENTER LE TRAFIC D’UN SITE INTERNET ?
Il existe différents leviers qui permettent d’augmenter le trafic d’un site internet. Généralement, nous estimons que le meilleur moyen d’augmenter le trafic d’un site internet consiste à lever tous (ou une partie) de ces leviers en même temps.
Ces différents leviers sont le référencement naturel, les campagnes AdWords, les médias sociaux ainsi que les campagnes e-mailing. Avec une telle stratégie mise en place, il est inévitable de voir son site web gagner en visibilité !
COMMENT BIEN CHOISIR SON NOM DE DOMAINE ?
Le choix d’un nom de domaine n’est pas toujours aisé mais cela reste une étape essentielle dans le processus de création du site internet et de la notoriété de la marque.
Parmi les éléments auxquels il faudra prêter attention, on notera:
- L’extension du nom de domaine: A choisir en fonction de la portée souhaitée du site internet (utiliser le .com, .net ou .eu pour une portée internationale et le .lu ou le .fr pour une portée nationale).
- L’insertion du nom de la marque dans le nom de domaine: Un choix extrêmement important afin de pouvoir travailler le branding.
- La question de l’insertion d’un mot clé en plus de la marque dans le nom de domaine: Une solution à analyser en fonction des besoins, du secteur d’activité et de la pertinence du nom de domaine.
FAUT-IL UN LOGICIEL POUR RÉFÉRENCER SON SITE ?
Non, il n’est pas nécessaire d’avoir un logiciel pour référencer son site internet. Cependant, certains outils permettent d’aider le suivi du référencement, d’analyser les mots clés à positionner ou d’analyser le trafic de son site internet.
Attention cependant avec les logiciels car si certains offrent la possibilité de soumettre des liens à des annuaires et à des sites de communiqués de presse, cette stratégie peut se révéler très dangereuse à l’heure où les mises à jour de Google Penguin semblent de plus en plus sévères.
QU’EST-CE QU’UN SITE INTERNET RESPONSIVE WEB DESIGN ?
Un site internet Responsive Web Design (RDW ou site internet adaptatif en français) désigne un site internet qui détient la faculté de s’adapter au terminal de lecture utilisé par l’internaute. Que ce soit sur smartphones, sur tablettes ou sur PC, l’expérience de l’internaute sera toujours optimale grâce à cette technologie qui parvient à changer dynamiquement l’affichage de la page grâce aux feuilles de style CSS.
A l’heure où Google introduit des critères de compatibilité mobile, il est impératif de rendre son site mobile-friendly (et le Responsive Web Design peut le permettre).
4. Les pratiques “risquées” en référencement
Les pratiques “risquées” en référencement
DÉFINITION: LE DUPLICATE CONTENT (CONTENU DUPLIQUÉ)
Le contenu dupliqué (duplicate content en anglais) désigne une stratégie de référencement devenue pénalisante au fil du temps qui consistait à copier du contenu provenant d’un site internet concurrent.
Google pénalise aujourd’hui les contenus dupliqués afin de lutter contre le plagiat. La page incriminée est alors déclassée du moteur de recherche.
C’est essentiellement grâce au filtre Google Panda que le moteur de recherche est parvenu à lutter efficacement contre cette stratégie particulièrement spammy.
FAUT-IL UTILISER DES PAGES SATELLITES POUR SON RÉFÉRENCEMENT ?
Il y a encore quelques années de cela, les pages satellites permettaient d’améliorer le référencement des sites internet dans les moteurs de recherche. Leur principe était relativement simple: créer des pages associées à une thématique et les lier au site internet principal dans le but d’accroître sa popularité.
Les moteurs de recherche considèrent cette pratique comme allant à l’encontre de leurs consignes et c’est pour cette raison que Google (notamment) a décidé de pénaliser les sites qui utilisaient encore des pages satellites pour améliorer leur référencement (via un déclassement ou une suppression complète des résultats de recherche).
DÉFINITION: UN SITE MIROIR
Dans le domaine du référencement et du web, un site miroir désigne une copie exacte d’un autre site internet sous une adresse IP différente et sur plusieurs serveurs. Cette solution est utile pour les sites qui détiennent une forte demande au niveau international car cela permet de répartir la charge sur différents serveurs.
Cependant, s’ils peuvent être utiles dans certaines situations, les sites miroirs sont aujourd’hui mal vus par les moteurs de recherche car il s’agit d’une forme de duplication de contenu. Cette technique fonctionnait auparavant comme technique de référencement mais est aujourd’hui complètement obsolète.
LE KEYWORDSTUFFING (BOURRAGE DE MOTS CLÉS) : DÉFINITION
Le keywordstuffing est une technique parfois pratiquée par les référenceurs black hat pour duper les moteurs de recherche. Cette technique consiste à inclure un nombre important de mots clés non-pertinents dans les balises Title et Meta Description mais aussi dans le contenu de la page.
Cette pratique a été très répandue à un moment mais est beaucoup moins visible depuis que Google a lancé Google Panda pour lutter contre ce type de contenu. Le keywordstuffing diminue tellement l’expérience de l’internaute qu’il vaut mieux éviter de le pratiquer aujourd’hui, même en black hat.
QU’EST-CE QUE LE CONTENT SPINNING ?
Souvent utilisé dans le milieu du référencement black hat, le content spinning désigne une méthode qui permet de générer des textes différents de manière automatisée dans le but de gagner un temps précieux.
Dans les grandes lignes, ce procédé consiste à écrire un texte spécifique en proposant des variantes pour chaque mot (ou presque).
Voici un exemple concret: [La {voiture|moto|bicyclette} de {Thomas|Frédéric|Quentin} est {rouge|bleue|verte} et est à vendre en {excellent|bon} état de marche]
Grâce à un outil spécial de content spinning, cette phrase générera une multitude de textes différents en prenant au hasard les mots proposés.
Depuis la sortie de Google Panda, l’impact et l’efficacité du content spinning se sont fortement réduits, cette stratégie pouvant même être la cause de pénalités de la part du moteur de recherche.
LE NEGATIVE SEO: DÉFINITION
Depuis que Google pénalise des sites internet à cause de stratégies de linking contraire à ses consignes (cf. Google Penguin), certains webmasters peu scrupuleux ont cherché à faire pénaliser les sites de leurs concurrents en faisant pointer une multitude de liens nocifs vers leurs sites web. C’est ce qu’on appelle dans le milieu du référencement du Negative SEO.
Afin d’empêcher de telles pratiques (et surtout de permettre à des sites pénalisés injustement de sortir de pénalité), Google a mis sur pied un outil de désaveu de lien.
DÉFINITION: LE CLOAKING
Google l’explique très bien dans son Centre d’aide: le cloaking est une technique de dissimulation qui peut être pénalisée par le moteur de recherche puisqu’elle consiste “à présenter aux internautes des URL ou un contenu différents de ceux destinés aux moteurs de recherche”.
Parmi les exemples de cloaking, on trouve l’exemple d’une page de texte HTML proposée aux moteurs de recherche alors qu’elle s’affiche en Flash pour les internautes.
POURQUOI DÉSAVOUER DES LIENS EN RÉFÉRENCEMENT ?
Comme Google l’indique dans son centre d’aide, les liens vers un site internet sont généralement établis pour prouver la qualité d’un site internet. Cependant, il se peut également que des liens aient été créés dans le but de manipuler le moteur de recherche (via des systèmes de liens ou des liens payants) et ceux-ci peuvent avoir l’effet inverse de celui recherché (une sanction de la part du moteur de recherche par exemple).
Pour éviter une éventuelle pénalité du moteur de recherche ou pour en sortir, il est possible de désavouer les liens qu’on n’arrive pas à modifier manuellement. En pratiquant de la sorte, on signale à Google qu’il ne doit pas tenir compte de ces liens potentiellement nocifs.
Pour importer une liste de liens à désavouer, il faut se rendre sur cette page de la Search Console de Google.