infographie-google-pigeon-topLancé au mois de juillet dernier aux Etats-Unis, le filtre Google Pigeon a été l’une des principales évolutions du moteur de recherche au cours de ces douze derniers mois. Et si les effets de ce nouvel algorithme ne se sont pas encore fait sentir partout dans le monde, les Etats-Unis ont été largement impacté. Il nous semble donc essentiel de découvrir ce qui se cache derrière cet algorithme.

Afin de comprendre l’algorithme Google Pigeon et découvrir ce qu’il pourrait engendrer comme conséquences, nous avons trouvé une infographie très juste et pertinente réalisée par Wpromote (que vous trouverez en intégralité ci-dessous). Mais avant de parler de Google Pigeon en détails et pour comprendre l’importance du sujet, il faut savoir que d’après une étude réalisée par InsideLocal, 58% des spécialistes du marketing indiquent qu’ils changeraient leurs tactiques suite au déploiement de ce algorithme…

L’algorithme Google Pigeon

D’après les premières études, il semblerait que l’impact de Google Pigeon soit particulièrement élevé dans les résultats de recherche, et plus particulièrement pour les recherches géolocalisées (référencement local). Dans l’infographie présentée ci-dessous, vous trouverez d’ailleurs un exemple fort pertinent de l’évolution de la recherche suite à l’apparition de Google Pigeon grâce à un exemple de recherche sur Google avant le lancement de l’algorithme et un exemple après celui-ci.

A peu près comme toutes les mises à jour précédentes, Google Pigeon a eu un impact positif dans certains domaines mais a également fait perdre des positions à de nombreuses entreprises. Ainsi, on découvre dans l’infographie ci-dessous que les secteurs les plus touchés positivement ont été l’hôtellerie, l’alimentation et l’éducation alors que ceux qui ont perdu de la visibilité sont les domaines du travail, de l’immobilier, des films ou encore de l’assurance.

Pour en découvrir encore bien davantage sur cet algorithme particulier, découvrez l’infographie ci-dessous et n’hésitez pas à nous contacter pour de plus amples informations 😉

infographie-google-pigeon

referencement-local-google-adresses-contactEn fin de semaine dernière, Google a lancé un nouvel algorithme visant à proposer des résultats plus utiles, plus pertinents et plus précis lors de recherches locales. D’après ce que nous apprend Barry Schwartz du site spécialisé Search Engine Land, les changements seront visibles à la fois sur Google Maps et dans les résultats de recherche de Google.

L’algorithme « Pigeon » a été nommé de cette manière par les gars de Search Engine Land parce que Google n’a pas vraiment choisi de nom en interne et que le pigeon a tendance à voler en direction de son domicile (d’où l’analogie avec la recherche locale).

Pour rappel, au moment de la mise à jour de Google Panda, Search Engine Land avait appelé la mise à jour « Farmer » parce que Google n’avait pas encore donné de nom officiel à la mise à jour. Ce n’est que quelques jours plus tard que Google annonça le nom de « Panda ». Il se pourrait donc bien que le nom de l’algorithme change encore dans les prochains jours…

L’impact de Google « Pigeon »

pigeonLancé le 24 juillet 2014, ce nouvel algorithme de Google impacte les recherches locales, c’est-à-dire les recherches ciblées géographiquement comme [restaurant à Liège], [entreprise de nettoyage à Bruxelles], etc.

A l’heure actuelle, peu d’informations nous sont parvenues mais on apprend que certains commerces locaux pourront voir leurs positionnements dans le moteur de recherche fluctuer dans les prochains jours.

Pour que ce nouvel algorithme parvienne à offrir des résultats locaux plus pertinents, il prendrait en considération davantage de critères qu’auparavant ainsi que des fonctions de recherche comme le Knowledge Graph, la correction orthographique et les synonymes.

A l’heure actuelle, Google Pigeon n’est en cours de déploiement qu’aux Etats-Unis pour les requêtes en langue anglaise. Rien n’a encore été dévoilé quant à un déploiement plus étendu dans les prochains jours/semaines !

Après Google Panda, Google Pingouin, Google Colibri, Google Pigeon et Google Opossum, la firme de Mountain View s’apprête à lancer un tout nouvel algorithme. Son nom? Google Hippocampe. Date d’entrée en vigueur estimée: mi-mai 2017.

Edit: il s’agissait bien évidemment d’un poisson d’avril… 😉 

L’annonce, faite par Google il y a quelques heures, a évidemment suscité de vives réactions. La sphère SEO est tout naturellement occupée à se demander quel impact aura Google Hippocampe sur le référencement. Les premières informations présagent d’ores et déjà le pire…

Si à chaque nouvel algorithme, la communauté SEO se divise en deux avec d’un côté les détracteurs, de l’autre les adeptes, ce coup-ci, les partisans de Google Hippocampe risquent de se compter sur les doigts d’une seule main…

SEO < SEA

Et pour cause! Tout semble indiquer la prépondérance à venir du SEA sur le SEO. En d’autres termes, les résultats naturels devraient laisser davantage de place aux annonces AdWords. Certains indices font même état d’une diminution drastique des résultats SEO en première page puisque le chiffre de 5 (contre 7 à 10 résultats actuellement) est régulièrement cité.

Une mesure susceptible, vous l’aurez compris, d’avoir des répercussions catastrophiques sur le trafic en provenance des moteurs de recherche puisque les chances de figurer en première page grâce au SEO s’en trouveraient donc divisées par deux.

Google Hippocampe s’avérera-t-il aussi dévastateur qu’annoncé? Réponse d’ici quelques semaines…

Une des priorités du moteur de recherche Google est d’améliorer constamment l’expérience de ses utilisateurs. Pour cela, il utilise toute une série d’algorithmes et de filtres, dans le but de proposer aux internautes les résultats les plus pertinents, le plus rapidement possible.

Pour permettre aux novices du SEO de comprendre ces algorithmes, mais aussi pour offrir une mise à jour aux plus experts, en voici un petit récapitulatif :

Pour une description plus complète, nous vous proposons cette infographie, réalisée par Simpli Learn.

SEO-strategy-infographic

rankbrain-googleEn début de semaine, nous avons appris que Google utilisait un algorithme basé sur des méthodes d’intelligence artificielle et d’apprentissage automatique depuis le début de l’année 2015 dans le but de trier les résultats de recherche en fonction de leur pertinence. Mais que sait-on vraiment de RankBrain ? Voici quelques éléments de réponse.

Ces éléments de réponse proviennent de Bloomberg (qui a dévoilé l’info) et de SearchEngineLand (qui a reçu des informations en direct de Google).

RankBrain: c’est quoi ?

Concrètement, RankBrain est le nom donné par Google à un système d’intelligence artificielle et d’apprentissage automatique (machine-learning artificial intelligence system). RankBrain est utilisé pour offrir aux internautes des résultats pertinents. Une « très grande proportion » des résultats de recherche sont gérés par RankBrain.

L’apprentissage automatique (machine learning): c’est quoi ?

L’apprentissage automatique désigne un champ d’étude de l’intelligence artificielle qui permet à une machine (un ordinateur par exemple) de s’ordonner lui-même certaines tâches (plutôt que de se les voir demandées par un humain ou en suivant un programme détaillé). Les machines peuvent ainsi accomplir des tâches impossibles à remplir par des moyens algorithmiques plus classiques.

Qu’est-ce que l’intelligence artificielle ?

L’intelligence artificielle (souvent abrégée par I.A.) désigne la capacité d’un ordinateur à être aussi intelligent qu’un être humain (du moins pour acquérir des connaissances, établir de nouvelles connexions, etc.).

En ce qui concerne RankBrain, il semblerait que l’apprentissage automatique et l’intelligence artificielle soient presque synonymes.

RankBrain est-il le nouvel algorithme de recherche de Google ?

Non, RankBrain n’est pas un nouvel algorithme mais s’intègre plutôt dans l’algorithme global du moteur de recherche de Google. L’algorithme de Google s’appelle Hummingbird (nom donné au milieu de l’année 2013 par le moteur de recherche) et permet de trier des milliards de pages en fonction de leur pertinence.

Il semblerait donc que RankBrain fasse désormais partie de l’algorithme général Hummingbird. En effet, l’article de Bloomberg indique clairement que RankBrain ne gère pas toutes les recherches et qu’il ne s’agit que « d’un des signaux inclu dans l’algorithme pour déterminer les résultats qui apparaissent sur le moteur de recherche de Google ainsi que leur positionnement ».

Parmi les autres éléments qui font partie de l’algorithme général Hummingbird, on trouve des filtres antispam bien connus des spécialistes en référencement naturel comme Google Panda, Google Penguin ou Google Payday Loan, des éléments qui ont pour but d’améliorer la pertinence des résultats locaux (Google Pigeon), des éléments qui récompensent les sites mobile-friendly (Google Mobile-Friendly) ou encore des éléments qui visent à lutter contre la violation des droits d’auteur (Google Pirate).

Et le PageRank alors ?

Comme RankBrain, le PageRank fait partie de l’algorithme général de Google. Il s’agit d’un élément qui détermine la pertinence des pages en fonction des liens qui pointent vers elles.

PageRank est certainement l’élément le plus connu de l’algorithme de Google car c’est le premier nom que Google a donné à un élément de son algorithme. Cela date déjà de 1998.

RankBrain: le 3e critère de ranking le plus important ?

Si on en croit l’article de Bloomberg, cette affirmation est exacte. L’article cite Greg Corrado, un ingénieur travaillant chez Google:

« RankBrain is one of the « hundreds » of signals that go into an algorithm that determines what results appear on a Google search page and where they are ranked, Corrado said. In the few months it has been deployed, RankBrain has become the third-most important signal contributing to the result of a search query, he said ».

Conclusion

RankBrain est donc une énième surcouche de l’algorithme principal de Google, mais une surcouche particulièrement importante si on en croit les dires de son ingénieur, Greg Corrado.

Cette surcouche vise à analyser et à comprendre les contenus avec plus de pertinence. Cela peut paraître quelque peu inquiétant, mais cela signifie également que les contenus des sites web seront encore plus importants dans le futur.

FAQ

Découvrez notre
foire aux,
questions.

Les définitions en référencement naturel

1. Les définitions

QU’EST-CE QUE LE RÉFÉRENCEMENT / LE SEO ?

Le référencement sur les moteurs de recherche consiste à positionner les sites internet le mieux possible sur des requêtes choisies au préalable en fonction du secteur d’activité (de l’entreprise, de la personne morale ou du site web).

Le référencement (ou SEO – Search Engine Optimization) consiste à mettre en place différentes techniques qui permettront à un site internet de se positionner dans les meilleurs résultats des recherches de Google (ou SERP).

Il existe du SEO « on page » qui consiste en la création de contenu de son site internet, son maillage internet, etc. Et du SEO « off page », en dehors du site, qui vise à faire du netlinking, du linkbaiting, etc.

QUE SIGNIFIE SERP ?

SERP signifie en anglais Search Engine Results Page. Autrement dit, il s’agit de la page de résultats d’un moteur de recherche.

SEA, SEM, SEO, SMO : QU’EST-CE QUE C’EST ?

Les professionnels du référencement utilisent toute une série d’abréviations qui ne sont pas toujours compréhensibles pour les novices.

    • Le SEO (Search Engine Optimization) désigne l’optimisation pour les moteurs de recherche, c’est-à-dire le référencement.
    • Le SEA est le Search Engine Advertising, c’est-à-dire la publicité sur les moteurs de recherche.  Chez nous, le SEA le plus connu est l’AdWords de Google qui permet d’afficher ses annonces dans les pages de résultats.
    • SEM ou Search Engine Marketing est le marketing sur les moteurs de recherche. Cela consiste en toutes les techniques qui permettent de renforcer la visibilité d’un site internet sur le web. Aujourd’hui, le SEM ne se limite plus aux moteurs de recherche et s’est étendu aux réseaux sociaux.
    • SMO ou Social Media Optimization est l’optimisation sur les réseaux sociaux. Cette optimisation comprend toutes les techniques qui permettent d’augmenter sa visibilité sur les réseaux sociaux.

CMS: DÉFINITION

CMS est l’acronyme de Content Management System, c’est-à-dire des systèmes de gestion de contenu. Il s’agit donc d’une famille de logiciels qui permettent de concevoir et de mettre à jour des sites internet ou des applications.

Il existe de nombreux CMS différents mais les plus connus sont WordPressJoomla!Drupal et Prestashop.

UN EMD: C’EST QUOI ? CA SERT À QUOI ?

Dans le jargon du référencement, EMD est l’acronyme de Exact Match Domain, soit un nom de domaine incluant des mots correspondant exactement à la requête visée. Par exemple, le nom de domaine voyage-pas-cher.com sera utilisé pour se positionner sur le mot clé « Voyage pas cher ».

Ces dernières années, Google a cherché à combattre les EMD de mauvaise qualité afin de nettoyer ses SERP des sites de pauvre qualité. Il semblerait donc que l’influence de ces mots clés au sein du nom de domaine soit de moins en moins grande et nous conseillons donc de les éviter à l’heure actuelle. Privilégiez plutôt le nom de votre marque comme nom de domaine !

DÉFINITION: LIEN NOFOLLOW

L’attribut nofollow sert à indiquer que le lien en question ne doit pas être pris en compte par le moteur de recherche ou par le programme qui lit la page. On retrouve ce type de lien sous la forme :

<a href= »https://referenceur.be » rel= »nofollow »>ancre du lien</a>

Cet attribut a été inventé par Google en 2005 afin de lutter contre le spam. Il est régulièrement utilisé dans les commentaires laissés sur des blogs afin d’empêcher les webmasters mal intentionnés de bénéficier de liens artificiels.

DÉFINITION: LES IN-DEPTH ARTICLES (ARTICLES DE FOND)

Les In-Depth Articles (traduits en français par « articles de fond ») apparaissent dans les résultats de recherche de Google afin de mettre en évidence du contenu de qualité supérieure aux internautes.

Les articles de fond apparaissent généralement dans Google grâce aux signaux envoyés par ses algorithmes mais il est possible d’aider le moteur de recherche à comprendre qu’un certain contenu est de qualité supérieure grâce au balisage pour article schema.org

QUE SIGNIFIE L’ACRONYME UX?

Le terme UX est un acronyme qui vient de l’anglais (User Experience) et qui désigne l’expérience de l’utilisateur, c’est-à-dire le ressenti d’un utilisateur face à un design de site internet (pour le domaine qui nous concerne) mais aussi face à un objet ou à un service par exemple.

L’expérience de l’utilisateur reprend plusieurs éléments importants parmi lesquels on citera:

  • L’apparence et l’ergonomie du site internet
  • La capacité à offrir une crédibilité au site internet
  • L’efficacité du site internet
  • La facilité d’utilisation du site internet
  • La capacité du site internet à s’adapter à toutes les plateformes
  • Etc.

CRAWLER UN SITE, ÇA VEUT DIRE QUOI ?

Un crawler est un robot logiciel qui explore automatiquement le web afin de permettre aux moteurs de recherche d’indexer les contenus des sites internet (images, vidéos, textes, pages web, etc.).

Le mot crawler vient de l’anglais (to crawl signifie ramper) et ce nom a été traduit en français en 2013 par collecteur.

DÉFINITION: LES RICH SNIPPETS (EXTRAITS ENRICHIS)

Les rich snippets (qu’on appelle en français extraits enrichis) correspondent à un certain nombre de données que le moteur de recherche de Google parvient à récupérer sur votre site afin de l’insérer dans ses résultats. Parmi ces informations, on peut trouver les prix des produits, des informations sur l’auteur, des avis de consommateurs, du maillage interne, etc.

En général, les rich snippets sont insérés dans les SERP afin d’enrichir l’expérience de l’internaute et de se démarquer de la concurrence.

Pour bénéficier des rich snippets, il convient d’optimiser la structure HTML du site internet ou de la page en question.

QU’EST-CE QUE LE KNOWLEDGE GRAPH ?

Annoncé dans le courant du mois de mai 2012, le Knowledge Graph désigne une base de connaissance utilisée par Google pour offrir des informations aux internautes sans que ceux-ci ne doivent quitter le moteur de recherche.

Les informations proposées par le Knowledge Graph proviennent de différentes sources parmi lesquelles on citera Wikipedia ou Freebase.

Au fur et à mesure que les mois passent, Google enrichit les données du Knowledge Graph afin de devenir un véritable moteur de réponse.

Les réponses fournies par le Knowledge Graph sont disponibles aussi bien sur ordinateur que sur tablette ou sur smartphone (de manière à ce que les internautes puissent y avoir accès de partout).

DÉFINITION: LE FIL D’ARIANE

Le fil d’Ariane (en anglais, on utilise le terme « breadcrumb ») permet de hiérarchiser un site internet et d’en faciliter la navigation. Situé en général au-dessus du contenu de la page, il permet de visualiser l’endroit où on se situe sur le site internet et d’atteindre d’autres catégorisations d’un simple clic.

Voici un exemple de fil d’Ariane: Accueil > Voiture > Location > Ford

L’utilisation du fil d’Ariane est très pertinente car il permet aux internautes de savoir où ils se trouvent sur le site internet, il permet d’accéder directement à d’autres pages et il améliore le référencement via le maillage interne du site internet.

QU’EST-CE QUE LA LONGUE TRAÎNE ?

La longue traîne est une requête précise qui apporte des visites de qualité à un site internet. En résumé, son principe consiste dans le fait que plus une expression clé est longue, plus le trafic que cette expression amènera sera pertinent et plus les chances de conversions seront élevées.

Un exemple de longue traîne sera « jupe rouge courte taille 36 » tandis qu’une expression clé générique (tête de longue traîne) sera « jupe ».

LA RECHERCHE UNIVERSELLE SUR GOOGLE: DÉFINITION

Déployée en mai 2007 par Google, la recherche universelle (Universal Search en anglais) désigne le concept qui permet aux internautes d’obtenir des réponses associées à des résultats verticaux ou à des services tiers.

La recherche universelle de Google comprend notamment des cartes, des images, des actualités, des extraits de livre, des résultats personnalisés, des résultats provenant des réseaux sociaux, des traductions, des vidéos, des définitions, des résultats sportifs, la météo, etc.

Google utilise parfois des rubriques particulières dans le cadre de la recherche universelle. Il s’agit notamment de Google Maps, de Google Images, de Google Actualités, de Youtube, etc.

QUE SIGNIFIE L’ACRONYME PPC/CPC ?

L’acronyme PPC désigne un mode de tarification signifiant Pay Per Click en anglais ou Coût par clic (CPC) en français. Principalement utilisé lors de campagnes publicitaires effectuées sur le web (et notamment sur Google AdWords), le PPC détermine le prix de l’enchère des clics des internautes sur une annonce. Plus le PPC maximum autorisé sera élevé, plus les chances de voir l’annonce se positionner au top seront grandes.

QUE SIGNIFIE L’ACRONYME CTR?

CTR signifie Click-Through Rate en anglais ou taux de clic en français. Il s’agit d’un indicateur qui permet de mesurer efficacement la performance d’une annonce lors d’une campagne publicitaire (sur Google AdWords par exemple).

Le taux de clic désigne le rapport entre le nombre de clics sur une annonce et le nombre d’affichages de l’annonce (x 100 pour obtenir le pourcentage). Par exemple, si une annonce est vue 100 fois et reçoit 5 clics, son taux de clics sera de 5 %.

LE FICHIER ROBOTS.TXT: DÉFINITION

Le fichier Robots.txt est un document texte qui se trouve à la racine de votre site internet et qui est utilisé par une grande majorité des moteurs de recherche pour indiquer aux robots ce qu’ils doivent et ce qu’ils ne doivent pas explorer.

Par convention, les robots des moteurs de recherche consultent toujours les fichiers robots.txt avant d’explorer les sites internet.

REDIRECTION 301: DÉFINITION

Une redirection 301 est un code d’exécution présent dans l’en-tête d’une page pour indiquer au navigateur que le contenu de la page a changé d’URL. On utilise donc ce code lorsqu’on change le nom d’un site ou d’une page pour maintenir le trafic et la visibilité. Les internautes sont automatiquement redirigés vers la nouvelle URL grâce à ce type de redirection.

DÉFINITION DU FICHIER SITEMAP

Le fichier SiteMap désigne un fichier en format XML qui liste les pages d’un site internet pour qu’elles soient toutes prises en compte par les moteurs de recherche. Ce fichier permet aussi aux moteurs de recherche d’analyser plus rapidement les pages d’un site web.

Créé au départ par Google, le fichier sitemap est aujourd’hui utilisé par tous les moteurs de recherche.  Il est généralement placé à la racine du site.

DÉFINITION: LE CLUSTERING

Le clustering désigne une pratique utilisée par les moteurs de recherche afin de limiter le nombre de pages d’un même site dans ses résultats de recherche. Le but de cette pratique consiste à éviter qu’un site internet monopolise complètement les résultats de recherche du moteur.

En général, Google limite à 2 le nombre de pages provenant d’un même site dans sa page de résultat mais les internautes pourront cependant découvrir plus de résultats en cliquant sur l’option « Plus de résultats » (quand elle est affichée).

QU’EST-CE QU’UNE BALISE CANONICAL ?

La balise rel= « canonical » désigne une balise HTML qui permet d’informer les moteurs de recherche qu’une page similaire existe déjà ailleurs (sur une URL différente donc).

L’intérêt de cette balise réside dans le fait qu’elle permet de solutionner des problèmes de duplicate content.

La balise rel= « canonical » doit être insérée entre les tags <head> de la page concernée.

LE BLACK HAT ET LE WHITE HAT : DÉFINITIONS

En référencement naturel, il convient de distinguer deux types de pratiques courantes dans le milieu : les pratiques white hat (chapeau blanc) qui consistent à suivre les guidelines de Google en termes de référencement et les pratiques black hat (chapeau noir) qui sont plus « à la limite » de ce qu’on peut faire en SEO et qui sont plus sujettes à recevoir des pénalités du moteur de recherche.

Au sein de notre agence de référencement, nous travaillons exclusivement avec des techniques white hat, plus pérennes et moins risquées aux yeux de Google. La raison de ce choix est simple : il s’agit de positionner les sites de manière durable dans le temps car en cas de pénalité de Google, le site peut disparaître des moteurs de recherche pendant plusieurs mois.

A l’inverse, les techniques de black hat sont privilégiées pour donner très rapidement de la visibilité à un site web mais pour une durée très limitée puisque les moteurs de recherche risqueront à tout moment de le pénaliser.

UNE PAGE D’ATTERRISSAGE (OU LANDING PAGE): QU’EST-CE QUE C’EST ?

Ce qu’on désigne par Page d’atterrissage (ou en anglais Landing Page) correspond à la page sur laquelle l’internaute arrive après avoir cliqué sur un résultat (publicitaire ou naturel) dans les résultats de recherche. Pour garder l’internaute sur son site internet, il importe que la landing page soit pertinente, claire et efficace.

La qualité d’une page d’atterrissage est déterminante à la fois pour les moteurs de recherche et pour les internautes.

Les algorithmes et filtres de Google

LES ALGORITHMES DE GOOGLE, C’EST QUOI ?

Comme l’explique Google sur son site web, « les algorithmes sont des programmes informatiques conçus pour naviguer parmi des milliards de pages ». En effet, pour offrir des résultats qui répondent à la recherche effectuée, Google se sert d’algorithmes qui classent et répertorient les pages web.

Parmi les éléments (il y en a plus de 200) pris en compte par les algorithmes de Google on trouve : les termes figurants sur le site internet, le rafraîchissement du contenu du site web, la localisation ou encore le PageRank.

GOOGLE PANDA, C’EST QUOI ?

Les algorithmes de Google sont régulièrement mis à jour par des filtres qui doivent permettre à Google d’offrir des meilleurs résultats de recherche aux internautes. Google Panda fait partie de ces filtres et est apparu pour la première fois en février 2011 pour les requêtes anglophones et en août 2011 (la version 2.3) pour les requêtes françaises.

L’objectif de Google Panda est simple puisque la mise à jour vise à pénaliser les sites internet qui :

  • Sont sans valeur ajoutée pour les utilisateurs,
  • Copient les contenus d’autres sites internet (duplicate content),
  • Ne sont pas très utiles.

Jusqu’au début de l’année 2013, des mises à jour de Panda étaient effectuées presque tous les mois par Google mais Matt Cutts, le chef de l’équipe anti-spam de Google, a ensuite indiqué que ces mises à jour se feraient tous les mois pendant une dizaine de jours sans que cela ne soit indiqué par le moteur de recherche (retrouvez toutes les mises à jour de Google Panda ici).

GOOGLE PAYDAY LOAN, C’EST QUOI ?

Lancé au mois de juin 2013, Google Payday Loan est un filtre antispam mis au point par Google afin de lutter contre les requêtes particulièrement spammy, c’est-à-dire celles qui proviennent du registre de la porn0graphie, des jeux, du viagra, des casinos ou encore de ce que les anglophones appellent le « Payday Loan » (qu’on pourrait traduire par « prêt sur salaire »).

Depuis le lancement de Google Payday Loan a été lancé en 2013, plusieurs actualisations du filtre ont été réalisées. Vous pouvez découvrir l’ensemble de ces mises à jour ici: Les mises à jour de Google Payday Loan.

QU’EST-CE QUE LE PAGERANK ?

Le PageRank est une valeur numérique variant entre 0 et 10 qui est associée par Google à tous les sites web afin de quantifier sa popularité. Le PageRank figure parmi les éléments qui servent à positionner les sites internet dans le moteur de recherche.

A l’heure actuelle, le PageRank n’est plus actualisé par Google (la dernière mise à jour date de 2013 et avait été effectuée par erreur). Il ne faut donc plus se fier à cet indicateur.

GOOGLE PENGUIN, C’EST QUOI ?

Un an après la première mise à jour de Google Panda, ce fût au tour de Google Penguin de voir le jour dès le mois d’avril 2012. Cette fois, il n’était pas question de viser le contenu des sites internet mais bien de pénaliser les pratiques externes que Google jugeait irrégulières et non-naturelles parmi lesquelles on trouvait des pratiques de netlinking abusives et des backlinks non-naturels.

Les mises à jour de Google Penguin auront été beaucoup moins régulières que celles de Panda puisqu’on a pu en dénombrer uniquement 6 depuis son lancement en avril 2012 (contre plus d’une vingtaine pour Google Panda). N’hésitez pas à découvrir la liste des mises à jour de Penguin ici.

GOOGLE PIRATE, C’EST QUOI ?

Google Pirate est un filtre du moteur de recherche qui a été déployé au mois d’août 2012 puis mis à jour en octobre 2014. Ce filtre a pour objectif d’empêcher les sites qui enfreignent le droit d’auteur de se positionner dans les meilleurs résultats du moteur de recherche.

Parmi les sites qui ont été principalement touchés par les mises à jour, on trouve ceux qui figurent dans le système DMCA (Digital Millenium Copyright Act) ainsi que de nombreux sites de téléchargement illégal.

GOOGLE HUMMINGBIRD, C’EST QUOI ?

A la fin du mois de septembre 2013, Google a annoncé la sortie d’un nouvel algorithme à l’occasion du 15ème anniversaire de son moteur de recherche. Le nom de ce nouvel algorithme : Hummingbird (ou Colibri).

L’objectif de ce nouvel algorithme : améliorer la pertinence des résultats fournis par les moteurs de recherche et « mieux répondre aux requêtes les plus complexes ». D’après de nombreux observateurs, ce nouvel algorithme devrait essentiellement impacter les recherches sur la longue traîne.

GOOGLE PIGEON, C’EST QUOI ?

Lancé au mois de juillet 2014 aux Etats-Unis, Google Pigeon est un algorithme de Google qui a pour objectif de proposer des résultats plus pertinents et plus précis lorsque les internautes effectuent des recherches locales, c’est-à-dire les recherches ciblées géographiquement.

Après les Etats-Unis, cet algorithme s’est petit à petit déployé en Europe (notamment au Royaume-Uni), au Canada et en Australie afin d’apporter des améliorations au niveau de la correction orthographique, du Knowledge Graph ou encore de la gestion des synonymes (en plus de la pertinence des résultats de recherche géolocalisés).

L’ALGORITHME MOBILE-FRIENDLY: QU’EST-CE QUE C’EST ?

Le 21 avril 2015, Google a décidé de modifier son algorithme dans le but de rendre les résultats affichés sur smartphones plus pertinents. Pour ce faire, il a introduit un nouveau critère dans son algorithme mobile (le critère de compatibilité mobile) et les sites internet qui n’étaient pas adaptés pour smartphones ont perdu de la visibilité dans les résultats de recherche.

Cette modification de l’algorithme de Google n’a touché que les résultats affichés sur les smartphones et a été déployé directement mondialement.

Pour plus d’informations sur l’algorithme mobile-friendly, nous avons rédigé un livre blanc sur le sujet que vous pouvez télécharger ici !

3. Le référencement naturel en questions

SUIS-JE INDEXÉ SUR GOOGLE ?

Pour savoir si on est visible sur Google, on peut taper la commande « site:https://referenceur.be » dans la barre de recherche. Si vous voyez apparaître toutes les pages de votre site internet, cela veut dire que Google les reconnait et les identifie. Cependant, cela ne veut pas dire qu’on se positionnera dans les premiers résultats des recherches.

COMMENT ÊTRE VISIBLE SUR GOOGLE ?

Pour être visible sur Google, il est nécessaire de proposer du contenu intéressant aux internautes, d’optimiser son site internet pour les moteurs de recherche mais également de mettre en place une stratégie de link-building efficace dans le but de rendre votre site internet populaire.

L’ATTRIBUT ‘ALT’, ÇA SERT À QUOI ?

En référencement, l’attribut ‘Alt’ désigne un élément HTML qui permet aux moteurs de recherche de comprendre et d’indexer une image. On les retrouve sous la forme suivante dans le code source du site internet:

<img src= »# » alt= »L’attribut Alt: définition » />

FAUT-IL RÉÉCRIRE SES URL POUR UN MEILLEUR RÉFÉRENCEMENT ?

Lorsqu’on travaille le référencement d’un site internet, il faut prêter une attention particulière au format des URL des pages afin de ne pas les modifier par la suite. En effet, Google prend en compte  l’ancienneté des pages et une modification de l’URL pourra avoir pour effet la perte totale du positionnement de la page.

Si l’URL d’une page doit absolument être modifiée (changement de nom de domaine par exemple), une redirection permanente (301) pourra être mise en place pour transférer la popularité de la page et rediriger les internautes.

La réécriture des URL doit être réalisée avec soin pour éviter toute chute de visibilité dans les résultats de recherche.

COMMENT AUGMENTER LES VENTES D’UN SITE INTERNET ?

Pour augmenter les ventes d’un site internet, il convient d’envoyer plus de trafic ciblé vers les produits mis en vente sur le site internet. Pour cela, il convient de travailler la visibilité du site internet sur les moteurs de recherche (SEO et/ou SEA) pour des requêtes générales mais également pour des requêtes spécifiques (ce qu’on appelle la longue traîne).

Si le produit est attrayant (prix et qualité) et qu’il est vu par un public ciblé et intéressé, il est certain de voir ses ventes augmenter petit à petit.

FAUT-IL SE CONCENTRER UNIQUEMENT SUR GOOGLE POUR LE RÉFÉRENCEMENT ?

A l’heure actuelle (2015), Google est le moteur de recherche le plus utilisé dans le monde. Il détient notamment plus de 60% des parts de marché aux Etats-Unis et plus de 90% des parts de marché dans de nombreux pays européens (comme la Belgique, la France, la Suisse, l’Espagne, la Grande-Bretagne, l’Allemagne, etc.) mais aussi au Brésil ou en Australie.

Si vous souhaitez améliorer la visibilité de votre entreprise sur un marché européen, il conviendra donc de se concentrer exclusivement sur Google.

Par contre, si vous souhaitez rendre votre entreprise davantage visible aux Etats-Unis, en Russie ou en Chine, d’autres moteurs de recherche devront être pris en compte. Parmi les moteurs de recherche qui concurrencent Google dans le monde, on citera:

  • Yahoo et Bing (aux Etats-Unis)
  • Yandex (Russie)
  • Baidu et 360 (Chine)

FAUT-IL AVOIR UN BLOG POUR FAIRE DU RÉFÉRENCEMENT ?

Tenir régulièrement un blog à jour afin de proposer des actualités, des conseils ou des informations diverses à ses clients potentiels n’est pas un impératif en référencement. Toutefois, nous estimons que cette stratégie est très utile car elle permettra de garder le site internet à jour, de proposer du contenu pertinent aux internautes et de travailler son image de marque et son expertise dans son domaine d’activité.

Google et les autres moteurs de recherche insistent depuis quelques années sur l’importance de proposer du contenu de qualité qui sera partagé et lu par les internautes. Grâce à la création d’un blog et à son actualisation régulière, on parviendra plus facilement à répondre à ces consignes.

COMBIEN DE TEMPS FAUT-IL AVANT D’ÊTRE BIEN POSITIONNÉ ?

Tout dépend de la stratégie de référencement mise sur pied. Avec du référencement publicitaire (AdWords), on positionne son site en 24 heures.

Pour le référencement naturel, il s’agit plutôt d’un travail de fond. Le site prendra plus de temps pour se positionner dans les résultats organiques. En temps normal, on considère qu’il faut environ trois mois pour bénéficier d’un bon référencement naturel.

Ce laps de temps dépend également du l’âge du site internet et de la concurrence sur le mot clé à positionner.

« OPTIMISER SON SITE », ÇA VEUT DIRE QUOI ?

Optimiser son site est nécessaire pour bénéficier d’un bon référencement. A moins d’avoir des connaissances pointues en informatique ou en référencement, il est nécessaire de faire appel à des professionnels.

Quand on parle d’optimiser son site, on fait essentiellement référence au SEO « On Page » afin de rendre son site compatible et compréhensible pour les moteurs de recherche.

A QUOI SERT LA BALISE TITLE ?

Chaque page d’un site internet comprend une balise « Title » (ou « Titre ») et d’après beaucoup de spécialistes en référencement, s’il ne fallait optimiser qu’un seul élément de son site internet, ce serait certainement le titre de ses pages.

Cette balise se présente sous cette forme : <title>Le titre de votre page</title> et s’affiche tout en haut de la page lorsque vous la consultez mais également sur les moteurs de recherche lorsque vous effectuez une recherche. C’est d’ailleurs la première chose que l’internaute voit lorsqu’il effectue sa recherche, il faut donc que cette balise soit attractive et donne envie de cliquer.

Dans l’exemple ci-dessous, la balise Title est la suivante : « Balise Title : 5 conseils pour augmenter les clics ».

balise-title

Pour que la balise Title soit bien optimisée, il est important d’y inclure des mots clés (et synonymes), de les personnaliser et d’inciter l’internaute à cliquer dessus.

La longueur de cette balise ne doit pas dépasser 70 caractères en sachant que certains caractères sont plus gros que d’autres, ce qui influencera le nombre.

COMMENT INDIQUER AUX MOTEURS DE RECHERCHE DE NE PAS INDEXER CERTAINES PAGES D’UN SITE INTERNET ?

De nombreuses raisons peuvent pousser une entreprise à empêcher l’indexation d’une page ou d’un répertoire de son site internet. Parmi celles-ci, on trouve les pages qui sont trop pauvres et qui peuvent avoir des conséquences négatives (Google Panda par exemple), les fichiers PDF qui sont identiques à certaines pages du site, les pages dupliquées, etc.

Pour indiquer aux moteurs de recherche qu’ils ne doivent pas prendre en compte ces pages, plusieurs solutions sont possibles:

  • L’utilisation de la balise meta noindex: à insérer dans la balise <head> de la page sous la forme <meta name= »robots » content= »noindex »>
  • Les en-têtes HTTP: pour empêcher l’indexation d’un répertoire complet, utilisez le fichier .htaccess (par exemple, insérer ceci dans le répertoire concerné: Header set X-Robots-Tag « noindex »)
  • Le fichier robot.txt: par exemple: [User-agent: * Disallow: /ref ] aura pour effet de demander aux robots de ne pas visiter les adresses commençant par /ref

LES BALISES H1, H2, H3, ETC. SONT-ELLES IMPORTANTES EN RÉFÉRENCEMENT ?

Les balises h1, h2, h3, hn désignent les balises qui introduisent les titres dans les pages HTML d’un site internet. Elles ont plusieurs vocations, notamment:

  • Aider la lecture des internautes en structurant le contenu;
  • Indiquer aux moteurs de recherche les informations les plus importantes de la page (un titre h1 aura plus d’importance qu’un titre h3).

COMMENT RÉFÉRENCER UN SITE EN FLASH SUR GOOGLE ?

Les sites internet créés en Flash (une technologie créée par Adobe qui permet notamment de créer des lecteurs audio, des lecteurs vidéos, des bannières animées, des sites internet, etc.) posent encore de gros problèmes au niveau du référencement sur Google car le moteur de recherche ne parvient pas à lire ce contenu car il n’y a pas de code source et le contenu n’est pas balisé (contrairement à celui réalisé en HTML).

En d’autres mots, cela signifie qu’un site entièrement réalisé en Flash passera inaperçu aux yeux de Google qui ne pourra l’indexer de manière idéale même si des progrès ont été réalisés dans le domaine ces dernières années.

Plutôt que le Flash, on utilisera donc le HTML pour mettre toutes les chances de son côté et s’assurer que son site soit bien référencé sur Google !

COMMENT OPTIMISER SON SITE WEB ?

Pour qu’un site soit bien compris par les moteurs de recherche, il est important de l’optimiser de manière adéquate. Parmi les éléments à optimiser : les métadonnées, le contenu, l’autorité, les performances ou encore les canaux secondaires. Nous avons rédigé un article reprenant 5 conseils pour optimiser son site web que vous pouvez retrouver ici.

Attention : il ne faut pas chercher à optimiser son site web de manière radicale pour les moteurs de recherche car Google peut le détecter et pénaliser le site en question.

A QUOI SERT LA BALISE META DESCRIPTION?

La balise Meta Description peut être considérée comme la petite soeur de la balise Title puisque, dans l’affichage des SERPs (Résultats des Moteurs de recherche ou Search Engine Page Result), elle figure juste en-dessous et permet de donner des informations plus précises à l’internaute concernant ce qui se trouve dans la page.

Dans l’exemple ci-dessus, la balise description est : « Les balises title sont très importantes en SEO. Elles permettent de se positionner mais aussi d’informer l’internaute de ce qui se trouve dans la page ».

Pour une bonne meta description, il faut que cette description soit en relation avec ce qui se trouve sur la page et il est préférable d’éviter les successions de mots clés pour ne pas être pénalisé par les moteurs de recherche.

COMMENT AUGMENTER LE TRAFIC D’UN SITE INTERNET ?

Il existe différents leviers qui permettent d’augmenter le trafic d’un site internet. Généralement, nous estimons que le meilleur moyen d’augmenter le trafic d’un site internet consiste à lever tous (ou une partie) de ces leviers en même temps.

Ces différents leviers sont le référencement naturel, les campagnes AdWords, les médias sociaux ainsi que les campagnes e-mailing. Avec une telle stratégie mise en place, il est inévitable de voir son site web gagner en visibilité !

COMMENT BIEN CHOISIR SON NOM DE DOMAINE ?

Le choix d’un nom de domaine n’est pas toujours aisé mais cela reste une étape essentielle dans le processus de création du site internet et de la notoriété de la marque.

Parmi les éléments auxquels il faudra prêter attention, on notera:

  • L’extension du nom de domaine: A choisir en fonction de la portée souhaitée du site internet (utiliser le .com, .net ou .eu pour une portée internationale et le .be ou le .fr pour une portée nationale).
  • L’insertion du nom de la marque dans le nom de domaine: Un choix extrêmement important afin de pouvoir travailler le branding.
  • La question de l’insertion d’un mot clé en plus de la marque dans le nom de domaine: Une solution à analyser en fonction des besoins, du secteur d’activité et de la pertinence du nom de domaine.

FAUT-IL UN LOGICIEL POUR RÉFÉRENCER SON SITE ?

Non, il n’est pas nécessaire d’avoir un logiciel pour référencer son site internet. Cependant, certains outils permettent d’aider le suivi du référencement, d’analyser les mots clés à positionner ou d’analyser le trafic de son site internet.

Attention cependant avec les logiciels car si certains offrent la possibilité de soumettre des liens à des annuaires et à des sites de communiqués de presse, cette stratégie peut se révéler très dangereuse à l’heure où les mises à jour de Google Penguin semblent de plus en plus sévères.

QU’EST-CE QU’UN SITE INTERNET RESPONSIVE WEB DESIGN ?

Un site internet Responsive Web Design (RDW ou site internet adaptatif en français) désigne un site internet qui détient la faculté de s’adapter au terminal de lecture utilisé par l’internaute. Que ce soit sur smartphones, sur tablettes ou sur PC, l’expérience de l’internaute sera toujours optimale grâce à cette technologie qui parvient à changer dynamiquement l’affichage de la page grâce aux feuilles de style CSS.

A l’heure où Google introduit des critères de compatibilité mobile, il est impératif de rendre son site mobile-friendly (et le Responsive Web Design peut le permettre).

Les pratiques « risquées » en référencement

DÉFINITION: LE DUPLICATE CONTENT (CONTENU DUPLIQUÉ)

Le contenu dupliqué (duplicate content en anglais) désigne une stratégie de référencement devenue pénalisante au fil du temps qui consistait à copier du contenu provenant d’un site internet concurrent.

Google pénalise aujourd’hui les contenus dupliqués afin de lutter contre le plagiat. La page incriminée est alors déclassée du moteur de recherche.

C’est essentiellement grâce au filtre Google Panda que le moteur de recherche est parvenu à lutter efficacement contre cette stratégie particulièrement spammy.

FAUT-IL UTILISER DES PAGES SATELLITES POUR SON RÉFÉRENCEMENT ?

Il y a encore quelques années de cela, les pages satellites permettaient d’améliorer le référencement des sites internet dans les moteurs de recherche. Leur principe était relativement simple: créer des pages associées à une thématique et les lier au site internet principal dans le but d’accroître sa popularité.

Les moteurs de recherche considèrent cette pratique comme allant à l’encontre de leurs consignes et c’est pour cette raison que Google (notamment) a décidé de pénaliser les sites qui utilisaient encore des pages satellites pour améliorer leur référencement (via un déclassement ou une suppression complète des résultats de recherche).

DÉFINITION: UN SITE MIROIR

Dans le domaine du référencement et du web, un site miroir désigne une copie exacte d’un autre site internet sous une adresse IP différente et sur plusieurs serveurs. Cette solution est utile pour les sites qui détiennent une forte demande au niveau international car cela permet de répartir la charge sur différents serveurs.

Cependant, s’ils peuvent être utiles dans certaines situations, les sites miroirs sont aujourd’hui mal vus par les moteurs de recherche car il s’agit d’une forme de duplication de contenu. Cette technique fonctionnait auparavant comme technique de référencement mais est aujourd’hui complètement obsolète.

LE KEYWORDSTUFFING (BOURRAGE DE MOTS CLÉS) : DÉFINITION

Le keywordstuffing est une technique parfois pratiquée par les référenceurs black hat pour duper les moteurs de recherche. Cette technique consiste à inclure un nombre important de mots clés non-pertinents dans les balises Title et Meta Description mais aussi dans le contenu de la page.

Cette pratique a été très répandue à un moment mais est beaucoup moins visible depuis que Google a lancé Google Panda pour lutter contre ce type de contenu. Le keywordstuffing diminue tellement l’expérience de l’internaute qu’il vaut mieux éviter de le pratiquer aujourd’hui, même en black hat.

QU’EST-CE QUE LE CONTENT SPINNING ?

Souvent utilisé dans le milieu du référencement black hat, le content spinning désigne une méthode qui permet de générer des textes différents de manière automatisée dans le but de gagner un temps précieux.

Dans les grandes lignes, ce procédé consiste à écrire un texte spécifique en proposant des variantes pour chaque mot (ou presque).

Voici un exemple concret: [La {voiture|moto|bicyclette} de {Thomas|Frédéric|Quentin} est {rouge|bleue|verte} et est à vendre en {excellent|bon} état de marche]

Grâce à un outil spécial de content spinning, cette phrase générera une multitude de textes différents en prenant au hasard les mots proposés.

Depuis la sortie de Google Panda, l’impact et l’efficacité du content spinning se sont fortement réduits, cette stratégie pouvant même être la cause de pénalités de la part du moteur de recherche.

LE NEGATIVE SEO: DÉFINITION

Depuis que Google pénalise des sites internet à cause de stratégies de linking contraire à ses consignes (cf. Google Penguin), certains webmasters peu scrupuleux ont cherché à faire pénaliser les sites de leurs concurrents en faisant pointer une multitude de liens nocifs vers leurs sites web. C’est ce qu’on appelle dans le milieu du référencement du Negative SEO.

Afin d’empêcher de telles pratiques (et surtout de permettre à des sites pénalisés injustement de sortir de pénalité), Google a mis sur pied un outil de désaveu de lien.

DÉFINITION: LE CLOAKING

Google l’explique très bien dans son Centre d’aide: le cloaking est une technique de dissimulation qui peut être pénalisée par le moteur de recherche puisqu’elle consiste « à présenter aux internautes des URL ou un contenu différents de ceux destinés aux moteurs de recherche ».

Parmi les exemples de cloaking, on trouve l’exemple d’une page de texte HTML proposée aux moteurs de recherche alors qu’elle s’affiche en Flash pour les internautes.

POURQUOI DÉSAVOUER DES LIENS EN RÉFÉRENCEMENT ?

Comme Google l’indique dans son centre d’aide, les liens vers un site internet sont généralement établis pour prouver la qualité d’un site internet. Cependant, il se peut également que des liens aient été créés  dans le but de manipuler le moteur de recherche (via des systèmes de liens ou des liens payants) et ceux-ci peuvent avoir l’effet inverse de celui recherché (une sanction de la part du moteur de recherche par exemple).

Pour éviter une éventuelle pénalité du moteur de recherche ou pour en sortir, il est possible de désavouer les liens qu’on n’arrive pas à modifier manuellement. En pratiquant de la sorte, on signale à Google qu’il ne doit pas tenir compte de ces liens potentiellement nocifs.

Pour importer une liste de liens à désavouer, il faut se rendre sur cette page de la Search Console de Google.

Sur Google transitent des milliards et des milliards d’informations. Une à une, ces dernières sont analysées par des algorithmes qui les répertorient et les classent en fonction de leur contenu. Plus de 200 éléments sont ainsi  passés en revue par ces filtres aux noms quelque peu folklorique : Google Panda, Google Pirate, Google Pigeon et bien d’autres encore.Algorithme Google

Il est donc primordial pour tout créateur de contenu internet d’identifier les raisons qui font que Google considère ou non un contenu comme étant de bonne qualité. C’est grâce à cette analyse qu’on parviendra à produire des textes pertinents pour améliorer le référencement naturel d’un site internet.

Pour vous aider, nous avons mis en évidence 7 facteurs influents en la matière :

L’intention de l’utilisateur

Lorsque nous lançons une requête sur Google, quel qu’en soit le sujet, nous nous attendons logiquement à retrouver du contenu en lien direct avec notre demande. C’est même là le principe de base du moteur de recherche. Pour s’assurer de cette concordance, le géant californien ne cesse de mettre à jour son algorithme principal.

Au moment de créer du contenu, il est donc primordial de tenir à l’esprit le besoin du consommateur en la matière, de se demander si ce que l’on crée répond à une attente.

Un contenu bien conçu

For all types of webpages, creating high quality MC [main content] takes a significant amount of at least one of the following: time, effort, expertise, and talent/skill.

Selon les lignes directrices de Google, un contenu de qualité doit donc être une combinaison de temps, d’effort, d’expertise et de talent.

Il importe peu que votre contenu principal soit un texte, une vidéo, un jeu ou autres tant que ce dernier soit significatif et concorde avec le but premier de la page.

Du contenu supplémentaire utile

Même si le contenu principal d’une page a une influence majeure sur la qualité d’un site web, il ne faut pas en délaisser pour autant le contenu alternatif.

Le contenu supplémentaire a pour but de pousser sur le devant de la scène le contenu principal, le mettre en valeur en quelque sorte. Un contenu annexe attractif encourage l’exploration d’un site web plus en profondeur. A cette fin, le blog se révèle, par exemple, d’une grande utilité.

La mise en page

S’il est évident qu’une attention toute particulière doit être portée à l’écriture et à la qualité des informations, le design de la page, sa mise en page a également toute son importance, au même titre que la simplicité d’utilisation du site.

En effet, un texte bien écrit et design peut pêcher par son manque de fonctionnalité. De la même manière, un site très bien documenté et simple d’utilisation peut refréner l’envie de son utilisateur d’aller plus loin si la mise en page n’est pas bien soignée.

Pour que votre contenu soit optimal, il est primordial de prendre en compte ces trois facteurs.

Une publicité non-invasive

Google tolère bien évidemment la publicité. Cependant, il ne faut pas qu’elle soit omniprésente. Votre contenu sera considéré comme étant de bonne qualité s’il permet d’être lu sans être matraqué par diverses annonces.

La publicité, tout en étant présente, doit permettre à l’utilisateur de l’ignorer s’il le désire. Une séparation nette entre les deux parties est donc à privilégier.

La longueur

La longueur d’un contenu est également un facteur à considérer. A ce sujet, Google, en ne donnant pas de longueur de référence, compte sur l’appréciation de chacun.

Pour vous aider, gardez en mémoire que plus le sujet est vaste plus le contenu devra être long. Jeter un coup d’œil sur ce qui a déjà été fait en la matière devrait également vous aiguiller.

E-A-T

Expertise, Authoritativeness and Trustworthiness (E-A-T) : trois mots à retenir!

Vous devez pouvoir montrer à vos lecteurs que votre contenu est vérifié, fiable. Sans nécessairement être un expert dans chaque sujet abordé, l’utilisateur doit se sentir en confiance.

Appuyer vos dires par des sources reconnues devrait peser dans la balance.

Conclusion

Si vous gardez ces 7 clés dans un coin de votre esprit, vous devriez parvenir à référencer votre contenu comme étant de qualité! Pour plus de détails, n’hésitez pas à parcourir les lignes directrices de Google ou à nous contacter pour plus d’informations sur le sujet. A vous de jouer…

Quelles sont les bases d’un bon référencement en 2015 ? Quels sont les éléments qui pourraient affaiblir votre site internet ? Quelles sont les bonnes pratiques à mettre en oeuvre ? Pour le savoir, découvrez cette infographie réalisée par StudentExperts.com

Au fur et à mesure que les années passent, les stratégies à mettre en oeuvre pour un bon référencement de son site internet évoluent. Après Google Panda, Google Penguin et Google Hummingbird, le moteur de recherche a dernièrement lancé deux nouveaux éléments dans son algorithme afin de le rendre plus puissant et plus précis: Google Pigeon et Google Mobile-Friendly.

En 2015, il faut donc s’assurer que son site est compatible pour les appareils mobiles, qu’il est suffisamment rapide pour charger rapidement et offrir une bonne expérience aux internautes, qu’il n’enfreint pas les consignes de Google, qu’il utilise des mots clés de façon naturelle ou encore qu’il détienne une forte présence sur les réseaux sociaux.

Pour en apprendre davantage sur ces différentes thématiques mais aussi pour découvrir pourquoi il est important de référencer son site internet sur Google, n’hésitez pas à découvrir l’infographie relayée ci-dessous.

Pour davantage d’informations sur nos stratégies en référencement naturel, n’hésitez pas à nous contacter ! 😉

infographie referencement intelligent 2015

 

Il y a quelques mois, nous vous avions déjà proposé un récapitulatif de la première moitié de l’année au niveau du référencement (vous pouvez redécouvrir cet article ici). Mais depuis lors, de l’eau a encore coulé sous les ponts et le visage du SEO (Search Engine Optimization) a continué à changer. Nous reprendrons dans cet article les évolutions qui nous ont principalement marqué en 2014.

Google et le guest blogging

guest-blogging -Le guest blogging est une pratique très répandue dans le domaine du référencement qui consiste à proposer des articles « invités » sur des blogs divers. Cependant, si cette stratégie peut s’avérer très bénéfique lorsqu’elle est réalisée intelligemment, elle peut également être pénalisante depuis cette année et l’annonce de Google de pénaliser le guest blogging.

Matt Cutts avait déjà prévenu en 2013 qu’il fallait pratiquer le guest blogging avec modération et Google est ensuite passé à l’action en pénalisant des plateformes telles que MyBlogGuest.com ou PostJoint par exemple.

Si le guest blogging industrialisé est désormais pénalisé par Google, il semblerait que le fait de proposer des articles invités de qualité, intéressants et propres sur des blogs thématisés permette encore d’améliorer son référencement.

Pour avoir une idée de ce que Google considère comme guest blogging pénalisant, relisez cet article.

Google Penguin 3.0 déployé … sur le long terme

penguin-attention-1Certains attendaient son déploiement depuis plus d’un an afin de pouvoir sortir de la pénalité infligée par la précédente mise à jour (qui datait du mois d’octobre 2013). C’est finalement vers le 17 octobre que Google a annoncé le déploiement de Google Penguin 3.0. Un déploiement qui a énormément fait parler de lui puisque des mouvements dans le SERP ont été régulièrement décelés entre ce 17 octobre et le début du mois de décembre.

Finalement, le moteur de recherche a annoncé qu’il essayait vraiment de rendre permanentes les mises à jour de Google Penguin afin d’éviter des situations telles que celles vécues entre 2013 et 2014 par certains sites web.

On verra comment évolue cette mise à jour en 2015 mais il semblerait que Google veuille prendre une nouvelle direction pour Penguin après l’intégration de Google Panda dans son algorithme.

Au niveau des filtres du moteur de recherche, on épinglera également les sorties de :

2015 : une année mobile

google-mobile-smartphone-604x270Si nous nous permettons de parler de 2015 dans cette rétrospective SEO 2014, c’est essentiellement parce qu’au cours de cette fin d’année, Google a mis sur pied différentes évolutions ou tests afin d’améliorer l’expérience des internautes sur les appareils mobiles que sont les tablettes et les smartphones.

Ainsi, si certaines études démontrent déjà que les recherches sur mobiles dépasseront celles sur PC au cours de l’année 2015, Google n’a pas attendu pour améliorer son interface mobile. C’est ainsi qu’on a pu apercevoir en cette fin d’année le sigle « mobile-friendly » qui permet à l’internaute de savoir si le site qu’on va visiter est compatible avec les appareils mobiles. Google a d’ailleurs prévu un outil de test qui permet à chacun de savoir si son site bénéficiera de cette mention.

Nous aurions également pu parler de la fin de l’authorship dans les SERP, de l’apparition du formulaire de demande de droit à l’oubli et de bien d’autres évolutions en référencement dans ce récapitulatif mais on pourrait alors y passer la nuit.

Pour ne rien manquer de l’actualité en référencement, sur les médias sociaux et dans les moteurs de recherche en 2015, n’hésitez pas à continuer à nous suivre régulièrement, à commenter les articles et à les partager sur les réseaux sociaux !

D’ici là, passez un excellent réveillon de nouvel An et rendez-vous l’année prochaine ! 😉

Les spécialistes du référencement comme les plus novices dans le domaine le savent certainement : le milieu du SEO (Search Engine Optimization) est constamment en évolution. Et le début de l’année 2014 n’a pas échappé à la règle entre les mises à jour de Google Panda, le filtre Payday Loan ou encore des pénalités infligées à certains portails de guest blogging. Petit récapitulatif des 7 premiers mois de l’année en SEO.

Le guest blogging pénalisé

guest-blogging -Avant de prendre des vacances prolongées, Matt Cutts, le chef de l’équipe antispam de Google, a été particulièrement prolifique dans ses vidéos, ses tweets ou encore via les articles publiés sur son blog. C’est d’ailleurs par un de ces articles qu’il a commencé l’année en expliquant que « si on fait du guest blogging dans le but de gagner des liens, on ferait mieux d’arrêter ».  

Les réactions n’ont pas tardé à fuser suite à cette sortie. Aussi bien les spécialistes anglophones que francophones se sont fait entendre dans la sphère SEO, arguant pour la plupart que le guest blogging était loin d’être mort.

Pourtant, très rapidement, les sanctions ont commencé à tomber à l’encontre des plateformes de guest blogging comme Buzzea, Efamous, PostJoint ou encore MyBlogGuest.

Au final, on pourra conclure suite à ce début d’année particulièrement mouvementé concernant le guest blogging que ce sont avant tout les plateformes industrialisées (et pas très discrètes) qui ont principalement été pénalisées par le moteur de recherche.

Google Panda 4.0

Mises à jour Google PandaDans le courant de l’année 2013, Google et Matt Cutts avaient indiqué que les mises à jour de Google Panda s’effectueraient désormais sans annonce et qu’elles seraient intégrées directement dans l’algorithme du moteur de recherche à la place.

Quelle ne fût pas notre surprise lorsque Matt Cutts annonça sur Twitter le déploiement d’une mise à jour 4.0 de Google Panda au milieu du mois de mai. La raison de cette sortie ? Une mise à jour plus importante que d’habitude qui méritait une attention toute particulière des webmasters et des spécialistes en référencement.

Suite à cette mise à jour, plusieurs organismes en ont profité pour classer les principaux sites qui ont profité de la mise à jour et ceux qui ont perdu du trafic. Retrouvez les gagnants et les perdants anglophones ici et les francophones ici.

Découvrez toutes les mises à jour de Google Panda ici !

Google Payday Loan 2.0 et 3.0

A l’aube de l’été 2013, Google avait annoncé qu’une nouvelle mise à jour visant les requêtes très spammy était lancée mais cette nouvelle n’avait pas eu énormément d’impact dans le monde du SEO. Il s’agissait pourtant là de la première des mises à jour du filtre « Payday Loan ». Les suivantes ont été déployées au cours de cette première moitié d’année avec la mise à jour Payday Loan 2.0 au milieu du mois de mai et la mise à jour 3.0 au milieu du mois de juin.

Pour rappel, ces mises à jour concernent essentiellement les requêtes très spammy du type [casinos], [viagra] ou encore [prêt sur salaire].

Découvrez toutes les mises à jour de Google Payday Loan ici !

Google « Pigeon » 1.0

pigeonA la fin du mois de juillet, Google a déployé un nouvel algorithme (Google Pigeon) visant à améliorer les résultats concernant les recherches locales comme [restaurant à Bruxelles], [hôtel à Namur], etc.

A l’heure d’écrire ces lignes, la mise à jour n’a été déployée qu’aux Etats-Unis en langue anglaise mais il apparaît que les gros annuaires tels que Yelp seraient favorisés par cet algorithme.

L’algorithme « Pigeon » a été baptisé par les gars de Search Engine Land parce que le pigeon est un animal habitué à revenir à son domicile.

Nos 5 articles SEO les plus partagés en cette première moitié d’année