smartphone-mobile-pcComme vous l'avez certainement appris en lisant les dernières actualités relatives au , un algorithme  sera déployé prochainement par . Et d'après les dernières informations relayées par Zineb Ait Bahajji, Webmaster Trends Analyst chez Google, l'impact de ce futur algorithme risque d'être plus important que celui de Google ou de !

Nous vous l'expliquions sur notre blog à la fin du mois de février: Google va déployer un algorithme de compatibilité mobile à partir du 21 avril prochain. Conséquence de cette nouveauté: tous les sites qui ne sont pas compatibles pour mobiles aux yeux de Google risque de perdre de la visibilité dans les résultats de recherche mobiles au profit des sites mobile-friendly.

Si l'on en croit les derniers propos des employés de Google à propos de cette mise à jour, ce nouvel algorithme risque d'avoir un impact très important dans les résultats de recherche puisque Zineb Ait Bahajji a indiqué lors d'une conférence au SMX de Munich qu'il aurait un effet plus grand que ou Penguin.

Ce message a rapidement été é par Aleyda Solis :

Pour rappel, Google Panda avait réussi à avoir un impact sur 12% des résultats de recherche et sur 4% de celles-ci lors des mises à jour les plus importantes.

Si votre site n'est pas encore mobile-friendly ou que vous avez un doute à ce sujet, rendez-vous très rapidement sur cette page pour faire le test ! 

Testez votre site internet

La réponse du test est négative ? Contactez-nous au plus vite afin de rendre votre site mobile-friendly avant le 21 avril et évitez ainsi de perdre un trafic précieux !

mobile-iphoneVendredi dernier, nous vous annoncions sur ce blog que lancera son nouvel algorithme relatif à la compatibilité mobile dès le 21 avril 2015. Nous en avons appris davantage depuis lors puisque Google a indiqué que cet algorithme s'exécutera en temps réel et qu'il concernera les pages d'un site web et non pas celui-ci dans sa globalité.

Comme on l'expliquait dans notre article paru la semaine dernière, Google va prochainement lancer un nouvel algorithme qui inclura la compatibilité mobile comme facteur de . En d'autres termes, les sites qui sont compatibles avec les appareils mobiles seront privilégiés dans les résultats de au profit des autres.

Cette semaine, le Googler Gary Illyes a répondu à plusieurs questions lors d'une conférence au SMX West, réponses que Barry Schwartz, le modérateur, a relayé sur Search Engine Land. Voici ce qu'il faut retenir:

Un algorithme mobile-friendly en temps réel

Lors du SMX West, des webmasters ont demandé à à partir de quelle date les sites devraient être compatibles avec les appareils mobiles pour qu'ils ne soient pas impactés négativement par l'algorithme le 21 avril prochain. Le Googler a répondu que le futur algorithme de Google s'exécutera en temps réel, c'est-à-dire que dès que le site sera adapté pour les appareils mobiles, le l'indexera comme tel dans ses résultats de recherche.

Dans son explication, Gary Illyes n'a pas clairement expliqué comment Google prendra en compte le changement. Est-ce qu'il le fera après avoir crawlé le site internet ou une fois que la requête sera recherchée dans son moteur ? Nous penchons plutôt pour la première solution, ce qui voudrait dire que si votre site est rarement crawlé par le moteur de recherche, il faudra plus de temps pour que la modification soit prise en compte.

Un algorithme qui s'exécute par pages

Autre information intéressante pour les webmasters et propriétaires de sites web: Gary Illyes a déclaré que l'algorithme Mobile Friendly s'exécutera pages par pages et non sur le site web dans son entièreté. Cela signifie que si vous avez 10 pages sur votre site web et que 5 d'entre elles sont mobiles-friendly, seules ces dernières profiteront du nouvel algorithme.

Evidemment, il sera préférable d'avoir un site dont toutes les pages sont au vu de l'explosion des recherches sur mobiles.

Pour plus d'informations sur le sujet ou pour rendre votre site mobile-friendly dans les plus brefs délais, n'hésitez pas à nous contacter 😉

 

smartphoneSi vous suivez régulièrement notre , vous n'êtes pas sans savoir que Google a mis sur pied un outil permettant de vérifier si votre site web est optimisé pour les appareils mobile ou non. Depuis quelques mois, communique d'ailleurs régulièrement à ce sujet afin de pousser les webmasters à résoudre les différents problèmes qui peuvent se poser.

Parmi les problèmes qui peuvent être mis en évidence par l'outil de vérification de Google, on trouve le fait de bloquer ou de cloaker  ce qui engendre comme conséquence que les robots n'arriveront plus à détecter votre site comme étant mobile-friendly.

Mais saviez-vous également que cet outil de test de Google est particulièrement lent pour mettre à jour les fichiers robots.txt? Dernièrement, un webmaster s'est plaint auprès du dans Google Webmaster Help parce que l'outil ne fonctionnait pas à cause d'une erreur (vous pouvez retrouver le fil de discussion ici).

C'est le Googler Eric Kuan qui a répondu à ce webmaster lui expliquant que l'outil de test mobile-friendly pouvait prendre un peu de temps avant de découvrir que les fichiers robots.txt ont été mis à jour. Il faudra donc parfois être un peu patient avant que le moteur de recherche ne prenne en compte votre site comme étant optimisé pour les appareils mobiles.

Voici ce qu'a expliqué précisément Eric Kuan :

« The mobile-friendly test should be working for you now. When you make changes to your robots.txt file, it can take a little time for the Mobile Friendly Test to recognize that the robots.txt file changed. »

Vous n'avez pas encore effectué le test de Google pour savoir si votre site était optimisé pour mobile? Faites-le directement et gratuitement ici, cela ne prend que quelques secondes!

Si vous remarquez que votre site n'est pas optimisé pour mobiles, n'hésitez pas à nous contacter, nous nous ferons un plaisir de vous aider à conserver et à améliorer votre visibilité sur smartphones et tablettes!

 

google-mobile-smartphoneCela fait désormais plusieurs mois que cherche à améliorer l'expérience des internautes qui surfent sur mobile ainsi que ses résultats de recherche sur smartphones et tablettes. Et dans cette optique, on apprend aujourd'hui que le envoie des mails aux webmasters dont le site internet n'est pas compatible avec ces appareils mobiles.

C'est Abondance.com qui partage cette actualité selon laquelle le moteur de recherche prévient les webmasters dont les sites ne sont pas et qui pourraient, à terme, être moins bien classés dans les résultats de recherche.

Ces derniers mois, Google a d'abord annoncé que l'expérience mobile ferait bientôt partie des facteurs de ranking du moteur de recherche avant de lancer un sigle « Mobile-Friendly » pour les sites compatibles sur appareils mobiles. En d'autres termes, Google ne chôme pas en ce qui concerne le mobile et on aurait tort de ne pas en tenir compte. En effet, s'il est possible qu'il faille encore attendre plusieurs mois avant que Google ne pénalise ou ne classe moins bien les sites qui ne sont pas optimisés pour les smartphones et les tablettes, les webmasters ne pourront pas dire qu'ils n'auront pas été avertis lorsque cela sera mis en place.

Dans le mail envoyé par Google partagé ce matin par Abondance, on remarque que Google propose 3 solutions pour résoudre le problème dans les plus brefs délais, à savoir:

  1. Identifiez les problèmes détectés en examinant le rapport de Google
  2. Renseignez-vous sur le design mobile-friendly
  3. Corrigez les problèmes d'ergonomie mobile de votre site

On notera également que dans l'introduction du mail, Google indique au webmaster que les pages de son site ne sont pas considérées comme mobile-friendly et que ces dernières pourraient être affichées et classées en conséquence pour les mobinautes.

Vous souhaitez bénéficier d'une aide qui vous permettra de rendre votre site web mobile-friendly? N'hésitez pas à nous contacter!

Voici à quoi ressemble le mail envoyé aux webmasters pour les informer de la non-compatibilité de leur site web:

mail-google-non-compatibilite-mobile

 

Hier, Google a annoncé sur son blog qu'il était en train de déployer le sigle à l'international. Pour rappel, ce label avait d'abord été testé au mois d'octobre avant d'être déployé aux USA au milieu du mois de novembre.

D'après les dernières , il semblerait que les recherches effectuées sur les appareils mobiles (smartphones ou tablettes) sont en pleine croissance et qu'elles ne tarderaient pas à dépasser celles sur PC. a bien évidemment compris l'importance de proposer une recherche pertinente sur les appareils mobiles et c'est dans cette optique qu'il a indiqué ce mercredi 10 décembre avoir lancé le sigle « Mobile-Friendly » à l'international.

Ce nouveau sigle (que vous devriez voir apparaître très bientôt dans les résultats de vos recherches mobiles) permettra aux internautes de savoir si le site en question est compatible avec les appareils mobiles, ce qui risque de faire gagner pas mal de trafic à ceux qui le sont effectivement. Voici à quoi il devrait ressembler en Belgique:

mobile-friendly

Les critères à remplir pour obtenir ce label

Afin de savoir si votre site web est compatible avec les appareils mobiles, vous pouvez effectuer le test sur cette plateforme de Google (cliquez ici). Si le résultat est négatif, il faudra inspecter différents critères pris en compte par le . Par exemple:

 

mobile-friendly-testAu milieu du mois d'octobre, nous avions remarqué que Google testait des symboles qui permettaient aux internautes mobiles de savoir si un site internet était ou non. Un mois plus tard, officialisait un symbole et offre désormais la possibilité de tester la compatibilité d'un site internet avec les appareils mobiles. Cependant, beaucoup de sites internet ont échoué à ce test alors qu'ils s'adaptent bien aux appareils mobiles. Pourquoi ? Découvrez la réponse de John Mueller

Pour savoir si votre site internet est compatible avec les appareils mobiles et qu'il pourra bénéficier du symbole mobile friendly dans les du , vous pouvez insérer l'URL de votre site web dans cet outil appelé Mobile Friendly Test.

Cependant, suite au lancement de cet outil, de nombreux webmasters ont déclaré qu'il ne fonctionnait pas bien puisque des sites web parfaitement mobile friendly étaient détectés comme non-mobile friendly par le moteur de recherche. Pour , spécialiste chez Google Suisse, deux raisons peuvent expliquer qu'un site mobile friendly ne soit pas détecté comme tel par l'outil :

Dans les deux situations décrites par John Mueller dans sa publication sur Google+ (que vous pouvez retrouver ci-dessous), même si votre site internet est mobile-friendly, GoogleBot ne parvient pas à le détecter et, du coup, il sera marqué comme Non-Mobile-Friendly dans les résultats de recherche de Google !

Voici l'explication complète de John Mueller :

FAQ

Découvrez notre
foire aux,
questions.

Les définitions en référencement naturel

1. Les définitions

QU’EST-CE QUE LE RÉFÉRENCEMENT / LE SEO ?

Le référencement sur les moteurs de recherche consiste à positionner les sites internet le mieux possible sur des requêtes choisies au préalable en fonction du secteur d’activité (de l’entreprise, de la personne morale ou du site web).

Le référencement (ou SEO – Search Engine Optimization) consiste à mettre en place différentes techniques qui permettront à un site internet de se positionner dans les meilleurs résultats des recherches de Google (ou SERP).

Il existe du SEO « on page » qui consiste en la création de contenu de son site internet, son maillage internet, etc. Et du SEO « off page », en dehors du site, qui vise à faire du netlinking, du linkbaiting, etc.

QUE SIGNIFIE SERP ?

SERP signifie en anglais Search Engine Results Page. Autrement dit, il s’agit de la page de résultats d’un moteur de recherche.

SEA, SEM, SEO, SMO : QU’EST-CE QUE C’EST ?

Les professionnels du référencement utilisent toute une série d’abréviations qui ne sont pas toujours compréhensibles pour les novices.

    • Le SEO (Search Engine Optimization) désigne l’optimisation pour les moteurs de recherche, c’est-à-dire le référencement.
    • Le SEA est le Search Engine Advertising, c’est-à-dire la publicité sur les moteurs de recherche.  Chez nous, le SEA le plus connu est l’AdWords de Google qui permet d’afficher ses annonces dans les pages de résultats.
    • SEM ou Search Engine Marketing est le marketing sur les moteurs de recherche. Cela consiste en toutes les techniques qui permettent de renforcer la visibilité d’un site internet sur le web. Aujourd’hui, le SEM ne se limite plus aux moteurs de recherche et s’est étendu aux réseaux sociaux.
    • SMO ou Social Media Optimization est l’optimisation sur les réseaux sociaux. Cette optimisation comprend toutes les techniques qui permettent d’augmenter sa visibilité sur les réseaux sociaux.

CMS: DÉFINITION

CMS est l’acronyme de Content Management System, c’est-à-dire des systèmes de gestion de contenu. Il s’agit donc d’une famille de logiciels qui permettent de concevoir et de mettre à jour des sites internet ou des applications.

Il existe de nombreux CMS différents mais les plus connus sont WordPressJoomla!Drupal et Prestashop.

UN EMD: C’EST QUOI ? CA SERT À QUOI ?

Dans le jargon du référencement, EMD est l’acronyme de Exact Match Domain, soit un nom de domaine incluant des mots correspondant exactement à la requête visée. Par exemple, le nom de domaine voyage-pas-cher.com sera utilisé pour se positionner sur le mot clé « Voyage pas cher ».

Ces dernières années, Google a cherché à combattre les EMD de mauvaise qualité afin de nettoyer ses SERP des sites de pauvre qualité. Il semblerait donc que l’influence de ces mots clés au sein du nom de domaine soit de moins en moins grande et nous conseillons donc de les éviter à l’heure actuelle. Privilégiez plutôt le nom de votre marque comme nom de domaine !

DÉFINITION: LIEN NOFOLLOW

L’attribut nofollow sert à indiquer que le lien en question ne doit pas être pris en compte par le moteur de recherche ou par le programme qui lit la page. On retrouve ce type de lien sous la forme :

<a href= »https://referenceur.be » rel= »nofollow »>ancre du lien</a>

Cet attribut a été inventé par Google en 2005 afin de lutter contre le spam. Il est régulièrement utilisé dans les commentaires laissés sur des blogs afin d’empêcher les webmasters mal intentionnés de bénéficier de liens artificiels.

DÉFINITION: LES IN-DEPTH ARTICLES (ARTICLES DE FOND)

Les In-Depth Articles (traduits en français par « articles de fond ») apparaissent dans les résultats de recherche de Google afin de mettre en évidence du contenu de qualité supérieure aux internautes.

Les articles de fond apparaissent généralement dans Google grâce aux signaux envoyés par ses algorithmes mais il est possible d’aider le moteur de recherche à comprendre qu’un certain contenu est de qualité supérieure grâce au balisage pour article schema.org

QUE SIGNIFIE L’ACRONYME UX?

Le terme UX est un acronyme qui vient de l’anglais (User Experience) et qui désigne l’expérience de l’utilisateur, c’est-à-dire le ressenti d’un utilisateur face à un design de site internet (pour le domaine qui nous concerne) mais aussi face à un objet ou à un service par exemple.

L’expérience de l’utilisateur reprend plusieurs éléments importants parmi lesquels on citera:

  • L’apparence et l’ergonomie du site internet
  • La capacité à offrir une crédibilité au site internet
  • L’efficacité du site internet
  • La facilité d’utilisation du site internet
  • La capacité du site internet à s’adapter à toutes les plateformes
  • Etc.

CRAWLER UN SITE, ÇA VEUT DIRE QUOI ?

Un crawler est un robot logiciel qui explore automatiquement le web afin de permettre aux moteurs de recherche d’indexer les contenus des sites internet (images, vidéos, textes, pages web, etc.).

Le mot crawler vient de l’anglais (to crawl signifie ramper) et ce nom a été traduit en français en 2013 par collecteur.

DÉFINITION: LES RICH SNIPPETS (EXTRAITS ENRICHIS)

Les rich snippets (qu’on appelle en français extraits enrichis) correspondent à un certain nombre de données que le moteur de recherche de Google parvient à récupérer sur votre site afin de l’insérer dans ses résultats. Parmi ces informations, on peut trouver les prix des produits, des informations sur l’auteur, des avis de consommateurs, du maillage interne, etc.

En général, les rich snippets sont insérés dans les SERP afin d’enrichir l’expérience de l’internaute et de se démarquer de la concurrence.

Pour bénéficier des rich snippets, il convient d’optimiser la structure HTML du site internet ou de la page en question.

QU’EST-CE QUE LE KNOWLEDGE GRAPH ?

Annoncé dans le courant du mois de mai 2012, le Knowledge Graph désigne une base de connaissance utilisée par Google pour offrir des informations aux internautes sans que ceux-ci ne doivent quitter le moteur de recherche.

Les informations proposées par le Knowledge Graph proviennent de différentes sources parmi lesquelles on citera Wikipedia ou Freebase.

Au fur et à mesure que les mois passent, Google enrichit les données du Knowledge Graph afin de devenir un véritable moteur de réponse.

Les réponses fournies par le Knowledge Graph sont disponibles aussi bien sur ordinateur que sur tablette ou sur smartphone (de manière à ce que les internautes puissent y avoir accès de partout).

DÉFINITION: LE FIL D’ARIANE

Le fil d’Ariane (en anglais, on utilise le terme « breadcrumb ») permet de hiérarchiser un site internet et d’en faciliter la navigation. Situé en général au-dessus du contenu de la page, il permet de visualiser l’endroit où on se situe sur le site internet et d’atteindre d’autres catégorisations d’un simple clic.

Voici un exemple de fil d’Ariane: Accueil > Voiture > Location > Ford

L’utilisation du fil d’Ariane est très pertinente car il permet aux internautes de savoir où ils se trouvent sur le site internet, il permet d’accéder directement à d’autres pages et il améliore le référencement via le maillage interne du site internet.

QU’EST-CE QUE LA LONGUE TRAÎNE ?

La longue traîne est une requête précise qui apporte des visites de qualité à un site internet. En résumé, son principe consiste dans le fait que plus une expression clé est longue, plus le trafic que cette expression amènera sera pertinent et plus les chances de conversions seront élevées.

Un exemple de longue traîne sera « jupe rouge courte taille 36 » tandis qu’une expression clé générique (tête de longue traîne) sera « jupe ».

LA RECHERCHE UNIVERSELLE SUR GOOGLE: DÉFINITION

Déployée en mai 2007 par Google, la recherche universelle (Universal Search en anglais) désigne le concept qui permet aux internautes d’obtenir des réponses associées à des résultats verticaux ou à des services tiers.

La recherche universelle de Google comprend notamment des cartes, des images, des actualités, des extraits de livre, des résultats personnalisés, des résultats provenant des réseaux sociaux, des traductions, des vidéos, des définitions, des résultats sportifs, la météo, etc.

Google utilise parfois des rubriques particulières dans le cadre de la recherche universelle. Il s’agit notamment de Google Maps, de Google Images, de Google Actualités, de Youtube, etc.

QUE SIGNIFIE L’ACRONYME PPC/CPC ?

L’acronyme PPC désigne un mode de tarification signifiant Pay Per Click en anglais ou Coût par clic (CPC) en français. Principalement utilisé lors de campagnes publicitaires effectuées sur le web (et notamment sur Google AdWords), le PPC détermine le prix de l’enchère des clics des internautes sur une annonce. Plus le PPC maximum autorisé sera élevé, plus les chances de voir l’annonce se positionner au top seront grandes.

QUE SIGNIFIE L’ACRONYME CTR?

CTR signifie Click-Through Rate en anglais ou taux de clic en français. Il s’agit d’un indicateur qui permet de mesurer efficacement la performance d’une annonce lors d’une campagne publicitaire (sur Google AdWords par exemple).

Le taux de clic désigne le rapport entre le nombre de clics sur une annonce et le nombre d’affichages de l’annonce (x 100 pour obtenir le pourcentage). Par exemple, si une annonce est vue 100 fois et reçoit 5 clics, son taux de clics sera de 5 %.

LE FICHIER ROBOTS.TXT: DÉFINITION

Le fichier Robots.txt est un document texte qui se trouve à la racine de votre site internet et qui est utilisé par une grande majorité des moteurs de recherche pour indiquer aux robots ce qu’ils doivent et ce qu’ils ne doivent pas explorer.

Par convention, les robots des moteurs de recherche consultent toujours les fichiers robots.txt avant d’explorer les sites internet.

REDIRECTION 301: DÉFINITION

Une redirection 301 est un code d’exécution présent dans l’en-tête d’une page pour indiquer au navigateur que le contenu de la page a changé d’URL. On utilise donc ce code lorsqu’on change le nom d’un site ou d’une page pour maintenir le trafic et la visibilité. Les internautes sont automatiquement redirigés vers la nouvelle URL grâce à ce type de redirection.

DÉFINITION DU FICHIER SITEMAP

Le fichier SiteMap désigne un fichier en format XML qui liste les pages d’un site internet pour qu’elles soient toutes prises en compte par les moteurs de recherche. Ce fichier permet aussi aux moteurs de recherche d’analyser plus rapidement les pages d’un site web.

Créé au départ par Google, le fichier sitemap est aujourd’hui utilisé par tous les moteurs de recherche.  Il est généralement placé à la racine du site.

DÉFINITION: LE CLUSTERING

Le clustering désigne une pratique utilisée par les moteurs de recherche afin de limiter le nombre de pages d’un même site dans ses résultats de recherche. Le but de cette pratique consiste à éviter qu’un site internet monopolise complètement les résultats de recherche du moteur.

En général, Google limite à 2 le nombre de pages provenant d’un même site dans sa page de résultat mais les internautes pourront cependant découvrir plus de résultats en cliquant sur l’option « Plus de résultats » (quand elle est affichée).

QU’EST-CE QU’UNE BALISE CANONICAL ?

La balise rel= « canonical » désigne une balise HTML qui permet d’informer les moteurs de recherche qu’une page similaire existe déjà ailleurs (sur une URL différente donc).

L’intérêt de cette balise réside dans le fait qu’elle permet de solutionner des problèmes de duplicate content.

La balise rel= « canonical » doit être insérée entre les tags <head> de la page concernée.

LE BLACK HAT ET LE WHITE HAT : DÉFINITIONS

En référencement naturel, il convient de distinguer deux types de pratiques courantes dans le milieu : les pratiques white hat (chapeau blanc) qui consistent à suivre les guidelines de Google en termes de référencement et les pratiques black hat (chapeau noir) qui sont plus « à la limite » de ce qu’on peut faire en SEO et qui sont plus sujettes à recevoir des pénalités du moteur de recherche.

Au sein de notre agence de référencement, nous travaillons exclusivement avec des techniques white hat, plus pérennes et moins risquées aux yeux de Google. La raison de ce choix est simple : il s’agit de positionner les sites de manière durable dans le temps car en cas de pénalité de Google, le site peut disparaître des moteurs de recherche pendant plusieurs mois.

A l’inverse, les techniques de black hat sont privilégiées pour donner très rapidement de la visibilité à un site web mais pour une durée très limitée puisque les moteurs de recherche risqueront à tout moment de le pénaliser.

UNE PAGE D’ATTERRISSAGE (OU LANDING PAGE): QU’EST-CE QUE C’EST ?

Ce qu’on désigne par Page d’atterrissage (ou en anglais Landing Page) correspond à la page sur laquelle l’internaute arrive après avoir cliqué sur un résultat (publicitaire ou naturel) dans les résultats de recherche. Pour garder l’internaute sur son site internet, il importe que la landing page soit pertinente, claire et efficace.

La qualité d’une page d’atterrissage est déterminante à la fois pour les moteurs de recherche et pour les internautes.

Les algorithmes et filtres de Google

LES ALGORITHMES DE GOOGLE, C’EST QUOI ?

Comme l’explique Google sur son site web, « les algorithmes sont des programmes informatiques conçus pour naviguer parmi des milliards de pages ». En effet, pour offrir des résultats qui répondent à la recherche effectuée, Google se sert d’algorithmes qui classent et répertorient les pages web.

Parmi les éléments (il y en a plus de 200) pris en compte par les algorithmes de Google on trouve : les termes figurants sur le site internet, le rafraîchissement du contenu du site web, la localisation ou encore le PageRank.

GOOGLE PANDA, C’EST QUOI ?

Les algorithmes de Google sont régulièrement mis à jour par des filtres qui doivent permettre à Google d’offrir des meilleurs résultats de recherche aux internautes. Google Panda fait partie de ces filtres et est apparu pour la première fois en février 2011 pour les requêtes anglophones et en août 2011 (la version 2.3) pour les requêtes françaises.

L’objectif de Google Panda est simple puisque la mise à jour vise à pénaliser les sites internet qui :

  • Sont sans valeur ajoutée pour les utilisateurs,
  • Copient les contenus d’autres sites internet (duplicate content),
  • Ne sont pas très utiles.

Jusqu’au début de l’année 2013, des mises à jour de Panda étaient effectuées presque tous les mois par Google mais Matt Cutts, le chef de l’équipe anti-spam de Google, a ensuite indiqué que ces mises à jour se feraient tous les mois pendant une dizaine de jours sans que cela ne soit indiqué par le moteur de recherche (retrouvez toutes les mises à jour de Google Panda ici).

GOOGLE PAYDAY LOAN, C’EST QUOI ?

Lancé au mois de juin 2013, Google Payday Loan est un filtre antispam mis au point par Google afin de lutter contre les requêtes particulièrement spammy, c’est-à-dire celles qui proviennent du registre de la porn0graphie, des jeux, du viagra, des casinos ou encore de ce que les anglophones appellent le « Payday Loan » (qu’on pourrait traduire par « prêt sur salaire »).

Depuis le lancement de Google Payday Loan a été lancé en 2013, plusieurs actualisations du filtre ont été réalisées. Vous pouvez découvrir l’ensemble de ces mises à jour ici: Les mises à jour de Google Payday Loan.

QU’EST-CE QUE LE PAGERANK ?

Le PageRank est une valeur numérique variant entre 0 et 10 qui est associée par Google à tous les sites web afin de quantifier sa popularité. Le PageRank figure parmi les éléments qui servent à positionner les sites internet dans le moteur de recherche.

A l’heure actuelle, le PageRank n’est plus actualisé par Google (la dernière mise à jour date de 2013 et avait été effectuée par erreur). Il ne faut donc plus se fier à cet indicateur.

GOOGLE PENGUIN, C’EST QUOI ?

Un an après la première mise à jour de Google Panda, ce fût au tour de Google Penguin de voir le jour dès le mois d’avril 2012. Cette fois, il n’était pas question de viser le contenu des sites internet mais bien de pénaliser les pratiques externes que Google jugeait irrégulières et non-naturelles parmi lesquelles on trouvait des pratiques de netlinking abusives et des backlinks non-naturels.

Les mises à jour de Google Penguin auront été beaucoup moins régulières que celles de Panda puisqu’on a pu en dénombrer uniquement 6 depuis son lancement en avril 2012 (contre plus d’une vingtaine pour Google Panda). N’hésitez pas à découvrir la liste des mises à jour de Penguin ici.

GOOGLE PIRATE, C’EST QUOI ?

Google Pirate est un filtre du moteur de recherche qui a été déployé au mois d’août 2012 puis mis à jour en octobre 2014. Ce filtre a pour objectif d’empêcher les sites qui enfreignent le droit d’auteur de se positionner dans les meilleurs résultats du moteur de recherche.

Parmi les sites qui ont été principalement touchés par les mises à jour, on trouve ceux qui figurent dans le système DMCA (Digital Millenium Copyright Act) ainsi que de nombreux sites de téléchargement illégal.

GOOGLE HUMMINGBIRD, C’EST QUOI ?

A la fin du mois de septembre 2013, Google a annoncé la sortie d’un nouvel algorithme à l’occasion du 15ème anniversaire de son moteur de recherche. Le nom de ce nouvel algorithme : Hummingbird (ou Colibri).

L’objectif de ce nouvel algorithme : améliorer la pertinence des résultats fournis par les moteurs de recherche et « mieux répondre aux requêtes les plus complexes ». D’après de nombreux observateurs, ce nouvel algorithme devrait essentiellement impacter les recherches sur la longue traîne.

GOOGLE PIGEON, C’EST QUOI ?

Lancé au mois de juillet 2014 aux Etats-Unis, Google Pigeon est un algorithme de Google qui a pour objectif de proposer des résultats plus pertinents et plus précis lorsque les internautes effectuent des recherches locales, c’est-à-dire les recherches ciblées géographiquement.

Après les Etats-Unis, cet algorithme s’est petit à petit déployé en Europe (notamment au Royaume-Uni), au Canada et en Australie afin d’apporter des améliorations au niveau de la correction orthographique, du Knowledge Graph ou encore de la gestion des synonymes (en plus de la pertinence des résultats de recherche géolocalisés).

L’ALGORITHME MOBILE-FRIENDLY: QU’EST-CE QUE C’EST ?

Le 21 avril 2015, Google a décidé de modifier son algorithme dans le but de rendre les résultats affichés sur smartphones plus pertinents. Pour ce faire, il a introduit un nouveau critère dans son algorithme mobile (le critère de compatibilité mobile) et les sites internet qui n’étaient pas adaptés pour smartphones ont perdu de la visibilité dans les résultats de recherche.

Cette modification de l’algorithme de Google n’a touché que les résultats affichés sur les smartphones et a été déployé directement mondialement.

Pour plus d’informations sur l’algorithme mobile-friendly, nous avons rédigé un livre blanc sur le sujet que vous pouvez télécharger ici !

3. Le référencement naturel en questions

SUIS-JE INDEXÉ SUR GOOGLE ?

Pour savoir si on est visible sur Google, on peut taper la commande « site:https://referenceur.be » dans la barre de recherche. Si vous voyez apparaître toutes les pages de votre site internet, cela veut dire que Google les reconnait et les identifie. Cependant, cela ne veut pas dire qu’on se positionnera dans les premiers résultats des recherches.

COMMENT ÊTRE VISIBLE SUR GOOGLE ?

Pour être visible sur Google, il est nécessaire de proposer du contenu intéressant aux internautes, d’optimiser son site internet pour les moteurs de recherche mais également de mettre en place une stratégie de link-building efficace dans le but de rendre votre site internet populaire.

L’ATTRIBUT ‘ALT’, ÇA SERT À QUOI ?

En référencement, l’attribut ‘Alt’ désigne un élément HTML qui permet aux moteurs de recherche de comprendre et d’indexer une image. On les retrouve sous la forme suivante dans le code source du site internet:

<img src= »# » alt= »L’attribut Alt: définition » />

FAUT-IL RÉÉCRIRE SES URL POUR UN MEILLEUR RÉFÉRENCEMENT ?

Lorsqu’on travaille le référencement d’un site internet, il faut prêter une attention particulière au format des URL des pages afin de ne pas les modifier par la suite. En effet, Google prend en compte  l’ancienneté des pages et une modification de l’URL pourra avoir pour effet la perte totale du positionnement de la page.

Si l’URL d’une page doit absolument être modifiée (changement de nom de domaine par exemple), une redirection permanente (301) pourra être mise en place pour transférer la popularité de la page et rediriger les internautes.

La réécriture des URL doit être réalisée avec soin pour éviter toute chute de visibilité dans les résultats de recherche.

COMMENT AUGMENTER LES VENTES D’UN SITE INTERNET ?

Pour augmenter les ventes d’un site internet, il convient d’envoyer plus de trafic ciblé vers les produits mis en vente sur le site internet. Pour cela, il convient de travailler la visibilité du site internet sur les moteurs de recherche (SEO et/ou SEA) pour des requêtes générales mais également pour des requêtes spécifiques (ce qu’on appelle la longue traîne).

Si le produit est attrayant (prix et qualité) et qu’il est vu par un public ciblé et intéressé, il est certain de voir ses ventes augmenter petit à petit.

FAUT-IL SE CONCENTRER UNIQUEMENT SUR GOOGLE POUR LE RÉFÉRENCEMENT ?

A l’heure actuelle (2015), Google est le moteur de recherche le plus utilisé dans le monde. Il détient notamment plus de 60% des parts de marché aux Etats-Unis et plus de 90% des parts de marché dans de nombreux pays européens (comme la Belgique, la France, la Suisse, l’Espagne, la Grande-Bretagne, l’Allemagne, etc.) mais aussi au Brésil ou en Australie.

Si vous souhaitez améliorer la visibilité de votre entreprise sur un marché européen, il conviendra donc de se concentrer exclusivement sur Google.

Par contre, si vous souhaitez rendre votre entreprise davantage visible aux Etats-Unis, en Russie ou en Chine, d’autres moteurs de recherche devront être pris en compte. Parmi les moteurs de recherche qui concurrencent Google dans le monde, on citera:

  • Yahoo et Bing (aux Etats-Unis)
  • Yandex (Russie)
  • Baidu et 360 (Chine)

FAUT-IL AVOIR UN BLOG POUR FAIRE DU RÉFÉRENCEMENT ?

Tenir régulièrement un blog à jour afin de proposer des actualités, des conseils ou des informations diverses à ses clients potentiels n’est pas un impératif en référencement. Toutefois, nous estimons que cette stratégie est très utile car elle permettra de garder le site internet à jour, de proposer du contenu pertinent aux internautes et de travailler son image de marque et son expertise dans son domaine d’activité.

Google et les autres moteurs de recherche insistent depuis quelques années sur l’importance de proposer du contenu de qualité qui sera partagé et lu par les internautes. Grâce à la création d’un blog et à son actualisation régulière, on parviendra plus facilement à répondre à ces consignes.

COMBIEN DE TEMPS FAUT-IL AVANT D’ÊTRE BIEN POSITIONNÉ ?

Tout dépend de la stratégie de référencement mise sur pied. Avec du référencement publicitaire (AdWords), on positionne son site en 24 heures.

Pour le référencement naturel, il s’agit plutôt d’un travail de fond. Le site prendra plus de temps pour se positionner dans les résultats organiques. En temps normal, on considère qu’il faut environ trois mois pour bénéficier d’un bon référencement naturel.

Ce laps de temps dépend également du l’âge du site internet et de la concurrence sur le mot clé à positionner.

« OPTIMISER SON SITE », ÇA VEUT DIRE QUOI ?

Optimiser son site est nécessaire pour bénéficier d’un bon référencement. A moins d’avoir des connaissances pointues en informatique ou en référencement, il est nécessaire de faire appel à des professionnels.

Quand on parle d’optimiser son site, on fait essentiellement référence au SEO « On Page » afin de rendre son site compatible et compréhensible pour les moteurs de recherche.

A QUOI SERT LA BALISE TITLE ?

Chaque page d’un site internet comprend une balise « Title » (ou « Titre ») et d’après beaucoup de spécialistes en référencement, s’il ne fallait optimiser qu’un seul élément de son site internet, ce serait certainement le titre de ses pages.

Cette balise se présente sous cette forme : <title>Le titre de votre page</title> et s’affiche tout en haut de la page lorsque vous la consultez mais également sur les moteurs de recherche lorsque vous effectuez une recherche. C’est d’ailleurs la première chose que l’internaute voit lorsqu’il effectue sa recherche, il faut donc que cette balise soit attractive et donne envie de cliquer.

Dans l’exemple ci-dessous, la balise Title est la suivante : « Balise Title : 5 conseils pour augmenter les clics ».

balise-title

Pour que la balise Title soit bien optimisée, il est important d’y inclure des mots clés (et synonymes), de les personnaliser et d’inciter l’internaute à cliquer dessus.

La longueur de cette balise ne doit pas dépasser 70 caractères en sachant que certains caractères sont plus gros que d’autres, ce qui influencera le nombre.

COMMENT INDIQUER AUX MOTEURS DE RECHERCHE DE NE PAS INDEXER CERTAINES PAGES D’UN SITE INTERNET ?

De nombreuses raisons peuvent pousser une entreprise à empêcher l’indexation d’une page ou d’un répertoire de son site internet. Parmi celles-ci, on trouve les pages qui sont trop pauvres et qui peuvent avoir des conséquences négatives (Google Panda par exemple), les fichiers PDF qui sont identiques à certaines pages du site, les pages dupliquées, etc.

Pour indiquer aux moteurs de recherche qu’ils ne doivent pas prendre en compte ces pages, plusieurs solutions sont possibles:

  • L’utilisation de la balise meta noindex: à insérer dans la balise <head> de la page sous la forme <meta name= »robots » content= »noindex »>
  • Les en-têtes HTTP: pour empêcher l’indexation d’un répertoire complet, utilisez le fichier .htaccess (par exemple, insérer ceci dans le répertoire concerné: Header set X-Robots-Tag « noindex »)
  • Le fichier robot.txt: par exemple: [User-agent: * Disallow: /ref ] aura pour effet de demander aux robots de ne pas visiter les adresses commençant par /ref

LES BALISES H1, H2, H3, ETC. SONT-ELLES IMPORTANTES EN RÉFÉRENCEMENT ?

Les balises h1, h2, h3, hn désignent les balises qui introduisent les titres dans les pages HTML d’un site internet. Elles ont plusieurs vocations, notamment:

  • Aider la lecture des internautes en structurant le contenu;
  • Indiquer aux moteurs de recherche les informations les plus importantes de la page (un titre h1 aura plus d’importance qu’un titre h3).

COMMENT RÉFÉRENCER UN SITE EN FLASH SUR GOOGLE ?

Les sites internet créés en Flash (une technologie créée par Adobe qui permet notamment de créer des lecteurs audio, des lecteurs vidéos, des bannières animées, des sites internet, etc.) posent encore de gros problèmes au niveau du référencement sur Google car le moteur de recherche ne parvient pas à lire ce contenu car il n’y a pas de code source et le contenu n’est pas balisé (contrairement à celui réalisé en HTML).

En d’autres mots, cela signifie qu’un site entièrement réalisé en Flash passera inaperçu aux yeux de Google qui ne pourra l’indexer de manière idéale même si des progrès ont été réalisés dans le domaine ces dernières années.

Plutôt que le Flash, on utilisera donc le HTML pour mettre toutes les chances de son côté et s’assurer que son site soit bien référencé sur Google !

COMMENT OPTIMISER SON SITE WEB ?

Pour qu’un site soit bien compris par les moteurs de recherche, il est important de l’optimiser de manière adéquate. Parmi les éléments à optimiser : les métadonnées, le contenu, l’autorité, les performances ou encore les canaux secondaires. Nous avons rédigé un article reprenant 5 conseils pour optimiser son site web que vous pouvez retrouver ici.

Attention : il ne faut pas chercher à optimiser son site web de manière radicale pour les moteurs de recherche car Google peut le détecter et pénaliser le site en question.

A QUOI SERT LA BALISE META DESCRIPTION?

La balise Meta Description peut être considérée comme la petite soeur de la balise Title puisque, dans l’affichage des SERPs (Résultats des Moteurs de recherche ou Search Engine Page Result), elle figure juste en-dessous et permet de donner des informations plus précises à l’internaute concernant ce qui se trouve dans la page.

Dans l’exemple ci-dessus, la balise description est : « Les balises title sont très importantes en SEO. Elles permettent de se positionner mais aussi d’informer l’internaute de ce qui se trouve dans la page ».

Pour une bonne meta description, il faut que cette description soit en relation avec ce qui se trouve sur la page et il est préférable d’éviter les successions de mots clés pour ne pas être pénalisé par les moteurs de recherche.

COMMENT AUGMENTER LE TRAFIC D’UN SITE INTERNET ?

Il existe différents leviers qui permettent d’augmenter le trafic d’un site internet. Généralement, nous estimons que le meilleur moyen d’augmenter le trafic d’un site internet consiste à lever tous (ou une partie) de ces leviers en même temps.

Ces différents leviers sont le référencement naturel, les campagnes AdWords, les médias sociaux ainsi que les campagnes e-mailing. Avec une telle stratégie mise en place, il est inévitable de voir son site web gagner en visibilité !

COMMENT BIEN CHOISIR SON NOM DE DOMAINE ?

Le choix d’un nom de domaine n’est pas toujours aisé mais cela reste une étape essentielle dans le processus de création du site internet et de la notoriété de la marque.

Parmi les éléments auxquels il faudra prêter attention, on notera:

  • L’extension du nom de domaine: A choisir en fonction de la portée souhaitée du site internet (utiliser le .com, .net ou .eu pour une portée internationale et le .be ou le .fr pour une portée nationale).
  • L’insertion du nom de la marque dans le nom de domaine: Un choix extrêmement important afin de pouvoir travailler le branding.
  • La question de l’insertion d’un mot clé en plus de la marque dans le nom de domaine: Une solution à analyser en fonction des besoins, du secteur d’activité et de la pertinence du nom de domaine.

FAUT-IL UN LOGICIEL POUR RÉFÉRENCER SON SITE ?

Non, il n’est pas nécessaire d’avoir un logiciel pour référencer son site internet. Cependant, certains outils permettent d’aider le suivi du référencement, d’analyser les mots clés à positionner ou d’analyser le trafic de son site internet.

Attention cependant avec les logiciels car si certains offrent la possibilité de soumettre des liens à des annuaires et à des sites de communiqués de presse, cette stratégie peut se révéler très dangereuse à l’heure où les mises à jour de Google Penguin semblent de plus en plus sévères.

QU’EST-CE QU’UN SITE INTERNET RESPONSIVE WEB DESIGN ?

Un site internet Responsive Web Design (RDW ou site internet adaptatif en français) désigne un site internet qui détient la faculté de s’adapter au terminal de lecture utilisé par l’internaute. Que ce soit sur smartphones, sur tablettes ou sur PC, l’expérience de l’internaute sera toujours optimale grâce à cette technologie qui parvient à changer dynamiquement l’affichage de la page grâce aux feuilles de style CSS.

A l’heure où Google introduit des critères de compatibilité mobile, il est impératif de rendre son site mobile-friendly (et le Responsive Web Design peut le permettre).

Les pratiques « risquées » en référencement

DÉFINITION: LE DUPLICATE CONTENT (CONTENU DUPLIQUÉ)

Le contenu dupliqué (duplicate content en anglais) désigne une stratégie de référencement devenue pénalisante au fil du temps qui consistait à copier du contenu provenant d’un site internet concurrent.

Google pénalise aujourd’hui les contenus dupliqués afin de lutter contre le plagiat. La page incriminée est alors déclassée du moteur de recherche.

C’est essentiellement grâce au filtre Google Panda que le moteur de recherche est parvenu à lutter efficacement contre cette stratégie particulièrement spammy.

FAUT-IL UTILISER DES PAGES SATELLITES POUR SON RÉFÉRENCEMENT ?

Il y a encore quelques années de cela, les pages satellites permettaient d’améliorer le référencement des sites internet dans les moteurs de recherche. Leur principe était relativement simple: créer des pages associées à une thématique et les lier au site internet principal dans le but d’accroître sa popularité.

Les moteurs de recherche considèrent cette pratique comme allant à l’encontre de leurs consignes et c’est pour cette raison que Google (notamment) a décidé de pénaliser les sites qui utilisaient encore des pages satellites pour améliorer leur référencement (via un déclassement ou une suppression complète des résultats de recherche).

DÉFINITION: UN SITE MIROIR

Dans le domaine du référencement et du web, un site miroir désigne une copie exacte d’un autre site internet sous une adresse IP différente et sur plusieurs serveurs. Cette solution est utile pour les sites qui détiennent une forte demande au niveau international car cela permet de répartir la charge sur différents serveurs.

Cependant, s’ils peuvent être utiles dans certaines situations, les sites miroirs sont aujourd’hui mal vus par les moteurs de recherche car il s’agit d’une forme de duplication de contenu. Cette technique fonctionnait auparavant comme technique de référencement mais est aujourd’hui complètement obsolète.

LE KEYWORDSTUFFING (BOURRAGE DE MOTS CLÉS) : DÉFINITION

Le keywordstuffing est une technique parfois pratiquée par les référenceurs black hat pour duper les moteurs de recherche. Cette technique consiste à inclure un nombre important de mots clés non-pertinents dans les balises Title et Meta Description mais aussi dans le contenu de la page.

Cette pratique a été très répandue à un moment mais est beaucoup moins visible depuis que Google a lancé Google Panda pour lutter contre ce type de contenu. Le keywordstuffing diminue tellement l’expérience de l’internaute qu’il vaut mieux éviter de le pratiquer aujourd’hui, même en black hat.

QU’EST-CE QUE LE CONTENT SPINNING ?

Souvent utilisé dans le milieu du référencement black hat, le content spinning désigne une méthode qui permet de générer des textes différents de manière automatisée dans le but de gagner un temps précieux.

Dans les grandes lignes, ce procédé consiste à écrire un texte spécifique en proposant des variantes pour chaque mot (ou presque).

Voici un exemple concret: [La {voiture|moto|bicyclette} de {Thomas|Frédéric|Quentin} est {rouge|bleue|verte} et est à vendre en {excellent|bon} état de marche]

Grâce à un outil spécial de content spinning, cette phrase générera une multitude de textes différents en prenant au hasard les mots proposés.

Depuis la sortie de Google Panda, l’impact et l’efficacité du content spinning se sont fortement réduits, cette stratégie pouvant même être la cause de pénalités de la part du moteur de recherche.

LE NEGATIVE SEO: DÉFINITION

Depuis que Google pénalise des sites internet à cause de stratégies de linking contraire à ses consignes (cf. Google Penguin), certains webmasters peu scrupuleux ont cherché à faire pénaliser les sites de leurs concurrents en faisant pointer une multitude de liens nocifs vers leurs sites web. C’est ce qu’on appelle dans le milieu du référencement du Negative SEO.

Afin d’empêcher de telles pratiques (et surtout de permettre à des sites pénalisés injustement de sortir de pénalité), Google a mis sur pied un outil de désaveu de lien.

DÉFINITION: LE CLOAKING

Google l’explique très bien dans son Centre d’aide: le cloaking est une technique de dissimulation qui peut être pénalisée par le moteur de recherche puisqu’elle consiste « à présenter aux internautes des URL ou un contenu différents de ceux destinés aux moteurs de recherche ».

Parmi les exemples de cloaking, on trouve l’exemple d’une page de texte HTML proposée aux moteurs de recherche alors qu’elle s’affiche en Flash pour les internautes.

POURQUOI DÉSAVOUER DES LIENS EN RÉFÉRENCEMENT ?

Comme Google l’indique dans son centre d’aide, les liens vers un site internet sont généralement établis pour prouver la qualité d’un site internet. Cependant, il se peut également que des liens aient été créés  dans le but de manipuler le moteur de recherche (via des systèmes de liens ou des liens payants) et ceux-ci peuvent avoir l’effet inverse de celui recherché (une sanction de la part du moteur de recherche par exemple).

Pour éviter une éventuelle pénalité du moteur de recherche ou pour en sortir, il est possible de désavouer les liens qu’on n’arrive pas à modifier manuellement. En pratiquant de la sorte, on signale à Google qu’il ne doit pas tenir compte de ces liens potentiellement nocifs.

Pour importer une liste de liens à désavouer, il faut se rendre sur cette page de la Search Console de Google.

Si le mois de décembre signe la fin de l'année en cours, il est également synonyme de rétrospectives et autres bêtisiers. En aussi, un récapitulatif de l'année écoulée peut être réalisé. Entre les requêtes les plus recherchées et les critères de classification des sites par , Référenceur revient sur les points forts de cette année 2019 !

Le SEO et l'expérience utilisateur au sommet

Google, le moteur de recherche aux 94%

Cette année encore, pas de surprise concernant le le plus utilisé au monde. Google garde en effet sa place de leader avec ses 94% de . On dénombre d'ailleurs que plus de 75% des recherches mondiales ont été effectuées sur Google en 2019.

Toutes les secondes, près de 70 000 recherches ont lieu sur Google dans le monde. Des chiffres considérables qui prouvent qu'être visible sur Google est plus que jamais d'actualité, peu importe le domaine dans lequel on se trouve !

Le référencement au cœur des stratégies marketing

En termes de , 2019 met en avant l'importance d'être placé dans les premières positions du . En effet, 75% des internautes ne s'aventurent pas plus loin que la 1ère page – soit les 10 premiers résultats – lors d'une recherche. Dans ces 75% d'internautes, on compte que 28% des utilisateurs mobile s'arrêtent directement sur le premier résultat contre 35% d'utilisateurs de desktop.

Comme souligné dans notre article précédent, Google a annoncé, en 2019, analyser les sites dans leur ensemble. Ainsi, chaque page est prise en compte selon son contexte et non plus selon ses mots-clés uniquement. Cette avancée surfe sur la tendance des requêtes contenant au minimum 4 mots-clés.

"L'année

Les critères SEO les plus analysés

Selon Google, voici les 5 critères qui ont le plus influencé le classement des sites en 2019 :

Les sites indexés en première position ont été évalués en fonction de ces critères. Leurs contenus, jugés de qualité, avoisineraient les 2000 mots.

L'un des autres aspects qu'a pris en compte Google cette année est la rapidité des sites. En effet, qui dit site ralenti, dit attente des internautes et donc, perte de trafic.

Bien que 47% des internautes espéraient un temps d'attente inférieur à 2 secondes pour accéder à un site, les chiffres démontrent qu'1 seule seconde d'attente a pu faire perdre à un site jusqu'à 11% de son trafic et jusqu'à 7% de conversion !

Au vu de ces résultats, 2019 a clairement démontré qu'en optimisant son site, ne serait-que de 0,4 seconde, son taux de visite augmenterait de 9% et 2 positions seraient gagnées dans le SERP !

Le SEO

Si la notion de SEO semble encore abstraite pour de nombreuses personnes, ces 365 jours ont à nouveau souligné qu'un site optimisé, tant du point de vue SEO que de l'expérience utilisateur, fidélise constamment les internautes.

Puisque 79% des consommateurs ayant subi des problèmes sur un site n'y sont plus retournés, il est donc indispensable de booster son site internet pour être visible sur la toile.

Qu'avez-vous recherché sur Google cette année ? Zoom sur les tendances 2019

Comment faire un récapitulatif complet sans parler des tendances les plus recherchées ces 12 derniers mois sur Google ? C'est parti pour un petit #throwback2019 que nous propose l'outil Google Trends.

Tendances Google Belgique 2019 - Referenceur

Les personnalités les plus recherchées par les belges

Sur le podium des personnalités belges les plus recherchées en 2019, on retrouve le présentateur radio Christophe Lambrecht, décédé en mai dernier. S'ensuit, le chanteur Paul Severs (décédé en avril 2019), le coureur cycliste Bjorg Lambrecht (décédé en août dernier, des suites d'une chute), Théo Hayez (le jeune belge disparu en Australie) ou encore Wout Van Aert (jeune cycliste belge).

Sur le plan international, c'est Julen – le petit garçon coincé dans un puits en janvier 2019 – qui se hisse au top du classement des recherches. On note ensuite la disparition de Karl Lagerfeld puis le décès des acteurs Cameron Boyce et Luke Perry. C'est le joueur de football Neymar qui clôture ce classement des recherches.

Les recherches les plus effectuées sur Google Belgique

En ce qui concerne les recherches les plus réalisées sur Google Belgique, il est intéressant de remarquer qu'elles diffèrent d'un coin à l'autre du pays !

Si l'envie de perdre du poids rapidement et de comprendre la politique belge semblent être communes pour les néerlandophones et les francophones, les autres recherches sont diverses.

Tout au long de l'année, les recherches ont oscillé au rythme des tendances et des actualités. Peu importe la demande et les besoins de l'internaute, Google vise toujours à remplir son objectif de « moteur de réponses » en récompensant les sites les mieux étudiés, par une première place dans le classement. 

Être visible sur Google est une de vos résolutions 2020 ? Référenceur vous aide à la tenir !

Ça y est: l'année 2018 est enclenchée. Nouvelle année est pour beaucoup synonyme de nouveau départ. Et qui dit nouveau départ, dit évidemment nouvelles résolutions. Peu résistent néanmoins aux affres du temps. Mais s'il ne vous fallait en tenir qu'une, ce serait évidemment celle de soigner votre positionnement sur … 😉 Pour y parvenir, rien de tel qu'un résumé des tendances qui feront l'année 2018. 

Les 12 tendances SEO de 2018

Parmi les 12 tendances listées dans l' ci-dessous, soulignons ces dernières:

Les 3 piliers SEO de 2018

Ce nouveau départ est également l'occasion de rappeler les trois piliers du SEO, à savoir le contenu, le pouvoir (l'autorité) et l'âge. Car, s'ils demeurent importants, les liens ne sont plus l'essentiel du naturel aujourd'hui.

Pour un référencement efficace, il vous faut garder à l'esprit les trois piliers pré-cités. Un contenu de qualité, travaillé, des liens pertinents, savamment étudiés et, enfin, du temps permettront à votre site web de surpasser ses concurrents.

Les 15 règles SEO de 2018

Un référencement naturel efficace obéit à des règles strictes. Parmi celles-ci:

Les 7 techniques SEO à éviter en 2018

Si certaines pratiques sont chaudement recommandées, d'autres sont toutefois farouchement déconseillées. Veillez donc, entre autres, à vous tenir éloigné du bourrage de mots-clés, des liens peu naturels, des commentaires spammy et du contenu dupliqué.

Si la volonté est présente mais que le temps ou l'expertise vous manque, contactez-nous!

Infographie: les tendances SEO de 2018

Source: Blogkens.

Les règles en matière de sont régulièrement soumises à modification. Chaque nouvelle année pointe généralement le bout de son nez avec, dans son chapeau, un certain nombre de nouvelles stratégies et techniques, censées remplacer les anciennes, devenues obsolètes. À quoi devons-nous nous attendre dans les mois à venir? Cette , tout comme celle reprenant les résolutions pour 2018, vous en dit plus.

Hiérarchiser les critères de ranking

Rien de plus inefficace que de travailler le SEO d'un site internet à l'aveuglette. Comme vous le savez sans doute, , pour déterminer quels sites auront la chance de figurer dans les premiers résultats, se fie à tout une série de critères. Reste que certains d'entre-eux se révèlent être bien plus importants que d'autres.

Si tous peuvent avoir une influence sur le positionnement, reste qu'il est utile de s'attarder davantage et en premier lieu sur ceux qui ont le plus de poids.

Veillez donc, entre autres, à ce que vos pages apportent une réelle plus-value aux lecteurs, tout en étant agréables à l'œil et adaptées à l'expérience mobile.

Toujours plus de contenu

Google semble toujours plus gourmand en matière de contenu. Ainsi, si un article ou une page de 200 mots était autrefois jugé acceptable, les exigences en la matière ont aujourd'hui nettement été revues à la hausse.

Libre à vous, donc, de développer des contenus largement plus riches, sans toutefois tomber dans les travers de la pratique consistant à réaliser du bourrage de phrases sans aucune plus-value.

Pour davantage de pistes, référez-vous à l'infographie abordée, réalisée par Kleverk.

Infographie: les stratégies SEO pour 2018