Quelques outils gratuits SEO que j’utilise en 2020

Le référencement naturel requiert des données et de l’analyse. Beaucoup d’outils quasi indispensables à sa bonne pratique sont désormais payants.

Néanmoins, il existe des plate-formes et des astuces que vous pouvez utiliser gratuitement, pour vous permettre de mettre un premier pied dans le SEO, par exemple.

Voici quelques outils que j’utilise afin de construire mes stratégies de référencement.

Liste non exhaustive. Ce billet n’a pas vocation à détailler toutes les fonctionnalités des outils qui seront présentés, simplement vous les faire connaître.

Les deux gros monstres de Google

Google est gentil, il nous donne accès à de la data gratuitement. Bon il s’en sert, évidemment, mais on peut donc avoir accès à des données intéressantes et importantes.

Voici ses deux mastodontes gratuits qui permettent d’analyser son site, et de voir comment Google le perçoit :

Google Analytics

Analytics est le must-have en terme de tableau de bord pour analyser son trafic. Cet outil, disponible pour tous les webmasters, permet d’en savoir un peu plus sur ses visiteurs.

GA nous permet de connaître la provenance géographiques des internautes.

Il nous permet également de monitorer la part des utilisateurs venant des moteurs de recherche, de sites référents, du trafic direct ou bien des réseaux sociaux. Cela permet par exemple de surveiller l’impact d’une campagne lancée sur ceux-ci.

Hourra, je suis dépendant de Google à 312 clics

D’un point du vue purement SEO, GA nous donne les chiffres du trafic SEO par jour/ semaine / mois ainsi que son évolution.

Ce Lundi 18 Mars, j’ai reçu 39 visites depuis nos amis les moteurs de recherche.

En effet, des outils (semrush est le plus connu, mais je recommande Ranxplorer pour le marché fr) essayent de simuler, pour des sites donnés, le trafic issu des moteurs de recherche en fonction des positions du site web sur les mots clés et du volume de recherche mensuel de ces mots-clés.

Ces estimations ne sont qu’approximatives et seul des tools tel que GA ou Yandex par exemple sont capables de nous donner de vrais chiffres.

Voici la courbe d’évolution du trafic sur mon site durant la première quinzaine de Décembre 18. J’aurais également pu afficher, par jour, le taux de rebond (en %) ou encore la durée moyenne d’une session utilisateur (en min).

Ceci n’est qu’un aperçu de Google Analytics. Vous pourrez, par exemple, examiner le comportement utilisateur de vos internautes : quelle page est la plus visité ? Après avoir visité une page, vers laquelle les internautes se dirigent-ils le plus ? Etc..

Ce n’est pas le propos de ce billet et d’autres webmasters ont détaillé l’utilisation de GA bien mieux que je ne pourrais le faire.

Google Search Console

GSA est le deuxième outil le plus connu des référenceurs. En fait, c’est probablement de celui-ci que vous tirerez les données SEO les plus importantes.

Là où Google Analytics analyse la performance de votre site et la provenance du trafic par source, Search Console vous permet de savoir comment Google considère votre site.

La différence peut-être mal comprise mais est indispensable à connaître : la Search Console nous aide a comprendre ce qui pose problème dans notre site, vis-à-vis de Google. Il y sera donc renseigné des données utiles comme le statut l’indexation des pages de votre site, les erreurs que renvoient ces pages à Google, la façon dont Google les voit, etc..

D’ailleurs, leur fonctionnement est différent. Analytics à besoin « d’entrer » dans votre site web pour pouvoir analyser le comportement et les flux utilisateurs. Vous devrez donc intégrer dans vos page un bloc de code qui permettra à Analytics de récolter les données.

La search console n’a pas besoin d’avoir accès à vos pages, c’est l’infrastructure même de Google Search qui lui permet de récolter les données qu’elle vous propose.

La Search Console nous permet d’analyser la provenance de notre trafic. Pas par source ou par région, mais via les mots-clés qui ont été tapé dans Google Search et qui ont conduit à votre site.

GSC nous permet également de connaître le nombre d’impression de notre site sur un mot-clé, et donc en déduire notre CTR en comparant n.impression / n. de clics.

Nombre de clics et nombre total d’impression du site sur une semaine. CTR (Click Trough Rate) = [Clics/Impressions] x 100

Chaque mots-clé que nous renseigne la Search Console est une porte d’entrée susceptible d’amener les visiteurs sur votre site. Les connaître est donc indispensable, les travailler le devoir d’un SEO.

A la place des ronds rouges moches, vous aurez votre liste de mots clés triable par position/nombre de clics/nombres d’impressions.

Parmi les features intéressantes de GSC, l’envoi de sitemaps à Google est très utile.

Pour finir, la Search Console nous permet d’analyser les liens entrants. C’est à dire les liens provenant d’autres sites qui pointent vers le votre. On les appelle « backlink » et il sont à l’origine du calcul du Pagerank, l’algorithme de popularité d’une page web développé par Google pour les classer.

Les backlinks et la mise en place de ceux-ci, le netlinking, est toujours un facteur majeur de référencement. Nous y reviendrons plus tard.

Les outils gratuits pour bien bosser ses mots-clés.

En référencement, l’étude de mot-clés en amont d’un projet ou pendant celui-ci est primordial.

Dans cet article dédié à la visibilité, je parlais d’analogie entre le trafic organique et le passage de piéton devant votre magasin.

Si les moteurs de recherche représente la route qui conduit à votre boutique, les mots-clés en sont les portes d’entrée.

Google Keyword Planner

Cet outil est disponible dans l’interface d’Adwords. Adwords est l’outil destinés aux annonceurs qui veulent acheter des mots-clés et les afficher directement dans Google Search. C’est, par exemple, la régie qui permet à Google de gagner vraiment beaucoup d’argent (:

Google KP nous permet de faire le travail, gratuitement, nécessaire au lancement d’une campagne adwords : ciblage de mots-clés, regroupement par groupe d’annonce, par campagne, etc.

On peut néanmoins utiliser cet outil à des fins purement SEO, sans passer par la case money pour se voir afficher nos campagnes directement dans le Search.

En rentrant l’url de son site, ou d’une page en particulier, GKP nous affichera une liste de mots-clés qu’il pense pertinent pour votre page.

Cela permet d’avoir des idées et les volumes approximatif de ces mots-clés.

Les mots-clés et leur volumes mensuels approximatifs

Vous pouvez également directement importer de grandes liste de KW et avoir leur volumes de recherche approximatifs.

A savoir que depuis 3 ans environ, le volume exact (estimé) n’est plus disponible que sous forme de fourchette logarithmique (1-10, 10-100, 100-1000, etc..). Pour en savoir un peu plus, il vous faudra dépenser une dizaine d’euro lors d’une campagne Adwords.

Ubersuggest

Qu’il est propre cet interface, hein ?

Ubersuggest fait parti de ces outils que j’utilise quasi quotidiennement depuis 5 ans. A la base, ce soft nous offre les suggest Google en fonction des mots clés tapé, par lettre & chiffre suivant le mot-clé.

Depuis le rachat du site par Neil Pateil, Ubersuggest incorpore également la data de Google Planner et permet la recherche sur d’autres plateforms comme G.Images, Youtube, Shopping, etc..

Vous vous rendrez rapidement compte que les outils donnent des volumes mensuels différents. Il faut appréhender cette data comme une estimation, surtout lorsque l’on est face à des petits volumes.

Ce n’est pas forcément à négliger, je fais parti des SEO qui accordent de l’importance à la longue traîne, et à son pouvoir de conversion.

Answerthepublic

Pourquoi ne pas prendre ces données, et les importer dans GKP ? Mmmmh ?

Answerthepublic est un outil SEO dédié à la recherche et la l’analyse de mot-clé.

Sa plus-value réside dans le data qu’elle offre : ce site nous donne, en plus des suggestions google, de nombreuses infos sur la recherche des internautes autour du mot clé que l’on tape : questions en fonction des préposition, comparaisons, phrases en fonction des prépositions, etc.

Les données sont présentées sous forme de diagramme circulaire avec des chemins relatifs aux prépositions, ordre alphabétique, etc…

C’est un générateur de question a propos du mot-clé tapé.

Il est à mettre en parallèle avec le fait que, désormais, il est possible d’obtenir une position 0 dans google, si l’on répond bien à la question…

Keyword Shitter

IL FAIT CACA DES SUGGESTIONS LOL

Voici un outil non-poétique qui scrape Google pour, encore une fois, en tirer ses suggestions et ses idées de mots-clés.

Sur cette plateforme, le travail est fait rapidement et une petite feature permet de filtrer positivement et négativement notre liste de keyword, c’est sympa.

Archive.org : retour vers le futur du passé

La une de lemonde.fr le 26 Mai 1998. A cette date nous n’étions pas champion du monde.

Archive.org est un site qui crawl les sites web, les archives et les propose à la consulation.

C’est littéralement l’archive d’internet.

Ce tool présente des photographies de sites internet à des instant donnés. Plus les sites sont gros et populaires, plus la Wayback Machine les « photographies » et plus vous aurez de data : contenu, architecture, photos, vidéos, etc.

En SEO, la Wayback Machine est très intéressante. Elle permet par exemple de récupérer du contenu de domaines expirés, de vérifier qu’un domaine n’a pas été spammé ou encore de découvrir du contenu expiré en filtrant par mot-clé.

Screaming Frog SEO Spider : Pour crawler votre site

hello.com répond bien, il est gentil.

SEO Spider est le crawler de chez Screaming Frog. Il a la particularité d’être gratuit jusqu’à 500 urls crawlées

Certes, cela ne fait pas beaucoup mais c’est suffisant pour analyser des petits sites ou pour se faire la main et découvrir les possibilités qu’offrent un crawler.

Ce genre d’outil parcourt toutes les urls d’un site web, en cliquant de manière automatique sur les liens depuis une page d’origine, exactement comme le fait GoogleBot lorsque »il parcours votre site.

Une fois les urls parcourues, il vous donnera des informations dessus. Par exemple : le statut renvoyé par le serveur (200, 404, 410, etc..), la distribution des ressources, les liens interne, la distribution des titles, du balisage html, etc…

Il présente également les inlinks de la page sélectionnée. Très pratique si l’on veut évaluer ou que l’on pressent une sur-optimisation des ancres du maillage interne, par exemple.

Le mieux avec ce genre d’outil, c’est de lancer son premier crawl et de le découvrir petit à petit 🙂

Les commandes Google.

Il est possible d’effectuer des opérations de recherche directement dans le Search de Google. Nous avons en effet à disposition une batterie de commandes gratuites qui sont très pratiques.

Certaines sont même indispensable pour faire du SEO à un certain niveau.

En voici quelques-unes que j’utilise quotidiennement :

cache:monsite.com

Version en texte seul du cache google de https://www.linknet.io/ -> j’en déduis que GoogleBot m’a au moins crawlé une fois, le 19 Mars à l’heure indiqué.

Cette commande sert à afficher le cache de la dernière visite de Google, s’il est disponible. On peut également accéder à la version texte seul du cache google d’une page web. Hyper pratique pour vérifier comment le bot voit la page, s’il interprète bien le contenu et s’il détecte les liens.

site:monsite.com

Cette commande permet de vérifier l’indexation d’un site web. Cette commande permet d’afficher toutes les urls d’un site qui sont indexées par google.

Astuce : si vous achetez un expiré, je vous conseil de l’utiliser au moins une fois pour vérifier que le domaine ne soit pas spammé.

Astuce n2 : Si vous recherchez du contenu en particulier sur un site, tapez votre requête + site:lesite.com, en effet, Google est souvent plus pertinent que les moteurs de recherche interne des sites.

allintitle:

Cette commande nous affiche les pages qui contiennent la requête choisie dans le title. Cela est très pratique pour évaluer la concurrence d’une requête. En effet, en général le Title d’une page est la première chose optimisée par les SEO. Si votre requête visée existe dans 200 000 titles, cela est signe d’une concurrence non négligeable.

Pour plus de détails sur les nombreuses commande Google, je vous invite à lire ce billet.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *