- Taille de l'article : Long
- Nombre de mots : 2164
- Durée de lecture : 6 min
Il est 14H58, je me connecte au webinaire... Sur l'écran splitté,on dirait qu'ils se sont passé le mot : Même dress-code, le crane bien rasé, des lunettes, une grande modestie et un air décontracté... Olivier Andrieu va nous aider à bien maîtriser la nouvelle search console de Google
Le compteur affiche 209 connectés
Un jour, un de mes amis, fondateur d'un site de Rugby est venu me voir pour qu'on travaille ensemble son SEO. "Hey Julien, j'ai trouvé un livre intéressant, tu connais peut être, tu crois que ça peut m'être utile ?" En cliquant sur son lien hypertexte je tombe bien évidemment sur une landing page d'Amazon sur... Réussir son référencement web".
C'est incroyable... Quand on commence en SEO, comme dans tout autre domaine d'ailleurs, on commence par demander des conseils, on fait des recherches, on se documente pour trouver les supports qui nourriront notre besoin d'investigation. En SEO, tout les chemins mènent au même ouvrage : On adhère à la bible, celle d'Olivier Andrieu.
Malgré ses 660 pages, il propose un contenu structuré et accessible. Un livre technique bien illustré, bien rédigé avec des phrases de type : Sujet + verbe + complément d’objet...", Des paragraphes structurés de manière : " Quoi , Pourquoi, Comment, exemple..."
Bref... Olivier a réussi il y a quelques années à démystifier l'univers sombre du SEO et des moteurs de recherche pour le grand public.
Aujourd'hui, en 2020, on apprend les fondamentaux du SEO, on se tient informé de l'actualité, on applique la théorie, on observe, et on ré-ajuste...
Mais à l'époque... ce n'était pas le même métier : Il fallait tout deviner, aucunes infos, aucunes formations. Le référencement était réservé aux plus courageux, ceux qui aimaient sortir des sentiers battus. Il fallait expérimenter et comprendre... Il y a ceux qui explorent et qui laissent tomber pour revenir à des métiers plus sécurisants et plus nobles. Comme le Marketing par exemple ou l'administration réseau...
Jason commence par résumer son parcours :
Mais tout d'abord le sommaire :
- Qui est Olivier Andrieu ?
- Sa présentation
- Les questions de Jason et des internautes
- Les slides de présentation d'Olivier Andrieu
- La vidéo complète du webinaire
QUI EST OLIVIER ANDRIEU ?
Olivier a commencé d'abord dans le minitel puis en 1993 sur le web. En assistant à une présentation à l'université de Strasbourg du 1er navigateur Mosaic et depuis il est tombé dedans...
Rapidement, il écrit son 1er bouquin et se lance à son compte en 1996 en créant la société Abondance. Pourquoi ce nom ? Tout simplement pour assurer la 1ère position dans les annuaires de recherche de l'époque et leur classement en ordre alphabétique..
Aujourd'hui Olivier est consultant, formateur, et propose des audits. Dans beaucoup d'interviews, il revendique fièrement sa position "White Hat SEO" sur le travail qu'il effectue. Sa citation fétiche : Faire de la qualité, c'est plus long et c'est plus difficile... Choisis ton camp camarade !"
1.Introduction
"Ce n'est pas une présentation globale de la "Search console", mais plutot de compiler mon expérience sur la Search console sur des points intéresants. "
"Personnellement, je l’utilise énormément, et je fais au moins un audit SEO par semaine."
"C'est vraiment un Super outil, car tout d'abord c'est une vision par Google, et également un outil entièrement gratuit avec une grosse capacité de stockage.
2. L'Indexation rapide
Egalement appelée "inspection de l'url" , souvent utilisée dans plusieurs cas
Voici des Balises de données structurées intégrées à ma page formaseo
Lorsque l'on publie du contenu, il fallait auparavant effectuer tout une série d'aller/retour pour vérifier son apparition.
Désormais, en renseignant votre page dans l'inspection de l'url, l'indexation se réalise en 5 minutes maximum
je l'utilise beaucoup chaque matin lorsque je publie une actualité. Mon challenge personnel est d’apparaître dans le top 10 dans les heures qui suivent. Si ce n'est pas bon c'est qu'il manque quelque-chose, donc je le retravaille et je re-publie : C'est extrêmement rapide.
3. Résultats de recherche
Je dois reconnaître que je n'utilise pas beaucoup cette fonction car il existe sur le marché des outils qui sont très bien pour analyser les suivis de position. J'aime mieux faire confiance à un outil tiers
Une option vous permets également de comparer les données entre les différents supports desktop / mobile ainsi que par pays par exemple.
Un filtre sur les url vous permet de comparer un certain d’informations
Je vous engage à tester toutes ces possibilités
4. Couverture
Je l'utilise toute la journée. La fonction d'indexation de l'ancienne Search Console n'était pas pratique.
Un champ valide= url indexées par google
L'indexation se fait en deux parties : l'envoi et et indexées = sitemaps et indexé mais non envoyé = nav naturelle. > pas chiffres exactes mais tendances
Sachez qu'en ayant recours au sitemaps, Google trouve près de deux tiers de vos page
La navigation naturelle trouve un tiers de vos pages, ce qui correspond à la tendance naturelle
Si le contraire se produit, cela signifie que votre sitemaps est non exaustif : Quelque-chose ne va pas et il faut creuser...
Je vous invite à comparer les chiffres des url valides a un crawl du site (réalisé par exemple avec Screaming-Frog) : Logiquement, il devrait être le même ( ou a peu de choses près), mais, ce phénomène est assez rare.
Essayez de comprendre en réalisant un audit. C’est du cas par cas, chaque site à sa propre vérité.
Souvent la cause provient d'anciennes url qui se situent dans l’ancienne arborescence du site mais ne servent plus a rien et en conséquence... mangent du budget crawl...
Même cas de figure entre" url valide" et "url exclues". Si il passe ses journées à crawler des pages refusées, il y a un vrai problème... et dans les cas concrets, il y en a toujours.
La plupart des sites contiennent des pages exclues. Mais pour avoir un ordre de grandeur raisonnable, la répartition acceptable est de l'ordre de "50/50".
Les pages exclues sont considérées comme "Détectées" mais non indexées. Cela veut dire que Google n’arrive pas à crawler votre site. Si il y en a beaucoup cela signfie qu'il y a un gros problème de crawl. Encore une fois : C’est du cas par cas.
Pour tous les rapports, vous avez la possibilité de télécharger ou visualiser votre tableau dans google sheets.
5. Sitemaps xml
Le sitemaps doit recenser toutes les url de votre site. Ce serait illogique d’avoir des erreurs car le principe étant de mettre toutes les urls importantes pour votre site : Les pages exclues ne devraient donc pas arriver.
Un rappel : les urls présentes dans votre sitemaps doivent être canoniques vers elles même, on ne doit pas trouver de redirections 301 : Elles doivent être indexables ,
Même chose pour les erreurs 404 et 410 : Toutes vos pages doivent être valides.
6. Discover
Discover est une alternative proposée par Google proposant de compiler les actualités en fonction de vos centres d’intérêt. Dans la Search console, vous pouvez y trouver les statistiques. C'est une donnée intéressante afin de connaître les articles proposés.
7. Suppression
Cette fonctionnalité existait déjà dans l’ancienne version de la search console. Avec cette nouvelle version, vous pouvez supprimer un lot d'url sur un paterne d’adresses.
Sur l'ancienne version vous ne pouviez uniquement la réaliser "url" par "url". Maintenant vous pouvez réaliser la suppression par lot.
8. Ciblage géographique
Cette option est souvent oubliée par les webmasters.
Cette version est pour le moment accessible uniquement sur l'ancienne version de Search console : Vous devez bien indiquer le pays cible du site, et non pas la langue.
Faites également attention aux extensions géographiques (.com, .fr, .co, etc...) au détriment du bon ciblage c'est sympas mais évitez les jeux de mots
Par exemple : www.buy.it (pour l'italie) ou encore www.toysare.us (pour le états-unis).
9. Index mobile first
Sachez qu'aujourd'hui, Google va crawler le site mobile et non plus la version desktop
Une annonce expliquait que tous les sites devraient prochainement être crawlé dans le répertoire mobile. Celle-ci est pour le moment repoussée (covid 19 ?) .
Tout est paramétrable. Google peut estimer que le site n’est pas prêt pour l’indexation mobile et utiliser son crawler desktop par exemple.
10. Spam mailings google
Pour éviter de se faire spammer, Google envoi un récapitulatif de ce qui va et ne va pas par mail.
> recommande lorsque l’on a bcp de sites à désactiver ces mails
Pour conclure, La search console est un super outil mais il fait essayer de le comprendre.
Ce n'est pas très compliqué mais cela demande un investissement de temps. Encore une fois, je l'utilise tous les jours pour mes audits et mes suivis SEO.
C'est un bel outil pour optimiser un site.
Les questions de Jason et des internautes
Dois-je soumettre mon fichier Sitemaps dans la search console ?
Si votre site fait moins de 10000 pages il y a peu d'intérêt mais cette action n'est pas négligeable, c'est mieux de le faire.
Plug in gère mon sitemaps, comment faire pour excure une url ?
Dois-je mettre à jour mon fichier Sitemaps manuellement ?
En général, il est préférable de solliciter une extension car votre fichier sera mis a jour automatiquement.on risque de tout casser
Il existe une autre façon, c'est de lancer un générateur de sitemap > crawl > pas pratique
Manuellement ça ne se fait plus
Comment gérer les différentes versions de mon site dans la search console de Google ?
Il peut y avoir des besoins ou on va avoir besoin de garder http et https ou avec et sans les www devant le nom de domaine. Je n'en vois pas beaucoup mais cela peut arriver.
En règle générale on fait une propriété de type "domaine" et on collecte les données de toutes les formes d'adresse et puis en met en place les redirections 301 : Un site à une seul et unique adresse canonique.
Je ne vois pas tous les onglets dont vous aviez parlé dans ma search console
Cela s'explique soit parce que vous ne possédez pas tous les niveaux de droits ou alors vous n'avez tout simplement pas de données "Discover" ou "FAQ" : Dans ce cas Google ne les affichent pas.
Es-ce une bonne initiative de privilégier la version mobile pour mon site et de délaisser la version desktop ?
En terme de seo c’est ce qu’il faut faire car aujourd'hui, Google se désintéresse à 90% de la version Desktop.
Il faut se focaliser sur le mobile
Dans l'ancienne version de Search console ,on pouvait demander à indexer tous les liens en même temps. Dans cette nouvelle version, il faut le faire "à la page" car Google le réalise automatiquement.
L'indexation est supposée être plus rapide, mais moi...Jason, je constate le contraire
Cela dépend de la dynamique du site. Si votre page ne s'indexe pas, ne paniquez pas cela va venir : Il est possible qu'elle soit crawlé mais pas indexée
Cela dit, c'est toujours le moyen le plus rapide d’indexer un contenu
Comment savoir si il est pertinent de désindexer une page ?
Le risque de tout garder est de "crame du budget crawl pour rien" : Gardez les pages vraiment intéressantes, c'est à dire celles qui répondent aux intention de recherche.
Avant l'arrivée du filtre Panda en 2011, on donnait absolument tout au moteur.
Depuis, il y a eu un changement dans la façon de faire du SEO et aujourd'hui on donne uniquement le contenu de bonne qualité qui répond aux intentions de recherche.
Par exemple, pensez à désindexer votre fichier sitemaps en utilisant la fonction "x-robots tag" en no index.
J'ai un exemple concret d'un site ancien de 10000 pages: Le nombre de pages indexées était de 2000000 ! Cela provenait d'une fuite du moteur interne qui générait des pages anciennes...
En conséquence, Google necrawlait que 40% des pages de l’arborescence du site. Il se disperçait...
Après la désindexation, on est passé de 4000 à 10000 pages intéressantes 🙂
J’ai constaté un problème notamment sur les calendriers : 70 milliards de nouvelles url, la plupart inutiles sont produites tous les jours
J'ai un exemple en tête d'un site de réservation en ligne de parcours de golf : chaque fois que quelqu'un réservait un parcours ( nombre de trous, heure, etc...), une page html était créée. Ces centaines de milliers de pages n'avaient aucuns intérêts et les pages intéressantes étaient noyées dedans.
Mon client était obligé de tout désindexer pour présenter un SEO propre
Ne présentez uniquement le contenu de bonne qualité à Google
Est-ce intéressant d'utiliser le Webmaster tool de Bing ?
Oui c'est un bon outil. Il s’améliore de jours en jours, il faut s’y intéresser, ça reste complémentaire
Quel est le délais pour une mise à jour des données dans la search console ?
Ce n'est pas en temps réel, les données seront consolidées sous quelques jours.
En ce qui concerne ciblage géographique, Comment faire si notre site touche plusieurs pays ?
Privilégiez les balises "hreflangs" : 3 sites pour 3 pays
...Et comment faire pour une extension de type .net ?
Ce n'est pas grave. Vous pouvez le définir pour un pays
Pour une société avec peu de moyens et plusieurs domaines : Dois-je utiliser les sous domaines et répertoires ?
Oui c'est possible, mais pour un rendu plus clean, il est préférable de travailler sous les extensions de domaine.
Merci d'avoir lu cet article jusqu'au bout 🙂
Voici les slides de présentation d'Olivier Andrieu :
Voici la vidéo complète du webinaire :
0 commentaire