Perte de positions sur Google : que faire ?
29 juin 2023 – François Vuillemin
SEO
Vous avez repéré une perte de positions sur Google sur des mots-clés principaux ou secondaires ? Il est important de comprendre d’où vient cette baisse de visibilité sur la SERP afin de prendre les bonnes mesures ! Même si ces fluctuations sont tout à fait naturelles, si toutes vos pages reculent de façon récurrente c’est que la concurrence est plus féroce ou que votre site web n’est plus aussi bien optimisé qu’avant ou encore que l’algorithme du moteur de recherche a changé. Une démarche proactive permet de limiter ce risque et c’est ce que notre agence SEO va vous expliquer dans cet article.
Table des matières
1. Le B.A.-BA : votre site est-il accessible ?
Une perte de position peut tout simplement indiquer un problème d’accès à votre site internet ou à une page spécifique de votre site internet. Pour cela, vous pouvez passer par Google Search Console ou bien un outil comme HTTP Status Code Checker.
Status Code 200: pas de problème pour trouver votre page
Erreur 404 (page non trouvée) ou Erreur 410(page indisponible définitivement)
Erreur 500(Problème Serveur) : dans ce cas nous vous invitons à vous rapprocher de votre hébergeur.
Une balise « noindex » : est une instruction HTML utilisée pour indiquer aux moteurs de recherche de ne pas indexer une page spécifique dans leurs résultats de recherche.
Votre page est privée : Contrairement aux pages web publiques, qui sont accessibles à tous, les pages web privées nécessitent généralement une authentification ou une autorisation spécifique pour être consultées.
Le fichier robots.txt empêche-t-il le crawl des robots de votre site ?
Le fichier Robots.txt est très intéressant pour le référencement d’un site ou en tout cas pour donner des directives aux robots crawlers : il permet d’ajouter des pages d’exclusion pour les robots. Le crawl du robot ne passera pas vers la ou les pages que vous souhaitez qu’il évite. Auriez-vous pu ajouter des pages à exclure qui impactent votre référencement ?
Si vos URLs sont exclues, les robots – normalement – ne prendront pas la peine d’aller les visiter et vous risquez de perdre l’indexation de vos pages dans les résultats de Google. En cas de doute, demandez à nos experts SEO de vérifier le contenu de votre fichier robots.txt.
Une balise « noindex » s’est-elle glissée dans votre site à votre insu ?
La refonte de votre site s’est bien passée, vous avez travaillé sur une préproduction, et il est prêt. Toutes les équipes donnent leur feu vert pour la mise en ligne. Et le lendemain le site n’apparaît plus dans les résultats de recherche de Google. La faute à qui ? À vouloir bien faire les choses et ne pas indexer la préproduction – ce qui est une excellente chose – on en oublie d’enlever cette balise « noindex » lors de la mise en ligne.
Résultat : Google écoute et n’indexe pas. Pas de panique, on enlève cette balise, on demande à la Search Console de Google de re-crawler le site et normalement, on réapparait quelques heures voire jours plus tard. Ouf, plus de peur que de mal.
Votre page est-elle accessible à tous (et à Google) ?
Une page web privée fait référence à une page qui n’est pas accessible au public général. Elle est restreinte et limitée à un certain groupe d’utilisateurs spécifiques qui ont été autorisés à y accéder. Contrairement aux pages web publiques, qui sont accessibles à tous, les pages web privées nécessitent généralement une authentification ou une autorisation spécifique pour être consultées.
Ainsi, pour qu’une page web soit indexée, elle doit être accessible au public et donc aux robots. Pas de crawl, pas d’indexation.
Avez-vous mis en place une redirection 301 ?
Changer l’URL d’une page sans mettre en place une redirection 301 peut entraîner une perte de positionnement sur Google. Lorsqu’une URL change, les moteurs de recherche doivent réindexer la nouvelle adresse et réévaluer la pertinence de la page. Si aucune redirection permanente (301) n’est mise en place, les moteurs de recherche considèrent la nouvelle URL comme une page distincte et indépendante de l’ancienne. Cela peut entraîner la perte de toute l’autorité de la page d’origine, ainsi que des backlinks et des signaux de classement accumulés au fil du temps.
En conséquence, la nouvelle URL peut prendre du temps pour regagner son classement précédent, voire ne jamais y parvenir. Il est donc essentiel de mettre en place des redirections 301 pour préserver le classement et la visibilité de la page lorsqu’une URL est modifiée. Cela permet aux moteurs de recherche de suivre l’ancienne URL vers la nouvelle, en préservant ainsi les classements et l’autorité de la page dans les résultats de recherche. CQFD !
Les bases du SEO sont-elles respectées ?
Impossible de garder un bon positionnement sans respecter les bases du SEO. En effet, Google pénalise des pages qui ne respectent pas ses « guidelines ». En tout cas, Google ne les avantage pas. Il faut donc absolument vérifier les points suivants :
Titre de page et meta descriptions : augmente le taux de clics (CTR) et donc améliore le référencement naturel. Soyez concis, efficace et suscitez l’envie (avec des verbes d’action). Consultez nos conseils dans l’article sur les balises titles et meta descriptions parfaites.
Les balises titres de votre page – Nos conseils dans l’article sur l’optimisation des balises titres
La vitesse de chargement des pages de votre site web. Plus une page web se charge lentement, plus on a des chances que le visiteur parte avant même de lire le contenu.
La compatibilité mobile de votre site – Les résultats Google sur téléphones portables et tablettes sont différents des résultats PC. Si votre site n’est pas optimisé, vous risquez de ne pas vous positionner et ainsi perdre des positions dans les moteurs de recherche. Nous vous invitons à vérifier notre article pour optimiser le SEO de votre site mobile.
Le contenu de la page est dépassé : le temps passe, les choses évoluent, votre contenu se doit également d’être mis à jour. Si vous avez traité d’un thème et que celui change factuellement, privilégiez la mise à jour de ce contenu plutôt que d’en créer un nouveau. Vous profiterez de l’historique de ce dernier et montrerez à Google que vous êtes expert du sujet.
3. Faire confiance aux outils de Google : Search Console & Google Analytics
C’est Google qui choisit de faire figurer votre site en première position voire en “position 0” ou en deuxième page… Il est donc intéressant de savoir comment Google juge votre site et quels sont les critères qui ne respectent pas les lignes directrices, l’idéal pour le moteur de recherche.
Search Console, l’outil de Google pour optimiser la visibilité de votre site
Google Search Console est un outil gratuit fourni par Google qui permet aux propriétaires de sites Web de surveiller et d’optimiser leur présence dans les résultats de recherche. Il offre des informations précieuses sur la façon dont Google voit et indexe votre site. Avec Google Search Console, vous pouvez :
suivre les performances de votre site
vérifier l’indexation de vos pages
soumettre un plan du site
résoudre les problèmes d’exploration
recevoir des alertes sur les problèmes de sécurité
analyser les mots-clés qui génèrent du trafic
et bien plus encore…
Cet outil puissant offre aux webmasters et aux spécialistes du référencement des données essentielles pour améliorer la visibilité de leur site dans les résultats de recherche de Google. En l’utilisant régulièrement, vous pouvez prendre des décisions éclairées pour optimiser votre site et augmenter son classement dans les résultats de recherche.
Conseil : Attention à l’utilisation des outils de la Search
Pour créer ces alertes, rien de plus simple. Pour cela, allez sur la page d’accueil de Google Search Console, cliquez en haut à droite sur la roue dentée puis sur “Préférences relatives à la Search Console”. Ensuite, cochez la case “Activer les notifications par email”.
En cas de sanction manuelle de la part de Google, vous serez alerté automatiquement via votre espace Google Search Console.
En ce qui concerne les outils, attention à ce que vous demandez à la Search Console. L’outil « suppression », par exemple, peut affecter l’ensemble du site si vous n’êtes pas vigilant.
Exemple : La version http de votre site est toujours détectée par Google ? et ça ne nous vous plaît pas ? Pourtant vous avez fait la redirection vers la version sécurisée. Vous vous dîtes que ça serait une bonne idée de faire supprimer cette version non SSL des SERP de Google ?
FAUX ! Google va supprimer l’ensemble du site des résultats de recherche, et il vous faudra revenir sur l’instance Search Console de la version http ou l’instance « domaine », pour supprimer cette demande. Bien sûr ce n’est pas irréversible, mais encore une fois on perd quelques heures et même plutôt quelques jours de visibilité. En forte période d’activité, vous n’aurez plus que vos yeux pour pleurer, mais heureusement vous aurez une bonne agence SEO pour détecter le problème et le résoudre.
Google Analytics 4, outil de mesure et d’analyse de trafic web
Universal Analytics et Google Analytics 4 sont deux versions de la plateforme d’analyse de site Web de Google. Ils offrent tous deux des fonctionnalités utiles pour vérifier la perte de positionnement sur Google, mais avec quelques différences – assez notables tout de même -.
Universal Analytics est la version plus ancienne et bien établie de Google Analytics. Elle va d’ailleurs disparaître petit à petit à partir de juillet 2023. Elle permet(tait) de suivre le trafic du site, les sources de trafic, les comportements des utilisateurs, les conversions, etc. Avec Universal Analytics, vous pouvez analyser les mots-clés qui génèrent du trafic organique vers votre site, identifier les pages qui ont perdu en popularité et surveiller les tendances de classement au fil du temps.
Google Analytics 4 est la nouvelle version de la plateforme et elle offre une approche plus centrée sur les événements et les utilisateurs. Elle met davantage l’accent sur l’analyse du comportement des utilisateurs sur votre site, en mettant l’accent sur les audiences, les événements et les conversions. Cela peut être utile pour comprendre comment les changements de positionnement affectent le comportement des utilisateurs sur votre site.
En utilisant à la fois Universal Analytics et Google Analytics 4, vous pouvez obtenir une vue plus complète de vos données et surveiller les impacts de la perte de positionnement sur votre site. Cela vous permettra de prendre des décisions éclairées pour ajuster votre stratégie de référencement et améliorer votre position sur Google.
4. Vérifiez et relisez le contenu de votre site
Comme évoqué précédemment, le contenu de votre site internet peut influencer négativement le positionnement de vos pages web. La qualité du contenu est un critère de positionnement très important. Vous devez vous concentrer sur celle-ci avant de perdre des positions de manière irrévocable.
Un mauvais contenu de faible qualité implique un abandon et une diminution du trafic de votre site. Pour Google, c’est un signal négatif et qui peut vous faire perdre des positions. Ne dupliquez pas du contenu d’un autre site ni de votre propre site, travaillez le fond et la forme et mettez à jour d’anciens articles pour garder une bonne attractivité.
Il est important de tenir votre site à jour afin que le robot de Google puisse y passer régulièrement et ainsi mettre votre positionnement à jour.
Le contenu généré par l’intelligence artificielle peut-il me faire perdre des positions sur Google ?
La génération de contenu via l’intelligence artificielle (IA) n’est pas directement liée à une perte de positions sur Google. Google évalue le contenu en fonction de sa qualité, de sa pertinence et de sa valeur pour les utilisateurs. Si le contenu généré par une IA répond à ces critères, il peut tout à fait être bien positionné dans les résultats de recherche.
Cependant, il est important de noter que l’IA peut générer du contenu de différentes qualités, et cela dépend de la manière dont elle est utilisée. Si le contenu généré est de faible qualité, peu original ou enfreint les directives de Google, cela peut entraîner une baisse de position.
Google se concentre sur les résultats de recherche de haute qualité et souhaite que les utilisateurs trouvent des informations pertinentes et utiles. Si le contenu généré par l’IA répond à ces critères et fournit une valeur ajoutée aux utilisateurs, il aura tout à fait sa place dans le Top 3 de Google.
Il est recommandé de surveiller attentivement la qualité du contenu généré par l’IA – et généré par l’humain également – de s’assurer qu’il est conforme aux directives de Google et de fournir des informations précieuses et pertinentes aux utilisateurs pour maintenir une bonne visibilité dans les résultats de recherche.
5. Avez-vous un bon netlinking ?
Vous pouvez également demander la suppression de vos « mauvais » backlinks directement sur les sites éditeurs. Vous avez également la possibilité via Google Search Console de demander le désaveu de ces liens. Le netlinking, également connu sous le nom de création de liens ou backlinking, fait référence à l’acquisition de liens provenant d’autres sites Web vers votre propre site. Le netlinking peut jouer un rôle important dans la perte de position sur Google. Voici pourquoi :
Autorité et pertinence : Les liens de qualité provenant de sites web réputés et pertinents sont considérés comme des votes de confiance par Google. Ils indiquent que votre site est une source fiable et mérite une meilleure position dans les résultats de recherche. Si vous perdez des liens précieux ou si votre profil de liens est de faible qualité, cela peut contribuer à une perte de position.
Compétition en ligne : Si vos concurrents acquièrent de nouveaux liens ou améliorent la qualité de leurs liens, cela peut affecter négativement votre position sur Google. Si vous négligez le netlinking, vous risquez d’être dépassé par vos concurrents qui investissent dans cette stratégie. Faites un audit de vos concurrents !
Pénalités de Google : Si votre site est associé à des liens toxiques, spammy ou de mauvaise qualité, Google peut prendre des mesures punitives, telles qu’une pénalité manuelle ou un déclassement algorithmique. Ces pénalités peuvent entraîner une chute significative de votre position dans les résultats de recherche. Les fermes de liens à « l’ancienne », c’est TER-MI-NÉ !
Il est important de souligner que le netlinking n’est pas une fin en soi. Les liens doivent être obtenus de manière naturelle, organique et pertinente pour votre site. Une stratégie de netlinking éthique et de qualité, en accord avec les directives de Google, peut aider à renforcer la crédibilité de votre site et à maintenir ou améliorer votre positionnement dans les résultats de recherche.
Apprenez-en plus sur le netlinking et comment obtenir des bons backlinks !
Votre site perd encore des positions ? Faites appel à l’agence SEO NOIISE !
Vous l’aurez compris, il existe de nombreuses raisons pour lesquelles les positions de votre site internet peuvent être perdues. Suivez les différents points listés dans cet article et les différents conseils d’experts sur le blog. Non seulement vous pourrez récupérer vos positions, mais peut-être les améliorer assez simplement. Des questions ? Un nouveau projet ? Contactez-nous pour en discuter avec les experts en référencement de NOIISE.
Aller plus loin avec d’autres articles
Vous êtes arrivé jusqu’en bas,
N’en restons pas là.
Vous souhaitez en savoir plus sur nos expertises, notre agence et les talents qui l’animent ? Venez discuter avec eux de votre projet et obtenez des solutions pertinentes !
L’article SEO et Black Friday est apparu en premier sur Noiise.