Comment préparer votre site Web pour la prochaine mise à jour de l’algorithme Google [Case Study]

J’espère que vous n’avez jamais eu à souffrir de la douleur d’être frappé par une mise à jour algorithmique.

Vous vous réveillez un matin, votre trafic est décimé et votre tracker de rang est jonché de flèches rouges.

Les pénalités algorithmiques ne sont pas un sujet que j’aime banaliser, c’est pourquoi l’étude de cas que je suis sur le point de partager avec vous est différente de ce que vous avez lu précédemment.

Cette étude de cas témoigne de la foi et du travail acharné à la lumière d’un énorme changement dans le paysage du référencement.

Malheureusement, avec les mises à jour algorithmiques de base, vous ne pouvez pas simplement changer certaines choses et vous attendre à obtenir une récupération immédiate du classement.

Le mieux que vous puissiez faire est de vous préparer pour la prochaine série de mises à jour.

Si vous avez fait toutes les bonnes choses, vous ferez l’expérience de gains comme vous ne l’avez jamais vu auparavant.

March14update_rankedMême si vous n’avez jamais été frappé par une pénalité algorithmique, vous devriez vous soucier de ces mises à jour.

Faire les bonnes choses et rester une longueur d’avance peut mettre votre site en place pour faire d’énormes gains lors du lancement d’un algorithme.

Alors, quelles sont les « bonnes choses » ?Que devez-vous faire sur votre site Web pour le configurer pour ces types de classement augmente lorsque les algorithmes changent?

Cette étude de cas de mon agence The Search Initiative vous montrera.

Le défi: dévaluation de l’algorithme médical

Je veux commencer cette étude de cas en vous ramenant à ses origines.

Il y a eu une grande mise à jour de l’algorithme le 1er août 2018. Beaucoup de SEO l’ont appelé une « mise à jour médicale » parce qu’il a ciblé un grand nombre de sites liés à la santé et à la médecine.

distribution de mise à jour des médecins

https://www.seroundtable.com/google-medic-update-26177.html

À quoi ressemble une mise à jour de l’algorithme?

Commençons par quelques faits.

Fait no 1 : Google effectue constamment des expériences de recherche.

Pour citer Google sur leur page officielle de la mission :«En 2018, nous avons mené plus de 654 680 expériences, avec des formateurs de recherche externes formés et des tests en direct, avec plus de 3234 améliorations à la recherche. »

Google - Expériences de recherche en 2018Voici les chiffres officiels des expériences de recherche menées l’an dernier :

  • 595.429 Tests de qualité de la recherche : c’est le nombre de tests conçus pour être effectués dans les moteurs de recherche.Certains d’entre eux n’étaient que conceptuels et se sont avérés algorithmiquement inefficaces, de sorte qu’ils n’ont jamais atteint les étapes de test ultérieures.
  • 44.155 expériences côte à côte : voici combien de tests leurs Quality Raters de recherche ont effectués.L’équipe SQR examine les résultats de la recherche d’algorithmes anciens et nouveaux côte à côte.Leur tâche principale est d’évaluer la qualité des résultats reçus, ce qui évalue la modification de l’algorithme.Certaines modifications sont restaurées à ce stade.D’autres parviennent à passer à travers les expériences de trafic en direct.
    Planifiez un appel-CTA
  • 15 096 expériences de trafic en temps réel – à ce stade, Google publie la modification de l’algorithme dans les résultats de recherche d’audience et évalue comment le grand public les perçoit, très probablement par le biais de tests A/ B.Encore une fois, il y aura quelques reculs et le reste restera dans l’algorithme.
  • 3.234 lancements – toutes les modifications qu’ils ont mises en œuvre.mises à jour google en 2018

Fait n° 2 : Google publie quotidiennement des améliorations d’algorithme et des mises à jour de base plusieurs fois par an!

Compte tenu de tout ce qui précède, Google publie des améliorations algo pratiquement tous les jours.

Faites le calcul …

3.234 rejets par an / 365 jours par an = 8,86 algo change par jour!

Ils ont également confirmé qu’ils mettent en œuvre des mises à jour de qualité de base plusieurs fois par an : Twitter - Les modifications de Google Algo se produisent tous les jours Lorsque vous soupçonnez qu’il se passe quelque chose, vous pouvez simplement le confirmer en sautant sur votre capteur SERP préféré pour vérifier la confusion : Capteur SEMrush https://www.semrush.com/sensor/ Pendant ce temps, les classements fluctuent généralement et finissent par se stabiliser.

Comme dans la capture d’écran ci-dessous: Algo roll-out dans nos classements Beaucoup de SEO (moi y compris) croient que pendant la phase de fluctuation lourde, Google adapte les modifications qu’ils viennent de mettre en œuvre.

C’est comme pendant que tu fais cuire une soupe.

Tout d’abord, ajouter tous les ingrédients, ajouter quelques épices et laisser cuire pendant un certain temps.

Ensuite, goûtez-le et ajoutez plus de sel, de poivre ou tout ce qui est nécessaire pour le rendre bon.

Enfin, vous vous contentez du goût que vous aimez.

(Je n’ai jamais vraiment cuisiné de soupes autres que ramen, alors j’espère que cette analogie a un sens.)

meme chef ramsey

Fait no 3 : Au départ, il y aura plus de bruit que de signal.

Une fois qu’il ya une mise à jour algo, en particulier un officiellement confirmé, de nombreux SEO en herbe se lancera dans l’overdrive écrit des billets de blog avec des théories sur les changements particuliers qui ont été apportés.

Honnêtement, il vaut mieux laisser les choses s'33r avant de théoriser : google recherche liason 1 Une des forces que nous avons en tant que propriétaires de sites Web est que nous sommes dans beaucoup – et les données recueillies par les webmasters dans les forums et sur Twitter sont parfois suffisantes pour fournir une indication des changements que vous pourriez éventuellement apporter à vos sites.

Cependant, ce n’est généralement pas le cas, et quand il est, il est généralement difficile de dire si ce que les webmasters signalent est réellement correct.

Gardez un œil sur ceux en qui vous avez confiance pour donner de bons conseils.

Cela dit…

À ce stade, il ya plus de voix, légendes urbaines et les gens qui veulent se montrer – ils contribuent tous au bruit de tout conseil raisonnable (signal).

Dans mon agence, nous recueillons toujours beaucoup de données et de preuves avant de sauter toute conclusion … et vous devriez faire de même.

Très bientôt, nous arriverons à ces données.

La question : pénalité algorithmique ou dévaluation ?

Lorsque les choses tournent mal pour vous lors d’une mise à jour algorithmique, de nombreux SEO appellerait cela une « pénalité algorithmique ».

A l’Initiative de recherche, NOUS NE SOMMES PAS D’accord avec cette définition!

Rencontre de la STI 02
En fait, ce qu’il est vraiment, c’est un changement de ce que le moteur de recherche fait au niveau central.

En d’autres termes:

  • Pénalité algorithmique – invoqué lorsque vous faites quelque chose contre les termes de Google pendant un certain temps, mais il n’a pas été suffisant pour le déclencher jusqu’à présent.Il est appliqué comme punition.
  • Dévaluation algorithmique – qui accompagne généralement une mise à jour de la qualité ou un changement d’algorithme important.Il fonctionne au niveau central et peut parfois affecter vos classements sur une plus longue période de temps. Appliqué à la suite du changement plus large dans l’évaluation de la qualité.

Quoi qu’il en soit, appelez-le comme vous voulez – la mise à jour fondamentale de l’algo qui vous frappe signifie que Google a dévalué votre site en termes de facteurs de qualité .

Un déplacement algorithmique affectant votre site ne doit pas être qualifié de pénalité.Il devrait être considéré comme une dévaluation . Logo de la STI 1

Vous n’avez pas été ciblé, mais beaucoup de facteurs ont changé et chaque site non conforme à ces nouveaux facteurs sera dévalué de la même manière.

La bonne chose à propos de tout cela … Une fois que vous aurez identifié ces facteurs et agi sur ces facteurs, vous serez un excellent endroit pour bénéficier réellement de la prochaine mise à jour.

Comment savoir que vous avez été affecté par une mise à jour Algo?

Dans certains cas, une baisse soudaine du trafic rendra les choses évidentes, comme ce site particulier que j’aimerais examiner plus spécifiquement.

Mais nous y arriverons dans une seconde.

En général, si votre trafic chute du jour au lendemain, vous devriez regarder les outils de suivi des algorithmes (comme ceux ci-dessous) et vérifier les groupes Facebook et Twitter.

Suivi des modifications algorithme de Google :

Groupes Facebook utiles:

Comptes Twitter utiles à suivre

Le patient: le site de notre client

The client boardd in response to how he was interesté by the Aug.

Ils ont adhéré à l’ITS vers la fin du mois d’octobre.

Il s’agissait de la mise à jour d’août 2018 dont nous parlions – et personne n’est encore sûr à 100% de ses spécificités.

Cependant, nous avons quelques observations fortes.😉

Type de site et niche

Maintenant, nous rencontrons notre patient.

Le site Web est un site affilié de la taille d’une autorité avec environ 700 pages indexées.

Sa niche repose sur des suppléments de santé, de régime alimentaire et de perte de poids.

Les symptômes

Comme l’industrie n’arrêtait pas de se disputer, il n’y avait pas de « solutions rapides » évidentes à ce problème.

En vérité, il n’y aura probablement plus jamais de « solutions rapides » pour les mises à niveau à grande échelle.

Tout ce avec quoi nous avons dû travailler, c’est ceci : Symptômes - baisse de juillet vs août Vous pouvez voir que dans ce cas particulier, le nombre d’utilisateurs visitant le site a diminué de 45% entre juillet et août.

Je me reformule: la moitié du trafic est allé en une semaine.

Si nous regardons octobre, lorsque nous effectuons toutes nos analyses et créons le plan d’action, le trafic organique semble encore plus pessimiste : Symptômes - baisse d’octobre Avec la preuve de niche, site et historique, nous pourrions facilement conclure ce qui suit:Correspondance à 100% avec la mise à jour « Medic »

Comment l’avons-nous récupéré : quelles sont les « bonnes choses » ?

Pour replacer notre prise de décision sur ce projet dans son contexte, voici un résumé de ce que nous savons et de ce que nous savions à l’époque :

Ce que nous savions alors

  • Il semblait que de nombreux sites touchés se trouvaient dans les niches sanitaires et médicales (d’où la mise à jour « Medic »).
  • Les sites Web ont connu une forte baisse des classements.
  • Les classements ont été influencés à partir de la première page.(Cela a été surprenant: la plupart des mises à jour précédentes ont eu moins d’impact à la page 1.)
  • De nombreux grands sites dotés d’une autorité énorme et d’une très haute qualité ont été dévalués.Nous avions supposé que cela suggérerait une erreur de Google …

Ce que nous savons maintenant

  • « La mise à jour d’août » a concerné des sites de diverses niches.
  • Les effets de cela ont été particulièrement puissants pour les sites du vaste créneau de la santé avec des autorités sous-départements et des signes de confiance.
  • Ce changement a été considéré par certains comme une étape délibérée vers la vision philosophique que Google avait présentée depuis la première mention de YMYL en 2013.
  • Cette mise à jour a coïncidé accidentellement avec une mise à jour des lignes directrices pour l’évaluation de la qualité de Google .(Le document souligne en outre comment manger les sites YMYL. Pas de jeu de mots.)
  • Le contenu a été une partie très importante de l’évaluation de la qualité.En particulier – la cannibalisation du contenu.
  • Les changements étaient apparemment là pour rester (pas de recul à travers les répliques de Septembre – bien au contraire) et il n’y avait pas de solutions rapides.

Solution rapide ?

Malheureusement, contrairement aux actions manuelles, il n’existe pas de lignes directrices que vous pouvez suivre simplement pour « relancer » vos classements.


Une dévaluation algorithmique est le produit du changement axé sur les données.Cela signifie essentiellement que ce que vous faisiez auparavant n’est plus considéré comme ce que les utilisateurs veulent lorsqu’ils recherchent les conditions pour lesquelles vous vous êtes déjà tenu.Ce n’est plus la bonne chose à faire.Je le résume dans une déclaration très simple (qui est devenue notre devise):

FAIRE TOUTES CHOSES!

Nous discutons de ce que « toutes choses » sont …

Les outils nécessaires au contrôle

Le contrôle des sites Web est un processus itératif.

  • Collecte de données
  • Apporter des changements
  • Comprendre l’impact des changements
  • Collecte de données
  • Apporter des changements

approche d’optimisation itérative

Avoir accès aux outils nécessaires pour effectuer une vérification complète et rapide d’un site est vraiment utile lorsqu’il n’y a pas de problème évident et spécifique à résoudre et que vous devez tout résoudre.

Voici les principaux outils que nous avons utilisés et comment nous les avons utilisés.

Google Search Console (l’essentiel)

L’onglet de couverture de la barre de navigation de gauche est votre ami.

GSC - Graphique avec problèmes de couverture

Je vais approfondir l’approche et l’utilisation du rapport sur la couverture du SGC ci-dessous.

À l’aide de l’outil Contrôle des URL, vous pouvez vérifier votre site page par page pour déterminer s’il y a des problèmes avec la page.

GSC - Inspecter l’URL étape par étape

Ou si vous voulez simplement savoir si votre site est migré vers la première indexation mobile :

GSC : scanné en tant qu’inspecteur d’URL

Ahrefs (Le Ninja)

Si vous avez un abonnement Ahrefs , leur nouvel outil de contrôle de site est un excellent moyen de vérifier votre site à plusieurs reprises.

Certaines des principales erreurs et avertissements que vous recherchez avec Ahrefs sont les problèmes de vitesse de page, les problèmes d’optimisation d’image, les erreurs internes 4xx ou 5xx, les ancres internes, etc. Ahrefs - Histoire du projet Ce que j’aime le plus, c’est que vous pouvez programmer l’exécution de la numérisation chaque semaine et Ahrefs vous montrera toutes les améliorations (et tous les déraillements) comme ils se produisent.

Voici une capture d’écran d’un client où nous avons effectué une analyse hebdomadaire et périodique Ahrefs et essayé de maintenir un score de santé de 95% +.

Tu devrais faire la même chose.

Ahrefs : liste des analyses planifiées

Bien entendu, nous avons également utilisé notre outil ninja (Ahrefs) pour analyser les liens (voir ci-dessous), mais qui ne l’a pas fait?

Sitebulb (Nouveau Kid sur le bloc)

Vous pourriez reconnaître le nom si vous avez lu mon étude de cas de pénalité algorithmique .

Sitebulb est particulièrement bon pour vous dire exactement quels sont les problèmes.C’est un outil d’analyse et un crawler.

Voici quelques exemples (intéressants) des problèmes que Sitebulb peut découvrir pour vous :

  • URL en double (doublons techniques)
  • URL avec contenu en double
  • L’URL se résout en HTTP et HTTPS
  • URL ayant un lien interne sans texte d’ancrage
  • L’URL de mise en page n’a pas de liens internes entrants
  • L’URL reçoit les deux liens internes follow &nofollow
  • Taille totale de la page trop grande pour les connexions 3G
  • Le CSS critique (au-dessus du pli) n’a pas été trouvé
  • Réponse du serveur trop lente avec un Time-to-First-Byte supérieur à 600ms
  • L’URL de la ressource de page fait partie d’une boucle de redirection enchaînée
  • Contenu mixte (charge des ressources HTTP sur l’URL HTTPS)

Planifiez un appel-CTAVoici une liste complète des conseils que vous pouvez trouver dans Sitebulb :https://sitebulb.com/hints/Ces « suggestions » vous aideront efficacement.

Obtenez des informations qui vous permettent de regrouper des problèmes simples dans le problème ci-dessus, de manière à pouvoir les résoudre tous à la fois plutôt qu’individuellement.

Sitebulb - Conseils

Mon équipe adore Sitebulb.Il s’est avéré incroyablement utile pour la stratégie d’examen itératif.

Si vous ne savez pas ce qu’est Sitebulb, je vous recommande de jeter un oeil.

Seo surfeur (SERP Intelligence 007)

Je suis tombé en amour avec Surfer SEO dès que j’ai commencé à y jouer.

Il est devenu un outil de base de The Search Initiative .

Surfer SEO - Page d’accueil en tête

Vous apprendrez bientôt tout sur l’utilisation de Surfer SEO pour optimiser votre contenu.

Restauration, optimisation et mise en œuvre

Rencontrer

Comme nous savions qu’une grande partie de la mise à jour est contenue, nous avons lancé une analyse page par page, en examinant chaque page du site du client.

Élagage du contenu

Lors de la dernière conférence SEO à Chiang Mai , seulement 3 mois après la mise à jour, notre directeur du référencement, Rad avait partagé certains des problèmes les plus courants concernant la dernière mise à jour.

Certaines récupérations que nous avons vues au cours de ces trois mois ont suggéré que l’un des plus grands problèmes était la cannibalisation du contenu.

Voici les 10 problèmes les plus courants de Rad que nous avons rencontrés concernaient principalement la mise à jour d’août:

CMSEO 2018 - Synoxy Rads Medic

(Lucky) Numéro 7: éviter la cannibalisation du contenu.Vous n’avez pas besoin d’avoir le même sh * t dans chaque article.

Dans cet esprit, nous avons commencé à visiter le site, courrier par la poste, la restructuration du contenu.

Vous pouvez y faire face de deux façons : 1.

Pages de consolidation : on identifie ici les pages (par révision manuelle) qui couvrent les mêmes sujets et les combinent.
Une fois le contenu consolidé, redirige la page avec moins de mots clés vers la page avec plus.

Voici quelques exemples de messages que vous pouvez consolider :

  • 5 appareils XYZ populaires qui fonctionnent
    5 Les meilleurs appareils XYZ de 2020 Les
    meilleurs appareils XYZ qui fonctionnent vraiment
  • 11 choses qui causent XYZ et leurs remèdes
    Quelles sont les causes XYZ?
  • Le meilleur XYZ essentiel XYZ
    sans lequel vous ne pouvez pas vivre

2. Taille : sélectionnez ici les pages qui correspondent aux critères suivants et les redirigent vers leurs catégories respectives :

  • Trafic minimal au cours des 12 derniers mois (<0,5% del totale).
  • Aucun lien entrant externe.
  • Pas nécessaire (ne supprimez pas la page « Qui sommes-nous » ou « Politique de confidentialité », OK?).
  • Non classé pour aucun mot clé.
  • Plus de 6 mois (ne supprimez pas de nouveau contenu!).
  • Il ne peut pas être mis à jour ou il est inutile de les mettre à jour (par exemple. Produits obsolètes, etc.).

Il dépouille le site de tout contenu susceptible d’affecter la qualité globale du site.

Assurez-vous que chaque page du site a un but.

Amélioration des signaux EAT

Autour de la mise à jour de « The Medic », vous pourriez entendre beaucoup parler de l’EAT (Compétence – Autorité – Fiabilité).

Le fait est que Google apprécie vraiment le contenu unique et de haute qualité, écrit par un expert faisant autorité.Il est également assez bon pour déterminer l’autorité et la qualité, ainsi que tous les autres signes pertinents.

Que vous croyiez ou non que l’algorithme (et non les humains réels) est capable de détecter ces signaux EAT, nous pouvons supposer que l’algue peut capter certains .

Revenons donc à faire « toutes choses ».

Voici ce qui a été prescrit:

  • Créez les propriétés des médias sociaux du site et liez-les au balisage du schéma « sameAs ».
  • Formatez mieux les paragraphes et écrivez des paragraphes plus courts : les sites Web des autorités ne commettraient pas ces erreurs de lisibilité.
  • Ne surchargez pas les CTA: il est important d’avoir des boutons d’appel à l’action, mais les avoir intuitivement est encore plus important!

Voici ce que c’était à l’origine: Certains messages avaient un CTA tous les 2 paragraphes:

Eat - Classe

  • Améliorez vos personnages – La création de l’autorité en ligne de leurs « auteurs » les aide à améliorer l’autorité globale du site et à renforcer les compétences.
  • Lien vers votre page Qui sommes-nous à partir du menu principal – Il ne fait pas vraiment mal!
  • Construire votre page Qui sommes-nous afin que vous démontriez votre expertise et votre autorité – c’est un bon exemple .

MANGER - Qui sommes-nous page

  • Incluez la page Contactez-nous – il devrait y avoir un moyen pour vos visiteurs d’entrer en contact!
    Voici un excellent exemple (sans même utiliser un formulaire de contact!):MANGER - Contactez-nous Page
  • Création d’une page d’exclusion de responsabilité supplémentaire: une bonne pratique consiste à créer une page d’exclusion de responsabilité supplémentaire liée à partir du menu en bas de page et référencée à tout moment de l’avertissement.
  • Améliorez vos pages d’auteurs: voici un excellent exemple.
  • Améliorer la qualité du contenu – La qualité du contenu des pages YMYL (Your Money ou Your Life – sites qui affectent directement la condition financière ou le bien-être de l’utilisateur) devrait être absolument fiable.
    C’est pourquoi il existe des lignes directrices d’évaluation.
MANGER - RECOMMANDATIONS LATÉRALES
Étiquette d’en-tête

Sur le site de notre client, les en-têtes H3 sur de nombreuses pages devaient être marqués H2.Certaines entrées H1 ont été marquées H2.

Accédez à chacun de vos articles publiés et assurez-vous que la structure de chaque page est correctement marquée du point de vue du référencement.

INCORRECTStructure de l’en-tête - Errata CORRECTStructure de l’en-tête - Correct

Ce n’est pas un journal, donc vous ne devriez pas toujours avoir la hiérarchie d’en-tête correcte.

Mais s’il vous plaît, gardez-le en ordre.

Il aide vraiment Google à saisir les parties les plus importantes du contenu et la hiérarchie sémantique des sections.En savoir plus sur la structure des en-têtes dans mon Guide SEO sur place Evergreen .

Modifications de contenu

Le nom du jeu est d’écrire le meilleur contenu possible.

Si vous avez besoin d’aide avec cela, les services de seo organique offrent d’excellentes options ici .

Quoi qu’il en soit, il vous oblige à vérifier ce qui est déjà dans le classement à la page 1 et les dépasser tous.

Cela signifie que vous devrez effectuer ce contrôle périodiquement, car la page 1 est en constante évolution.

L’outil ci-dessus – Surfer SEO – s’est avéré être un logiciel extraordinaire.Sans elle, nous ne pourrions pas faire une analyse complète et approfondie comme celle-ci dans un délai raisonnable.

Nous utilisons un exemple de mot clé « meilleurs réseaux d’affiliation » avec 800 recherches mensuelles aux États-Unis seulement.

Mon site se porte déjà bien dans le top10, mais ce n’est pas le numéro 1.

Tout d’abord, exécutez Surfer pour ce mot clé et définissez le pays de destination comme vous préférez, dans mon cas, les États-Unis.

Surfer SEO - Boîte à mots clés

Il faudra une minute pour effectuer l’analyse.Une fois que c’est fait, allez au rapport: Surfer SEO - Affichage analyse principale (1) Ce que vous voyez ici sont:

  1. Classification des facteurs disponibles : du nombre de mots sur la page au nombre de sous-titres, chaque facteur est mesuré.Vous pouvez voir rapidement combien ces facteurs comptent pour les premières positions à la page 1. Surfer calculera automatiquement la corrélation de chaque mesure qui est présentée comme une petite icône d'"intensité du signal » à côté de chaque facteur.La puissance élevée du signal signifie que ce facteur est important pour le positionnement en première position.
  2. Graphique principal pour la mesure sélectionnée : dans ce cas, # de mots dans le corps.Comme vous pouvez le voir sur le graphique, les résultats dans les 3 premières positions ont beaucoup plus de mots que les autres.

Surfer SEO meilleur réseau d’affiliés 1 copie

  1. Paramètres du graphique – J’aime avoir Surfer défini pour afficher les moyennes de 3 positions.Cela m’aide à mieux comprendre les moyennes visuellement.

Vous avez peut-être remarqué la ligne à travers le graphique montrant la valeur de 4933 mots.C’est une valeur exacte pour mon site , que j’ai activé ici:

Surfer SEO - Paramètres de filtre

  1. Tapez votre domaine dans le champ de recherche sous le graphique
  2. Il devrait le trouver dans les résultats de la recherche.
  3. Cliquez sur l’icône 'oeil' pour la tracer dans le graphique.

C’est sexy.

Mais ce n’est même pas la meilleure partie de Surfer SEO.

La fonction de contrôle – Surfer peut contrôler votre page en fonction des 5 principaux concurrents et vous montrer tous les facteurs connexes analysés pour cette page.

Voici à quoi ressemble la page Les meilleurs réseaux d’affiliation sur mon site: Surfer SEO - Audit (Si vous voulez jeter un oeil à l’examen complet – il est partagé ici )Jepeux maintenant regarder les conseils en détail, comme le nombre recommandé de mots dans le corps:Les Surfer SEO - Graphique du nombre de mots 2 premières pages ont un contenu beaucoup plus long.

Ensuite, il est d’abord d’ajouter quelques mots supplémentaires dans la liste des tâches.

Avant d’aller le faire, cependant, je voudrais m’assurer que j’utilise tous les mots et expressions communs comme les autres concurrents .

Et vous pouvez le voir ici, en détail:

Surfer SEO - Mots populaires

Surfer SEO - Phrases populaires
Titres de page et descriptions méta

Optimisez les balises de titre pour vous conformer aux meilleures pratiques de référencement :

  • Gardez la phrase clé principale ensemble et au premier plan
  • Gardez les titres relativement courts et pertinents
  • Inclure des éléments qui amélioreront votre CTR ( https://ahrefs.com/blog/title-tag-seo/ )
  • Lorsque vous incluez un an (par exemple « Le meilleur XYZ en 2020 »), rappelez-vous l’algorithme de fraîcheur (mentions de 2007 et 2017 – croyez-moi, c’est toujours une chose) et assurez-vous de le tenir au courant
  • N’en faites pas trop avec le clickbait – si vous le faites, regardez vos fréquences de rebond augmenter – c’est mauvais!
  • DSS: Ne pas spam Silly – évident, n’est-ce pas?Ne doublez pas le nombre de mots clés
  • Le rendre unique

Optimisation du titre de la page
Assurez-vous de corriger les descriptions manquantes, trop courtes ou trop longues comme une victoire rapide pour votre score de qualité globale.

Optimisation de la taille de l’image

Optimisez toutes les images importantes de plus de 100 Ko en comprimant et en optimisant via ShortPixel .Vos pages utiliseront désormais moins de bande passante et chargeront plus rapidement.

Résumé ShortPixel
Voici le résumé complet de notre optimisation Shortpixel pour ce client:

  • Fichiers traités: 4.207
  • Crédits utilisés: 3.683
  • Total des données originales: 137.10 MB
  • Perte totale de données: 129,32 Mo
  • Amélioration globale (sans perte) : 6 %
  • Perte totale de données: 88,48 Mo
  • Amélioration globale (perte) : 35 %
Textes alternatifs

Chaque image devrait avoir un texte alternatif – c’est un dogme que je ne suis pas toujours à suivre, parce que ce qui peut mal tourner quand il manque une balise alt impair?

Cependant, le texte alternatif n’est pas seulement quelque chose à avoir: c’est aussi un facteur qui peut aider Google à comprendre ce que l’image montre.Il ajoute également d’importants signaux pertinents à votre contenu.

De plus, nous faisons « toutes choses », non?

Dans ce cas, nous avons optimisé les images en ajoutant des textes alt naturels plus descriptifs.De plus, nous nous sommes assurés que toutes les images les avaient.

Optimisation de la structure du site

Réparation de liens internes

Nous avons trouvé beaucoup de liens internes tout simplement incorrects.

Peut-être qu’ils liaient à une page qui avait été redirigée 301 (parfois plusieurs fois).

D’autres fois, ils se connectaient à des pages mortes (404s).

Pour les trouver, nous avons utilisé l’un de nos crawlers préférés – Sitebulb :

  1. Accédez à la vérification, puis redirigez
  2. Voir le nombre de redirections internes
  3. Ouvrez « Conseils »

Sitebulb - Redirections internes - Step by Step

4. Dans la liste des suggestions, vous pouvez désormais afficher toutes les redirections internes Sitebulb - Rapport sur les redirections internes 5.

Utilisez le bouton Exporter les lignes pour exporter les données vers Excel sitebulb - redirections internes Nous avons ensuite corrigé les liens rompus et les avons mis à jour pour qu’ils pointent vers les pages correctes.

Liens externes rompus

Nous avons trouvé des URL qui ne fonctionnent pas avec des liens naturels entrants.

Dans le cas de pages avec un code d’état 404, un lien qui va à une telle page est une impasse qui ne transmet aucune autorité ou valeur SEO à vos pages réelles.

Planifiez un appel-CTATu ne veux pas le gaspiller !

Voici où les trouver dans Ahrefs :

  1. Aller à Pages → Les meilleurs pour les liens
  2. Sélectionnez ensuite le code d’état souhaité (dans notre cas – 404)
  3. La liste est là!

Vous pouvez le trier par nombre de domaines de référence (par ordre décroissant), de sorte que vous pouvez voir les plus importants en haut.

ahrefs - liens externes rompus
Ensuite, créez une carte de redirection avec les destinations les plus appropriées et redirigez-les de façon permanente (301) pour récupérer l’équité du lien perdu.

SEO technique

Optimisation de la vitesse de la page

Voici la ventilation du trafic de nos clients par type d’appareil: Public par type d’appareil En voyant des valeurs comme ça, vous devez vous concentrer sur les mesures de vitesse de votre page.

Ce n’est pas un « peut-être » c’est un must absolu.

Les chances sont, votre site et votre créneau sont les mêmes.

Avant:

Vitesse de la page - Bureau avant

Après:

Ce que nous avons fait – la même réponse: TOUT

  • Javascript minimisé.
  • CSS minimisé.
  • HTML minimisé.
  • Introduction du téléchargement lent pour les images, vidéos et iframes.
  • Combinez de petits fichiers CSS et Javascript pour enregistrer les temps aller-retour.
  • Amélioration du temps au premier octet (TTFB).
  • Images optimisées.
  • Formats d’image introduits .webp si possible.
  • Introduit la voie critique CSS.
  • Fabriqué au-dessus du pli pratiquement sans blocs.
  • Introduit le chargement asynchrone de ressources externes dans la mesure du possible.
  • Introduction du cache HTML statique.
  • Introduit CDN.

Pour la plupart, ces plugins étaient absolument inestimables:

  • WP Rocket – cela traite de beaucoup de choses de la liste ci-dessus.
  • Shortpixel – outil d’optimisation d’image très efficace.
  • Cloudflare – CDN décent qui offre une option gratuite.
Couverture de l’indice Google

Cela était généralement abordé de deux façons:

  • Suppression des URL indésirables de l’index Google.
  • Révision de toutes les erreurs, avertissements et listes exclus dans Google Search Console.

Google a en fait un guide assez décent à tous les problèmes montrés dans la capture d’écran ci-dessous:https://support.google.com/webmasters/answer/7440203?hl=enVous devez GSC - Problèmes de couverture absolument examiner toutes les erreurs et les mises en garde: c’est une évidence pour les résoudre.

Cependant, à The Search Initiative , nous sommes littéralement obsédés par ceux-ci:

  • Anomalie de numérisation : ces URL ne sont pas indexées, car elles ont reçu un code de réponse au dont Google ne s’attendait pas. Nous avons pensé que n’importe quelle URL ici nous suggérait que Google pourrait ne pas bien comprendre d’où ils viennent et n’est pas en mesure de prédire la structure du site.Par conséquent, il peut causer des problèmes de numérisation et d’indexation (comme la planification de l’analyse foirée).
  • Soft 404 : ces URL sont traitées par Google de la même manière que les 404 normales, mais ne renvoient pas le code 404. Très souvent, Google semble inclure quelques pages d’argent dans cette catégorie.Si cela arrive, il est vraiment important pour vous de comprendre pourquoi ils sont traités comme « non trouvé ».
  • Dupliquer sans canon sélectionné par l’utilisateur : je les déteste plus.Ce sont des pages que Google a trouvé en double.Vous devriez certainement mettre en œuvre une redirection canonique 301 ou tout simplement mettre à jour le contenu si Google vous dit directement qu’ils sont pris en charge.
  • Numérisé – actuellement non indexé – ce sont toutes les URL que Google a numérisées et qu’il n’a pas encore indexées.

Il y a plusieurs raisons à cela :

  1. Les pages ne sont pas correctement liées en interne
  2. Google ne croit pas qu’ils devraient être indexés comme prioritaires
  3. Vous avez trop de pages et il n’y a plus d’espace dans l’index pour les insérer. (Découvrez comment corriger le budget de numérisation )

Quoi qu’il en soit, pour un petit site (> 1000 pages), cette catégorie devrait être vide.

  • Url envoyée en double non sélectionnée comme canonique : cette section comprend toutes les URL pour lesquelles Google n’est pas d’accord avec votre sélection canonique.Ils peuvent ne pas être identiques ou Google les a trouvés utiles s’ils sont indexés eux-mêmes.

Enquêter et essayer de ramener leur nombre à un minimum absolu.

Données structurées

En cours de route, nous avons rencontré quelques problèmes avec les microdonnées existantes.

Vous pouvez savoir si vous rencontrez des problèmes en lançant votre page dans l’outil de test de données structurées de Google :Pour GSC - Erreurs de données structurées les résoudre, nous avons dû supprimer quelques balises du fichier d’en-tête.php dans WordPress.

Nous avons également supprimé le balisage des commentaires des messages: les messages n’avaient pas de commentaires activés de toute façon.

Après avoir résolu les problèmes … nous avons décidé de mettre en œuvre le balisage de révision pour les pages d’examen.

L’équipe a testé quelques plug-ins (y compris kk Star Ratings qui est facile à mettre en œuvre), mais nous avons finalement déployé le balisage Epson-LD nous-mêmes.

Mon prochain billet de blog portera sur le balisage du schéma pour les sites affiliés, alors revenez bientôt.

Utilisabilité

Google Search Console a signalé des tonnes d’erreurs de site sur les appareils de bureau et les petits écrans.

Ceux-ci doivent être révisés page par page.

Il s’agit généralement de problèmes de conception réactive qui peuvent être résolus en déplaçant des éléments (s’ils sont trop proches), en augmentant/diminuant la taille des polices et en utilisant les conseils optimisés pour les appareils mobiles de Sitebulb.

Sitebulb: conseils mobiles

Toutes les erreurs signalées dans GSC ont été marquées comme correctes.Nous avons donc surveillé si quelqu’un réapparaîtrait.

crawlability

Toutes les sections du site Web et les fichiers qui n’ont pas dû être numérisés ont été bloqués par les robots du moteur de recherche.

L’un des problèmes les plus importants que nous avons rencontrés au début du contrôle a été le fait que tous les liens d’affiliation utilisaient une redirection 302.

Voici un exemple de ce qu’il ressemble dans Chrome en utilisant l’extension Chemin de redirection sur un site choisi au hasard: Crawlability - 302 redirections Si vous avez été dans le monde des affiliés pendant un certain temps, vous savez que les « liens d’affiliation amicale » (comme / aller / xyz-offer) fonctionnent généralement légèrement mieux que les méchants (comme https://go.shareasale.com /?

aff = xyz &utm_source = abc ).Cela est particulièrement vrai lorsque vous ne vous connectez pas à un grand site bien connu comme Amazon.

En outre, les programmes d’affiliation utilisent toujours une sorte de redirection pour définir un cookie, afin de les informer que la commission devrait vous être attribuée.

Tout va bien, mais …

Qu’est-ce qui ne va pas ?

Ne pas utiliser Pretty Links avec une redirection 302.

Jamais, jamais, jamais, jamais utiliser 302 redirections, jamais.C’est-si-jamais!

C’est tout simplement une honte SEO!

Meme de pécheur

Que font les 302 redirections… font en sorte que Google indexe l’URL de redirection dans votre domaine.De plus, Google peut attribuer tout le contenu de la page vers laquelle vous dirigez votre redirection, directement vers votre page de redirection.

Il semble donc que ce soit sous votre site : Crawlability - Attribution du contenu causée par 302 redirections Devinez ce qui se passe avec tout ce contenu sous VOTRE domaine ?

Oui, vous avez raison: il est très probablement traité comme un contenu en double!

Reconfigurer les paramètres URL dans GSC

La configuration des paramètres d’URL est un excellent moyen de permettre à Google de mieux savoir ce qui se passe sur votre site Web.

Vous aimeriez le faire lorsque vous avez certaines pages (surtout en grand nombre) qui ne sont pas indexées et Google devrait savoir tout de suite qu’il est inutile de les indexer.

Par exemple, supposons que vous soyez un site Web de commerce électronique et vos catégories utilisent le paramètre URL « trier » pour définir le mode de commande (plus vendu, plus récent, alphabétique, prix, etc.).Comment PlayStation Store ici :Vous pouvez GSC - Paramètres URL - Exemple de Playstation Store dire immédiatement à Google que vous n’avez pas besoin d’indexer (et de numériser) ces URL.

Voici comment vous le faites dans Google Search Console:

Allez à (vieux) GSC → Scan → Paramètres URL et vous devriez voir quelque chose de similaire dans la capture d’écran ci-dessous.

GSC - Paramètres URLPour en modifier un, cliquez sur Modifier et un petit pop-up apparaîtra – semblable à celui indiqué ci-dessous.

GSC - Exemple de paramètre URLToutes les options de configuration disponibles sont les suivantes :

  • Ce paramètre modifie-t-il le contenu de la page affichée par l’utilisateur ?
    • Oui : modifier, réorganiser ou restreindre le contenu de la page
    • Non: n’affecte pas le contenu de la page (par ex. Utilisation des pistes)
  • Comment ce paramètre affecte-t-il le contenu de la page ?
    • Les tris
    • Les flèches
    • Spécifications
    • traduit
    • page
    • Autres
  • Quelles URL avec ce paramètre Googlebot doit-il analyser ?
    • Laissez Googlebot décider: je n’utiliserais pas cela à moins d’être sûr à 100% que Google le découvrira lui-même.(J’en doute…)
    • Chaque URL
    • URL avec valeur uniquement
    • Pas d’URL

N’oubliez pas de consulter les exemples d’URL que Google suit avec chaque paramètre.Les modifications sélectionnées dans le formulaire refléteront les URL qui seront indexées ou non.

Voici un exemple d’un autre site client, où nous ne voulions qu’une valeur spécifique pour le paramètre sampleid indexé:

GSC - Exemple de configuration exacte du paramètre URL

Mise en œuvre

La liste des éléments d’action ci-dessus est variée et complète.Pratiquement, l’équipe search initiative est bien placé pour répondre aux exigences d’un projet comme celui-ciPlanifiez un appel-CTAAvec l’utilisation de notre logiciel de gestion de projet, le travail d’équipe , nous créons un plan de match et de mettre en œuvre le travail rapidement.

Voici une capture d’écran d’un exemple de campagne impliquant plusieurs pièces mobiles SEO simultanément: Travail d’équipe - Activités planifiées En matière d’audit et de mise en œuvre, la clé est d’avoir des normes élevées.

Résoudre un problème avec un travail médiocre est pire que de résoudre correctement un problème moins important.

Les résultats: récupération algorithmique

ainsi… À quoi ressemble le retour aux SERP?

Grâce à l’approche itérative après une série de cycles, le client a été bien placé pour certains gains la prochaine fois que l’algorithme a été mis en œuvre.

Résultats - Comparaison de février à mars

Cette augmentation des mots clés s’est produite sur une période d’une semaine: Résultats - Augmente le classement Et nous avons vu une augmentation des classements à tous les niveaux – les mots clés ont bondi dans les premières positions, les nouveaux mots clés ont commencé à se classer à partir de rien …

Tous.

Résultats - Mots-clés

Voici les résultats d’une mise à jour pré-medic et d’une comparaison des mises à jour post-mars.Nous sommes atteints et en bonne position pour atteindre le trafic record le mois prochain.

Résultats - Comparaisons de juillet 2018 à avril

Et voici le graphique Ahrefs pour voir la chute et la montée:

Résultats - Ahrefs

Dans l’écran ci-dessus, je mentionne la phase de compatibilité parce que chaque projet de STI se divise en trois périodes triennales:la phase de compatibilité de Google généralement les 3-4 premiers mois.

Il nous engage à jeter les bases de la campagne, à préparer le site à des augmentations plus importantes des résultats.

Ou, comme dans ce cas, nous faisons tout notre possible pour regagner le trafic après des surprises désagréables de Google.

La phase d’autorité de Google : pour une campagne moyenne, cette phase se produit dans les mois 5-8.

Ici, nous commençons à cibler des mots clés à concurrence plus élevée.

Le stade avancé de l’autorité de Google – généralement de huit mois à un an.

C’est lorsque nous exploitons l’autorité déjà établie en augmentant le nombre de pages classées en position élevée.Nous optimisons les pages pour d’autres conversions et augmentations de revenus.

Il nous a fallu quelques mois pour profiter pleinement du travail que nous avions fait dans la campagne.Beaucoup de propriétaires de sites ne sont pas si patients et ne veulent pas toujours attendre jusqu’à ce moment glorieux.

Mais c’est une bonne chose.Il rend les choses plus faciles pour ceux d’entre nous qui le dépassent.

Dans notre cas, la récupération a coïncidé avec une deuxième mise à jour majeure de l’algorithme le 12 mars.

Bien sûr, vous pouvez le lire et dire: « Hé, c’est l’algorithme qui revient.Vous n’auriez rien pu faire et obtenir ces gains. « Voici leurs concurrents qui n’ont rien fait :Concurrentn° 1Résultats - Concurrent 1Concurrentn° 2Concurrent n° 3

Résumé

À mesure que le monde du référencement évoluera et que Google deviendra de plus en plus sophistiqué, ces mises à jour de qualité de base deviendront inévitablement plus fréquentes.

Cette étude de cas vous a fourni des informations de première main de The Search Initiative sur la façon de configurer votre site pour bénéficier réellement de futures mises à jour algorithmiques.

  • Vous avez appris les nombreuses modifications apportées par Google et les mises à jour régulières des algos.
  • Vous avez également découvert les différentes étapes du processus de vérification et d’amélioration de votre site.
  • Mais, plus important encore, vous avez vu que le travail acharné, l’analyse approfondie et l’engagement à long terme portent toujours leurs fruits.

Bien que les stratégies de référencement utilisées soient essentielles au succès continu de toute campagne, il y a un élément plus important : l’élément humain.