Mise à jour de base de Mai 2020 de Google (Google Core Update): Gagnants, futurs gagnants, perdants, et pourquoi c’est probablement toutes les conneries

Le 4 mai, Google a annoncé qu’ils déployaient une nouvelle mise à jour de base.Le 7 mai, il semblait que la poussière s’était en grande partie calmée.Voici une vue de 11 jours de MozCast:

Nous avons mesuré une volatilité relativement élevée du 4 au 6 mai, avec un pic à 112,6° le 5 mai. Notez que la température moyenne à 30 jours avant le 4 mai était historiquement très élevée (89,3°).

Comment se compare-t-il aux mises à jour de base précédentes ?Avec la mise en garde que les températures récentes ont été bien au-dessus des moyennes historiques, la mise à jour principale mai 2020 a été jusqu’à présent notre mise à jour principale la plus chaude, venant juste en dessous de la mise à jour août 2018 « Medic ».

Qui a « gagné » la mise à jour principale du mois de mai?

Il est courant de signaler les gagnants et les perdants après une mise à jour majeure (et je l’ai fait moi-même), mais depuis un certain temps maintenant, j’ai été inquiet que ces analyses ne capturent qu’une petite fenêtre de temps.Chaque fois que nous comparons deux points fixes au fil du temps, nous ignorons la volatilité naturelle des classements de recherche et les différences inhérentes entre les mots clés.

Cette fois, j’aimerais jeter un coup d’œil aux pièges.Je vais me concentrer sur les gagnants.Le tableau suivant montre les gagnants d’un jour (5 mai) en fonction du classement total dans l’ensemble de suivi MozCast de 10 000 mots clés.Je n’ai inclus que des sous-ensembles avec au moins 25 classements le 4 mai :

Mettre de côté les soupçons statistiques habituels (petite taille de l’échantillon pour certains mots clés, avantages et inconvénients uniques de notre ensemble de données, etc.), Quel est le problème avec cette analyse?Bien sûr, il existe plusieurs façons de signaler le « gain% (comme un changement absolu par rapport au pourcentage relatif), mais j’ai signalé des chiffres absolus honnêtement et la variation relative est exacte.

Le problème est que, en cours d’exécution pour exécuter les chiffres après une journée, nous avons ignoré la réalité que la plupart des mises à jour de base sont de plusieurs jours (une tendance qui semblait se poursuivre pour la mise à jour de base mai, comme en témoigne notre tableau initial).En outre, nous n’avons pas été en mesure de prendre en compte les domaines dont le classement peut être historiquement instable (mais nous en reparlerons plus tard).Que se passe-t-il si nous comparons les données de 1 jour et 2 jours?

Quelle histoire raconte-t-on ?

Le tableau suivant ajoute le pourcentage relatif de 2 jours obtenus.J’ai maintenu les mêmes 25 sous-documents et je continuerai à les classer en fonction du pourcentage de 1 jour obtenu, pour plus de cohérence :

Même en comparant les deux premiers jours du lancement, nous pouvons voir que l’histoire change considérablement.La question est, quelle histoire disons-nous?Souvent, nous ne regardons même pas les listes, mais les anecdotes basées sur nos clients ou les données de récolte de cerises.Considérez cette histoire:

Si c’était notre seule vue des données, nous conclurons probablement que la mise à jour s’est intensifiée au cours des deux jours, avec le jour deux sites encore plus gratifiant.Nous pourrions également commencer à créer une histoire sur la façon dont la demande d’applications a augmenté ou certains sites d’information ont été récompensés.Ces histoires ont peut-être un grain de vérité, mais le fait est que nous n’en avons aucune idée à partir de ces données.

Maintenant, nous allons choisir trois points de données différents (tous ceux-ci sont dans le top 20):

De ce point de vue limité, nous pouvons conclure que Google a décidé que la mise à jour principale a mal tourné et l’a inversé le deuxième jour.Nous pouvons également conclure que certains sites d’information ont été pénalisés pour une raison quelconque.Cela raconte une histoire très différente de la première série d’anecdotes.

Il y a une histoire encore plus étrange enfouie dans les données de mai 2020.Considérez ceci :

LinkedIn a montré une légère augmentation (un que nous ignorerions généralement) le premier jour, puis a perdu 100% de son classement le deuxième jour.Wow, cette mise à jour mai a vraiment un coup de poing!Il s’avère que LinkedIn a peut-être accidentellement désindexé leur site: ils ont récupéré le lendemain et il semble que cet énorme changement n’avait rien à voir avec la mise à jour principale.La simple vérité est que ces chiffres nous disent très peu sur les raisons pour lesquelles un site a gagné ou perdu des classements.

Comment définissons-nous « normal »?

Examinons plus en profondeur les données marketwatch.Marketwatch a gagné 19% en statistiques d’un jour, mais a perdu 2% en chiffres de 2 jours.Le problème ici est que de ces chiffres, nous ne savons pas ce que le flux normal serp marketwatch est.Voici un tableau de sept jours avant et après le 4 mai (le début de la mise à jour de base) :

En regardant même un peu de données historiques, nous pouvons voir que MarketWatch, comme la plupart des sites d’information, connaît une volatilité significative.Les « gains » du 5 mai ne sont dus qu’aux pertes du 4 mai. Il s’avère que la moyenne sur 7 jours après le 4 mai (45,7) n’est qu’une légère augmentation par rapport à la moyenne sur 7 jours avant le 4 mai (44,3), MarketWatch mesurant un gain relatif modeste de +3,2%.

Maintenant, nous allons jeter un oeil à Google Play, qui semblait avoir été un gagnant clair après deux jours:

Vous n’avez même pas besoin de faire des maths pour repérer la différence ici.En comparant la moyenne sur 7 jours avant le 4 mai (232,9) à la moyenne de 7 jours plus tard (448,7), Google Play a enregistré un changement relatif significatif de +93% après la mise à jour principale de mai.

Comment cette comparaison fonctionne-t-elle avant/après 7 jours avec l’incident LinkedIn ?Voici un graphique de l’avant/après avec les lignes pointillées ajoutées pour les deux moyens :

Bien que cette approche aide certainement à compenser l’anomalie d’un jour, nous montrons toujours un changement avant / après de -16%, ce qui n’est pas vraiment en ligne avec la réalité.Vous pouvez voir que six des sept jours suivant la mise à jour principale en mai étaient supérieurs à la moyenne de 7 jours.Notez que LinkedIn a également une volatilité relativement faible par rapport à l’histoire à court terme.

Pourquoi suis-je ramasser une cerise pourrie avec un exemple extrême où ma nouvelle métrique n’est pas à la hauteur?Je tiens à préciser qu’aucune mesure ne peut jamais raconter toute l’histoire.Bien que nous avons tenu compte de la variance et effectué des tests statistiques, il manque encore beaucoup d’informations.Une nette différence avant/après ne nous dit pas ce qui s’est réellement passé, seulement qu’il y a eu un changement lié au calendrier de la mise à jour de base.Il s’agit d’informations utiles, mais elles nécessitent encore une enquête plus approfondie avant de passer à des conclusions détaillées.

Dans l’ensemble, cependant, l’approche est certainement meilleure que les sections d’une journée.L’utilisation des comptes de comparaison avant et après moyenne de 7 jours pour les données historiques et de sept jours complets après la mise à jour.Que se passe-t-il si nous prolongeons cette période de comparaison de 7 jours avec le plus grand ensemble de données?Voici notre liste de « gagnants » originaux avec les nouveaux numéros:

Bien sûr, c’est beaucoup à digérer dans un tableau, mais nous pouvons commencer à voir où la mesure avant et après (la différence relative entre les moyennes de 7 jours) montre une image différente, dans certains cas, que la vue de 1 jour ou 2 jours.Allons-y et reconstruisons le top 20 en fonction du changement de pourcentage avant et après :

Certains des grands joueurs sont les mêmes, mais nous avons aussi quelques nouveaux venus, y compris des sites qui semblaient avoir perdu de la visibilité le premier jour, mais qui ont accumulé des gains de 2 et 7 jours.

Jetons un coup d’oeil rapide à Parents.com, notre grand gagnant d’origine (gagnant? Gagnant le plus?).Le premier jour a montré un gain massif de +100% (visibilité doublante), mais les chiffres du deuxième jour ont été plus modestes et les gains avant et après sont venus à un peu moins du milieu de la première journée.Voici les sept jours avant et après :

Il est facile de voir ici que le saut du premier jour a été une anomalie à court terme, basée en partie sur une baisse du 4 mai. La comparaison des moyennes sur 7 jours semble se rapprocher de la vérité.Il s’agit d’un avertissement non seulement pour les trackers algo comme moi, mais pour les SEOs qui pourraient le voir + 100% et se précipiter pour dire à leur patron ou client.Ne laissez pas les bonnes nouvelles se transformer en une promesse que vous ne pouvez pas tenir.

Pourquoi on continue à faire ça ?

S’il semble que j’appelle l’industrie, remarquez que je suis exactement dans ma ligne de mire ici.Il ya une énorme pression pour publier l’analyse à l’avance, non seulement parce qu’il équivaut à du trafic et des liens (franchement, il le fait), mais parce que les propriétaires de sites et seos veulent vraiment les réponses.Comme je l’ai écrit récemment, je pense qu’il y a un énorme danger à surinterpréter les pertes à court terme et à réparer les mauvaises choses.Toutefois, je pense qu’il y a aussi un réel danger à surestimer les gains à court terme et à s’attendre à ce que ces gains soient permanents.Cela peut conduire à des décisions tout aussi risquées.

C’est la pagaille ?Non, je ne pense pas, mais je pense qu’il est très facile de descendre du trottoir et dans la boue après une tempête, et au moins nous devons attendre que le sol se dessèche.Ce n’est pas facile dans un monde de 24 heures de Twitter et les cycles de nouvelles, mais il est essentiel d’obtenir une vue de plusieurs jours, d’autant plus que tant de mises à jour algorithme grande s’étendent sur de longues périodes de temps.

Quels chiffres devrions-nous croire?D’une certaine façon, tous, ou du moins tous que nous pouvons vérifier correctement.Aucune mesure unique ne peins jamais toute l’image, et avant de vous précipiter pour célébrer être sur la liste des gagnants, il est important de passer à l’étape suivante et de vraiment comprendre les tendances historiques et le contexte de chaque victoire.

Qui veut des données gratuites?

Compte tenu de la portée de l'analyse, je n'ai pas couvert les perdants de la mise à jour principale de mai 2020 dans cet article ou je n'ai pas dépassé le top 20, mais vous pouvez télécharger les données brutes ici.Si vous souhaitez le modifier, créez d’abord une copie. Les gagnants et les perdants sont dans des onglets séparés, et cela couvre tous les domaines avec au moins 25 classements dans notre ensemble de données Mozercast 10K le 4 mai (un peu plus de 400 domaines).

Open

info.ibdi.it@gmail.com

Close