Spero che tu non abbia mai dovuto soffrire il dolore di essere colpito da un aggiornamento algoritmico.
Ti svegli una mattina, il tuo traffico viene decimato e il tuo tracker di rango è disseminato di frecce rosse.
Le penalità algoritmiche non sono un argomento che mi piace banalizzare, ecco perché il case study che sto per condividere con te è diverso da quello che hai letto in precedenza.
Questo caso di studio è una testimonianza di fede e duro lavoro alla luce di un enorme cambiamento nel panorama SEO.
Sfortunatamente, con gli aggiornamenti algoritmici di base non puoi semplicemente cambiare alcune cose e aspettarti di ottenere un immediato recupero della classifica.
Il meglio che puoi fare è prepararti per il prossimo round di aggiornamento.
Se hai fatto tutte le cose giuste, sperimenterai guadagni come non hai mai visto prima.
Anche se non sei mai stato colpito da una pena algoritmica, dovresti preoccuparti di questi aggiornamenti.
Fare le cose giuste e rimanere un passo avanti può mettere il tuo sito in posizione per ottenere enormi guadagni durante il lancio di un algoritmo.
Quindi quali sono le “cose giuste”? Cosa devi fare sul tuo sito web per configurarlo per questi tipi di classifica aumenta quando gli algoritmi cambiano?
Questo caso di studio della mia agenzia The Search Initiative ti mostrerà.
La sfida: svalutazione dell ‘”algoritmo medico”
Voglio iniziare questo caso di studio riportandoti alle sue origini.
C’è stato un grande aggiornamento dell’algoritmo il 1 ° agosto 2018. Molti SEO lo hanno definito un “aggiornamento medico” perché ha preso di mira un enorme numero di siti relativi alla salute e alla medicina.
https://www.seroundtable.com/google-medic-update-26177.html
Che aspetto ha un aggiornamento dell’algoritmo?
Cominciamo con alcuni fatti.
Fatto n. 1: Google esegue costantemente esperimenti di ricerca.
Per citare Google dalla loro pagina ufficiale della missione :
“Nel 2018, abbiamo eseguito oltre 654.680 esperimenti, con addestratori di ricerca esterni addestrati e test dal vivo, con oltre 3234 miglioramenti alla ricerca.”
Ecco i numeri ufficiali relativi agli esperimenti di ricerca eseguiti l’anno scorso:
- 595.429 Test di qualità della ricerca : questo è il numero di test progettati per essere eseguiti nei motori di ricerca. Alcuni di essi erano solo concettuali e si sono dimostrati algoritmicamente inefficaci, quindi non sono mai arrivati alle successive fasi di test.
- 44.155 esperimenti side-by-side : ecco quanti test hanno eseguito i loro Quality Rater di ricerca. Il team SQR esamina i risultati della ricerca di vecchi e nuovi algoritmi fianco a fianco. Il loro compito principale è valutare la qualità dei risultati ricevuti, che a sua volta valuta la modifica dell’algoritmo. Alcune modifiche vengono ripristinate in questa fase. Altri riescono a superare gli esperimenti sul traffico in diretta.
- 15.096 esperimenti di traffico in tempo reale – in questa fase, Google sta rilasciando la modifica dell’algoritmo nei risultati di ricerca del pubblico e valuta come il pubblico più vasto li percepisce, molto probabilmente attraverso i test A / B. Ancora una volta, ci saranno alcuni rollback e il resto rimarrà nell’algoritmo.
- 3.234 lanci – tutte le modifiche che hanno implementato.
Fatto n. 2: Google pubblica ogni giorno miglioramenti dell’algoritmo e aggiornamenti core più volte all’anno!
Tenendo presente tutto quanto detto sopra, Google rilascia miglioramenti algo praticamente ogni giorno.
Fai i conti …
Hanno anche confermato di implementare gli aggiornamenti della qualità del core più volte all’anno:
Quando sospetti che qualcosa stia succedendo, puoi confermarlo semplicemente saltando sul tuo sensore SERP preferito per controllare la confusione:
https://www.semrush.com/sensor/
Durante questo periodo, le classifiche in genere oscillano e alla fine si stabilizzano. Come nello screenshot qui sotto:
Molti SEO (me compreso) ritengono che durante la fase di fluttuazione pesante, Google stia adattando le modifiche che hanno appena implementato.
È come mentre stai cucinando una zuppa.
Innanzitutto, aggiungi tutti gli ingredienti, aggiungi alcune spezie e lascialo cuocere per qualche tempo.
Quindi lo assaggi e aggiungi più sale, pepe o quant’altro sia necessario per renderlo buono.
Infine, ti accontenti del gusto che ti piace.
(In realtà non ho mai cucinato minestre diverse dal ramen, quindi spero che questa analogia abbia un senso.)
Fatto n. 3: inizialmente ci sarà più rumore che segnale.
Una volta che c’è un aggiornamento algo, in particolare uno ufficialmente confermato, molti SEO in erba si lanceranno in overdrive scrivendo post sul blog con teorie su quali cambiamenti particolari sono stati fatti.
Onestamente, è meglio lasciare che le cose si sistemino prima di teorizzare:
Uno dei punti di forza che abbiamo come proprietari di siti Web è che siamo in molti – e i dati raccolti dai webmaster nei forum e su Twitter sono talvolta sufficienti per fornire un’indicazione delle modifiche che potresti eventualmente apportare ai tuoi siti.
Tuttavia, questo non è solitamente il caso, e quando lo è, di solito è difficile dire se ciò che i webmaster stanno segnalando sia effettivamente corretto.
Tieni d’occhio coloro di cui ti fidi per dare un buon consiglio.
Detto ciò…
Nella mia agenzia, raccogliamo sempre molti dati e prove prima di saltare qualsiasi conclusione … e dovresti fare lo stesso.
Molto presto, arriveremo a quei dati.
La domanda: pena algoritmica o svalutazione?
Quando le cose vanno male per te durante un aggiornamento algoritmico, molti SEO lo chiamerebbero una “pena algoritmica”.
All’Iniziativa di ricerca , NON CONVENGIAMO con questa definizione!

In parole povere:
- Pena algoritmica – invocata quando fai qualcosa contro i termini di Google da un po ‘di tempo, ma non è stato sufficiente per innescarlo fino ad ora. Viene applicato come punizione.
- Svalutazione algoritmica – che di solito accompagna un aggiornamento della qualità o un ampio cambio di algoritmo. Funziona a livello centrale e può occasionalmente influenzare le tue classifiche per un periodo di tempo più lungo. Applicato a seguito del più ampio spostamento nella valutazione della qualità.
Ad ogni modo, chiamalo come vuoi – l’aggiornamento fondamentale dell’algo che ti colpisce significa che Google ha svalutato il tuo sito in termini di fattori di qualità .
Uno spostamento algoritmico che colpisce il tuo sito non dovrebbe essere definito una penalità. Dovrebbe essere visto come una svalutazione . | ![]() ![]() |
Non sei stato preso di mira, ma un sacco di fattori sono cambiati e ogni singolo sito non conforme a questi nuovi fattori sarà svalutato allo stesso modo.
La cosa buona di tutto questo … una volta identificati quei fattori e agendo su di essi, sarai un’ottima posizione per beneficiare effettivamente del prossimo aggiornamento.
Come sapere che sei stato colpito da un aggiornamento Algo?
In alcuni casi, un improvviso calo del traffico renderà le cose ovvie, come questo particolare sito che vorrei esaminare in modo più specifico.
Ma ci arriveremo tra un secondo.
In generale, se il tuo traffico precipita da un giorno all’altro, dovresti guardare gli strumenti di monitoraggio degli algoritmi (come quelli sotto) e controllare i gruppi di Facebook e Twitter.
Monitoraggio modifiche algoritmo di Google:
- https://www.semrush.com/sensor/
- https://moz.com/mozcast/
- https://algoroo.com/
- https://www.rankranger.com/google-algorithm-updates
- https://cognitiveseo.com/signals/
Gruppi Facebook utili:
Utili account Twitter da seguire
Il paziente: il sito del nostro cliente
Il cliente è salito a bordo in risposta a come sono stati interessati dall’aggiornamento di agosto.
Hanno aderito alla STI verso la fine di ottobre.
Si trattava dell’aggiornamento di agosto 2018 di cui stavamo parlando – e ancora nessuno è sicuro al 100% delle sue specificità.
Tuttavia, abbiamo alcune osservazioni forti. 😉
Tipo di sito e nicchia
Ora incontriamo il nostro paziente.
Il sito Web è un sito affiliato delle dimensioni di un’autorità con circa 700 pagine indicizzate.
La sua nicchia si basa su integratori per la salute, la dieta e la perdita di peso.
I sintomi
Dato che l’industria continuava a litigare, non c’erano ovvie “soluzioni rapide” a questo problema.
In verità, probabilmente non ci saranno mai più “soluzioni rapide” per gli aggiornamenti su vasta scala.
Tutto ciò con cui abbiamo dovuto lavorare è stato questo:
Si può vedere che in questo caso particolare, il numero di utenti che visitano il sito è diminuito del 45% tra luglio e agosto.
Se osserviamo ottobre, quando eseguiamo tutte le nostre analisi e creiamo il piano d’azione, il traffico organico sembra ancora più pessimista:
Con l’evidenza di nicchia, sito e cronologia, potremmo facilmente concludere quanto segue:
Corrispondenza del 100% con l’aggiornamento “Medic”
Come l’abbiamo recuperato: quali sono le “cose giuste”?
Per contestualizzare il nostro processo decisionale su questo progetto, questo è un riassunto di ciò che sappiamo e di ciò che sapevamo allora:
Quello che sapevamo allora
- Sembrava che molti dei siti colpiti si trovassero nelle nicchie sanitarie e mediche (da cui l’aggiornamento “Medic”).
- I siti Web hanno subito una grave flessione delle classifiche.
- Le classifiche sono state influenzate dalla prima pagina in poi. (Ciò è stato sorprendente: la maggior parte degli aggiornamenti precedenti ha avuto un impatto minore a pagina 1.)
- Molti grandi siti con enorme autorità e altissima qualità sono stati svalutati. Avevamo ipotizzato che ciò avrebbe suggerito un errore da parte di Google …
Quello che sappiamo ora
- “L’aggiornamento di agosto” ha interessato siti di varie nicchie.
- Gli effetti di ciò sono stati particolarmente potenti per i siti dell’ampia nicchia sanitaria con autorità di sottoparte e segnali di fiducia.
- Questo cambiamento è stato considerato da alcuni come un passo deliberato verso la visione filosofica che Google aveva presentato dalla prima menzione di YMYL nel 2013.
- L’aggiornamento ha coinciso accidentalmente con un aggiornamento delle Linee guida per la valutazione della qualità di Google . (Il documento sottolinea ulteriormente come MANGIARE i siti YMYL. Nessun gioco di parole.)
- Il contenuto è stato una parte molto importante della valutazione della qualità. In particolare – cannibalizzazione del contenuto.
- Le modifiche apparentemente erano lì per rimanere (nessun rollback attraverso le scosse di assestamento di settembre – al contrario) e non c’erano soluzioni rapide.
Soluzione rapida?
Sfortunatamente, a differenza delle azioni manuali, non ci sono linee guida che puoi seguire semplicemente per “riaccendere” le tue classifiche.

Una svalutazione algoritmica è un prodotto del cambiamento guidato dai dati. Significa essenzialmente che ciò che stavi facendo in precedenza non è più considerato ciò che gli utenti desiderano quando cercano i termini per cui stavi in precedenza. Non è più la cosa giusta.Lo riassumo in una dichiarazione molto semplice (che è diventata il nostro motto):
Discutiamo quali sono “tutte le cose” …
Gli strumenti necessari per il controllo
Il controllo dei siti Web è un processo iterativo.
- Raccolta dati
- Apportare modifiche
- Comprensione dell’impatto delle modifiche
- Raccolta dati
- Apportare modifiche
Avere accesso agli strumenti necessari per eseguire un controllo completo e rapido di un sito è davvero utile quando non vi è alcun problema ovvio e specifico da risolvere e è necessario risolvere tutto .
Ecco gli strumenti principali che abbiamo usato e come li abbiamo usati.
Google Search Console (l’essenziale)
La scheda di copertura sulla barra di navigazione a sinistra è il tuo amico.
Elaborerò ulteriormente l’approccio e l’uso del Rapporto sulla copertura dell’SGC di seguito .
Usando lo strumento Controllo URL puoi controllare il tuo sito pagina per pagina per determinare se ci sono problemi con la pagina.
O se vuoi solo scoprire se il tuo sito viene migrato sul primo indicizzazione mobile:
Ahrefs (The Ninja)
Se hai un abbonamento Ahrefs , il loro nuovo strumento di controllo del sito è un modo eccellente per controllare ripetutamente il tuo sito.
Alcuni dei principali errori e avvertimenti che stai cercando con Ahrefs sono problemi di velocità della pagina, problemi di ottimizzazione dell’immagine, errori interni 4xx o 5xx, ancore interne, ecc.
Quello che mi piace di più è che puoi programmare l’esecuzione della scansione ogni settimana e Ahrefs ti mostrerà tutti i miglioramenti (e tutti i deragliamenti) mentre si verificano.
Ecco uno screenshot di un cliente in cui abbiamo eseguito un’analisi Ahrefs settimanale e periodica e abbiamo cercato di mantenere un punteggio di salute del 95% +.
Dovresti fare lo stesso.
Ovviamente, abbiamo anche usato il nostro strumento ninja (Ahrefs) per l’analisi dei link ( vedi sotto ), ma chi no?
Sitebulb (New Kid on the Block)
Potresti riconoscere il nome se hai letto il mio caso studio di penalità algoritmica .
Sitebulb è particolarmente bravo nel dirti esattamente quali sono i problemi. È uno strumento di analisi e un crawler.
Ecco alcuni esempi (interessanti) dei problemi che Sitebulb è in grado di scoprire per te:
- URL duplicati (duplicati tecnici)
- URL con contenuti duplicati
- L’URL si risolve in HTTP e HTTPS
- URL che hanno un collegamento interno senza testo di ancoraggio
- L’URL di impaginazione non ha collegamenti interni in entrata
- L’URL riceve entrambi i link interni follow & nofollow
- Dimensione della pagina totale troppo grande per le connessioni 3G
- Il CSS critico (above the fold) non è stato trovato
- Risposta del server troppo lenta con un Time-to-First-Byte maggiore di 600ms
- L’URL della risorsa della pagina fa parte di un ciclo di reindirizzamento incatenato
- Contenuto misto (carica risorse HTTP sull’URL HTTPS)
Questi “suggerimenti” ti aiuteranno con efficienza. Ottieni approfondimenti che ti consentono di raggruppare semplici problemi nel problema sovrastante, in modo tale da poterli risolvere tutti in una volta, piuttosto che individualmente.
La mia squadra adora Sitebulb. Si è rivelato incredibilmente utile per la strategia di revisione iterativa.
Se non sai cos’è Sitebulb, ti consiglio di dare un’occhiata.
Surfer SEO (SERP Intelligence 007)
Mi sono innamorato di Surfer SEO nel momento in cui ho iniziato a giocarci.
È diventato uno strumento base di The Search Initiative .
Presto imparerai tutto su come utilizzare Surfer SEO per ottimizzare i tuoi contenuti.
Ripristino, ottimizzazione e implementazione
Soddisfare
Poiché sapevamo che gran parte dell’aggiornamento è contenuto, abbiamo avviato un’analisi pagina per pagina, esaminando ogni pagina del sito del cliente.
Potatura del contenuto
Durante l’ultima conferenza SEO di Chiang Mai , a soli 3 mesi dall’aggiornamento, il nostro direttore della SEO, Rad aveva condiviso alcuni dei problemi più comuni riguardanti l’ultimo aggiornamento.
Alcuni recuperi che abbiamo visto in questi 3 mesi hanno suggerito che uno dei maggiori problemi era la cannibalizzazione dei contenuti.
Di seguito sono riportati i 10 problemi più comuni di Rad che abbiamo riscontrato riguardavano principalmente l’aggiornamento di agosto:
Con questo in mente, abbiamo iniziato a visitare il sito, posta per posta, ristrutturando il contenuto.
Puoi affrontarlo in 2 modi:
1. Pagine di consolidamento : qui si identificano le pagine (tramite revisione manuale) che coprono gli stessi argomenti e le si combinano.
Una volta consolidato il contenuto, reindirizza la pagina con meno parole chiave a quella con più.
Alcuni esempi di quali messaggi puoi consolidare:
- 5 popolari dispositivi XYZ che funzionano
5 I migliori dispositivi XYZ del 2020 I
migliori dispositivi XYZ che funzionano davvero
- 11 cose che causano XYZ e i loro rimedi
Quali sono le cause XYZ? - Il migliore XYZ essenziale XYZ
senza il quale non puoi vivere
2. Potatura : qui selezionate le pagine che corrispondono ai criteri seguenti e le reindirizzano alle rispettive categorie:
- Traffico minimo negli ultimi 12 mesi (<0,5% del totale).
- Nessun link in entrata esterno.
- Non necessario (non rimuovere la pagina “Chi siamo” o “Informativa sulla privacy”, ok?).
- Non classificato per nessuna parola chiave.
- Più di 6 mesi (non rimuovere nuovi contenuti!).
- Non può essere aggiornato o non ha senso aggiornarli (ad es. Prodotti obsoleti, ecc.).
Spoglia il sito Web da qualsiasi contenuto che possa influire sulla qualità generale del sito.
Assicurati che ogni singola pagina del sito abbia uno scopo.
Miglioramento dei segnali EAT
Intorno all’aggiornamento di “The Medic”, potresti sentire molto sull’EAT (Competenza – Autorità – Affidabilità).
Il fatto è che Google apprezza davvero contenuti unici e di alta qualità, scritti da un autorevole esperto. È anche abbastanza bravo a determinare l’autorità e la qualità, insieme a tutti gli altri segnali di pertinenza.
Indipendentemente dal fatto che tu creda che l’algoritmo (e non gli umani reali) sia in grado di rilevare questi segnali EAT, possiamo supporre che l’algo possa captarne alcuni .
Quindi torniamo a fare “tutte le cose”.
Ecco cosa è stato prescritto:
- Crea le proprietà dei social media del sito e collegale con il markup dello schema “sameAs” .
- Formatta meglio i paragrafi e scrivi paragrafi più brevi: i siti delle autorità non commetterebbero questi errori di leggibilità.
- Non sovraccaricare i CTA: avere pulsanti di invito all’azione è importante, ma averli in modo intuitivo è ancora più importante!
Ecco com’era in origine: alcuni post avevano un CTA ogni 2 paragrafi:
- Migliora i tuoi personaggi – La creazione dell’autorità online dei loro “autori” li aiuta a migliorare l’autorità generale del sito e aumenta le competenze.
- Link alla tua pagina Chi siamo dal menu principale – Non fa davvero male!
- Costruisci la tua pagina Chi siamo in modo che dimostri la tua competenza e autorità – questo è un buon esempio .
- Includi la pagina Contattaci – ci dovrebbe essere un modo per i tuoi visitatori di mettersi in contatto!
Ecco un ottimo esempio (senza nemmeno usare un modulo di contatto!): - Creazione di una pagina di esclusione di responsabilità aggiuntiva: una buona pratica è quella di creare una pagina di esclusione di responsabilità aggiuntiva collegata dal menu a piè di pagina e referenziata in qualsiasi punto della dichiarazione di non responsabilità.
- Migliora le tue pagine di autori: ecco un ottimo esempio .
- Migliorare la qualità dei contenuti – La qualità dei contenuti per le pagine YMYL (Your Money o Your Life – siti che incidono direttamente sullo stato finanziario o sul benessere dell’utente) dovrebbe essere assolutamente affidabile.
Per questo ci sono linee guida di valutazione .

Tag di intestazione
Sul sito del nostro cliente, le intestazioni H3 su molte pagine dovevano essere contrassegnate come H2. Alcune voci H1 sono state contrassegnate come H2.
Vai su ciascuno dei tuoi articoli pubblicati e assicurati che la struttura di ogni pagina sia contrassegnata correttamente dal punto di vista SEO.
NON CORRETTO![]() ![]() |
CORRETTA![]() ![]() |
Non è un giornale, quindi non dovresti avere sempre la gerarchia di intestazione corretta.
Ma per favore, almeno tienilo in ordine.
Aiuta davvero Google a cogliere le parti più importanti del contenuto e la gerarchia semantica delle sezioni. Ulteriori informazioni sulla struttura delle intestazioni nella mia Guida SEO in loco Evergreen .
Modifiche al contenuto
Il nome del gioco è scrivere il miglior contenuto possibile.
Se hai bisogno di aiuto con questo, i servizi di seo organici offrono ottime opzioni qui .
Ad ogni modo, ti richiede di controllare ciò che è già in classifica a pagina 1 e di superarli tutti.
Ciò significa che dovrai eseguire periodicamente questo controllo, poiché la pagina 1 è costantemente in evoluzione.
Lo strumento di cui sopra – Surfer SEO – ha dimostrato di essere un software straordinario. Senza di essa, non potremmo fare un’analisi completa e approfondita come questa in un ragionevole lasso di tempo.
Usiamo una parola chiave di esempio “migliori reti di affiliazione” con 800 ricerche mensili solo negli Stati Uniti.
Il mio sito sta già andando bene nella top10, ma non è il numero 1.
Innanzitutto, esegui Surfer per questa parola chiave e imposta il Paese di destinazione come preferisci, nel mio caso, gli Stati Uniti.
Ci vorrà un minuto per eseguire l’analisi. Una volta fatto, vai al rapporto:
Quello che vedi qui sono:
- Classificazione dei fattori disponibili : dal numero di parole nella pagina al numero di sottotitoli, viene misurato ciascun fattore. Puoi vedere rapidamente quanto contano questi fattori per le prime posizioni a pagina 1. Surfer calcolerà automaticamente la correlazione di ogni misurazione che viene presentata come una piccola icona di “intensità del segnale” accanto a ciascun fattore. L’elevata potenza del segnale significa che questo fattore è importante per il posizionamento nelle prime posizioni.
- Grafico principale per la metrica selezionata : in questo caso, # di parole nel corpo. Come puoi vedere dal grafico, i risultati nelle prime 3 posizioni hanno molte più parole delle altre.
- Impostazioni del grafico – Mi piace avere Surfer impostato per mostrare le medie di 3 posizioni. Questo mi aiuta a comprendere meglio le medie visivamente.
Potresti aver notato la linea attraverso il grafico che mostra il valore di 4933 parole. È un valore esatto per il mio sito , che ho abilitato qui:
- Digita il tuo dominio nel campo di ricerca sotto il grafico
- Dovrebbe trovarlo nei risultati della ricerca.
- Fai clic sull’icona ‘occhio’ per averlo tracciato nel grafico.
Sexy.
Ma questa non è nemmeno la parte migliore di Surfer SEO.
La funzione di controllo – Surfer può controllare la tua pagina in base ai primi 5 concorrenti e mostrarti tutti i fattori correlati analizzati per questa pagina.
Ecco come appare la pagina Le migliori reti di affiliazione sul mio sito:
(Se vuoi dare un’occhiata al controllo completo – è condiviso qui )
Ora posso guardare i consigli in dettaglio, come il numero raccomandato di parole nel corpo:
Le prime 2 pagine hanno contenuti significativamente più lunghi. Quindi, prima nell’elenco delle attività è aggiungere qualche parola in più.
Prima di andare a farlo, però, vorrei assicurarmi di usare tutte le parole e le frasi comuni come gli altri concorrenti .
E puoi vederlo qui, in dettaglio:

Titoli di pagina e descrizioni meta
Ottimizza i tag del titolo per conformarti alle migliori pratiche SEO:
- Mantieni la frase chiave principale insieme e in primo piano
- Mantieni i titoli relativamente brevi e pertinenti
- Includi elementi che miglioreranno il tuo CTR ( https://ahrefs.com/blog/title-tag-seo/ )
- Quando includi un anno (ad es. “La migliore XYZ nel 2020”), ricorda l’algoritmo di freschezza ( menzioni del 2007 e del 2017 – fidati di me, è ancora una cosa) e assicurati di tenerlo aggiornato
- Non esagerare con il clickbait – se lo fai, guarda crescere le tue frequenze di rimbalzo – questo è male!
- DSS: Don’t Spam Silly – ovvio, vero? Non raddoppiare il conteggio delle parole chiave
- Renderlo unico
Assicurati di correggere meta descrizioni mancanti, troppo corte o troppo lunghe come una vittoria rapida per il tuo punteggio di qualità generale.
Ottimizzazione delle dimensioni dell’immagine
Ottimizza tutte le immagini importanti con dimensioni superiori a 100 KB comprimendo e ottimizzando tramite ShortPixel . Le tue pagine ora useranno meno larghezza di banda e caricheranno più velocemente.
Ecco il riepilogo completo della nostra ottimizzazione di Shortpixel per questo client:
- File elaborati: 4.207
- Crediti utilizzati: 3.683
- Totale dati originali: 137.10 MB
- Perdita totale di dati: 129,32 MB
- Miglioramento globale (Lossless): 6%
- Perdita totale di dati: 88,48 MB
- Miglioramento globale (perdita): 35%
Testi alternativi
Ogni immagine dovrebbe avere un testo alternativo – questo è un dogma che non mi capita sempre di seguire, perché cosa può andare storto quando manca un tag alt dispari?
Tuttavia, il testo alternativo non è solo qualcosa da avere: è anche un fattore che può aiutare Google a capire cosa mostra l’immagine. Aggiunge inoltre importanti segnali di pertinenza ai tuoi contenuti.
Inoltre, stiamo facendo “tutte le cose”, no?
In questo caso, abbiamo ottimizzato le immagini aggiungendo testi alt naturali più descrittivi. Inoltre, ci siamo assicurati che tutte le immagini li avessero.
Ottimizzazione della struttura del sito
Riparazione di link interni
Abbiamo trovato molti collegamenti interni semplicemente errati.
Forse stavano collegando a una pagina che era stata reindirizzata 301 (a volte più volte).
Altre volte si collegavano a pagine morte (404s).
Per trovarli, abbiamo usato uno dei nostri crawler preferiti – Sitebulb :
- Vai alla verifica, quindi Reindirizza
- Guarda il numero di reindirizzamenti interni
- Apri “Suggerimenti”
4. Dall’elenco dei suggerimenti, ora è possibile visualizzare tutti i reindirizzamenti interni
5.Utilizzare il pulsante Esporta righe per esportare i dati in Excel
Abbiamo quindi corretto i collegamenti interrotti e li abbiamo aggiornati in modo che puntassero alle pagine corrette.
Collegamenti esterni interrotti
Abbiamo trovato URL non funzionanti con collegamenti naturali in arrivo.
Nel caso di pagine con un codice di stato 404, un collegamento che va a una pagina del genere è un vicolo cieco che non trasmette alcuna autorità o valore SEO alle tue pagine effettive.
Ecco dove trovarli in Ahrefs :
- Vai a Pagine → I migliori per link
- Quindi selezionare il codice di stato desiderato (nel nostro caso – 404)
- L’elenco è lì!
Puoi ordinarlo in base al numero di domini di riferimento (in ordine decrescente), in modo da poter vedere quelli più importanti in alto.
Successivamente, crea una mappa di reindirizzamento con le destinazioni più appropriate e reindirizzale in modo permanente (301) per recuperare l’equità del link perso.
SEO tecnico
Ottimizzazione della velocità della pagina
Ecco la suddivisione del traffico dei nostri clienti per tipo di dispositivo:
Vedendo valori del genere, DEVI concentrarti sulle metriche di velocità della tua pagina. Non è un “forse” è un must assoluto.
Le probabilità sono, il tuo sito e la tua nicchia sono gli stessi.
Prima:
![]() ![]() |
![]() ![]() |
Dopo:
![]() ![]() |
![]() ![]() |
Quello che abbiamo fatto – la stessa risposta: TUTTO
- Javascript minimizzato.
- CSS minimizzato.
- HTML minimizzato.
- Introduzione del caricamento lento per immagini, video e iframe.
- Combinati piccoli file CSS e Javascript per salvare i tempi di andata e ritorno.
- Miglioramento del tempo al primo byte (TTFB).
- Immagini ottimizzate.
- Introdotti formati di immagine .webp ove possibile.
- Introdotto il percorso critico CSS.
- Realizzato above the fold praticamente senza blocchi.
- Introdotto il caricamento asincrono di risorse esterne ove possibile.
- Introdotta cache HTML statica.
- Introdotto CDN.
Per la maggior parte, questi plugin erano assolutamente impagabili:
- WP Rocket – questo si occupa di molte cose dall’elenco sopra.
- Shortpixel – strumento di ottimizzazione dell’immagine molto efficace.
- Cloudflare – CDN decente che offre un’opzione gratuita.
Copertura dell’indice di Google
Questo di solito veniva affrontato in due modi:
- Rimozione di URL indesiderati dall’indice di Google.
- Revisione di tutti gli errori, avvisi ed elenchi esclusi in Google Search Console.
Google in realtà ha una guida abbastanza decente a tutti i problemi mostrati nello screenshot qui sotto:
https://support.google.com/webmasters/answer/7440203?hl=en
Devi assolutamente esaminare tutti gli errori e le avvertenze: questo è un gioco da ragazzi per risolverli.
Tuttavia, a The Search Initiative , siamo letteralmente ossessionati da questi:
- Anomalia di scansione : questi URL non sono indicizzati, perché hanno ricevuto un codice di risposta che Google non si aspettava. Abbiamo pensato che qualsiasi URL qui ci suggerisse che Google potrebbe non comprendere appieno da dove provengono e non è in grado di prevedere il struttura del sito. Pertanto, potrebbe causare problemi di scansione e indicizzazione (come la pianificazione della ricerca per indicizzazione incasinata).
- Soft 404 : questi URL sono trattati da Google allo stesso modo dei normali 404, ma non restituiscono il codice 404. Molto spesso Google sembra includere alcune pagine di denaro in questa categoria. Se succede, è davvero importante per te capire perché vengono trattati come “Non trovato”.
- Duplica senza canonico selezionato dall’utente : li odio di più. Queste sono pagine che Google ha trovato duplicate. Sicuramente dovresti implementare un reindirizzamento canonico 301 o semplicemente aggiornare il contenuto se Google ti dice direttamente che sono supportati.
- Scansionati – attualmente non indicizzati – questi sono tutti gli URL che Google ha scansionato e che non ha ancora indicizzato.
Ci sono molte ragioni per cui ciò accada:
- Le pagine non sono correttamente collegate internamente
- Google non ritiene che debbano essere indicizzati come prioritari
- Hai troppe pagine e non c’è più spazio nell’indice per inserirle. (Scopri come correggere il budget di scansione )
Qualunque cosa sia, per un piccolo sito (> 1000 pagine) questa categoria dovrebbe essere vuota.
- Duplicato, URL inviato non selezionato come canonico : questa sezione include tutti gli URL per i quali Google non è d’accordo con la tua selezione canonica. Potrebbero non essere identici o Google li ha trovati utili se indicizzati da soli.
Indaga e prova a portare il numero di essi al minimo assoluto.
Dati strutturati
Lungo la strada, abbiamo riscontrato alcuni problemi con i microdati esistenti.
Puoi capire se hai problemi lanciando la tua pagina nello strumento di test dei dati strutturati di Google :
Per risolverli, abbiamo dovuto rimuovere alcuni markup dal file header.php in WordPress.
Abbiamo anche rimosso il markup dei commenti dai post: i post non avevano commenti abilitati comunque.
Dopo aver risolto i problemi … abbiamo deciso di implementare il markup di revisione per le pagine di recensione.
Il team ha testato alcuni plug-in (incluso kk Star Ratings che è facile da implementare), ma alla fine abbiamo implementato il markup JSON-LD da soli.
Il mio prossimo post sul blog riguarderà il markup dello schema per i siti affiliati, quindi torna presto.
usabilità
Google Search Console ha segnalato tonnellate di errori del sito su dispositivi desktop e piccoli schermi.
Questi devono essere rivisti, pagina per pagina.
In genere si tratta di problemi di progettazione reattiva che possono essere risolti spostando gli elementi (se sono troppo vicini), aumentando / diminuendo le dimensioni dei caratteri e utilizzando i suggerimenti ottimizzati per dispositivi mobili di Sitebulb.
Tutti gli errori segnalati in GSC sono stati contrassegnati come corretti. Quindi abbiamo monitorato se qualcuno sarebbe riapparso.
crawlability
Tutte le sezioni del sito Web e i file che non hanno dovuto essere sottoposti a scansione sono stati bloccati dai robot del motore di ricerca.
Uno dei maggiori problemi che abbiamo riscontrato durante la fase iniziale del controllo è stato il fatto che tutti i collegamenti di affiliazione utilizzavano un reindirizzamento 302.
Ecco un esempio di come appare in Chrome usando l’estensione Percorso di reindirizzamento su un sito scelto casualmente:
Se sei stato nel mondo degli affiliati per un po ‘, sai che i “link affiliati amichevoli” (come / go / xyz-offer) di solito funzionano leggermente meglio di quelli brutti (come https://go.shareasale.com /? aff = xyz & utm_source = abc ). Ciò è particolarmente vero quando non si collega a un sito grande e ben noto come Amazon.
Inoltre, i programmi di affiliazione utilizzano sempre una sorta di reindirizzamento per impostare un cookie, al fine di informarli che la commissione dovrebbe essere attribuita a te.
Va tutto bene, ma …
Cosa non va bene?
Mai, mai, mai e poi mai usare 302 reindirizzamenti, mai. Che-così-mai!
Questo è semplicemente un peccato SEO!
Cosa fanno i 302 reindirizzamenti … fanno in modo che Google indicizzi l’URL di reindirizzamento nel tuo dominio. Inoltre, Google può quindi attribuire tutto il contenuto della pagina a cui stai indirizzando il tuo reindirizzamento, direttamente alla tua pagina di reindirizzamento.
Sembra quindi così sotto il tuo sito :
Indovina cosa succede con tutti questi contenuti sotto il TUO dominio ?
Sì, hai ragione: molto probabilmente è trattato come un contenuto duplicato!
Riconfigurare i parametri URL in GSC
La configurazione dei parametri URL è un ottimo modo per consentire a Google di sapere meglio cosa sta succedendo sul tuo sito web.
Ti piacerebbe farlo quando hai determinate pagine (specialmente in numeri elevati) che non sono indicizzate e Google dovrebbe sapere subito che non ha senso indicizzarle.
Ad esempio, supponi di essere un sito Web di e-commerce e le tue categorie utilizzano il parametro URL “ordina” per definire il modo di ordine (più venduto, più recente, alfabetico, prezzo, ecc.). Come PlayStation Store qui :
Puoi dire subito a Google che non è necessario indicizzare (e scansionare) questi URL.
Ecco come lo fai in Google Search Console:
Vai a (vecchio) GSC → Scansione → Parametri URL e dovresti vedere qualcosa di simile nello screenshot qui sotto.
- Questo parametro modifica il contenuto della pagina visualizzato dall’utente?
- Sì: modifica, riordina o restringe il contenuto della pagina
- No: non influisce sul contenuto della pagina (ad es. Utilizzo delle tracce)
- In che modo questo parametro influenza il contenuto della pagina?
- Sorts
- Narrows
- Specifica
- traduce
- impagina
- Altro
- Quali URL con questo parametro devono essere sottoposti a scansione da Googlebot?
- Lascia decidere a Googlebot: non userei questo a meno che tu non sia sicuro al 100% che Google lo scoprirà da solo. (Ne dubito…)
- Ogni URL
- Solo URL con valore
- Nessun URL
Non dimenticare di dare un’occhiata agli esempi degli URL che Google sta monitorando con ogni parametro. Le modifiche selezionate nel modulo rifletteranno quali URL verranno o non verranno indicizzati.
Ecco un esempio di un altro sito client, in cui volevamo solo 1 valore specifico per il parametro sampleid indicizzato:
Mettendolo in azione
L’elenco di elementi d’azione sopra riportato è vario e completo. Convenientemente, il team di Search Initiative è ben impostato per soddisfare i requisiti di un progetto come questo
Ecco uno screenshot di una campagna di esempio in cui sono coinvolte molte parti mobili SEO contemporaneamente:
Quando si tratta di auditing e implementazione, la chiave è avere standard elevati. Risolvere un problema con un lavoro mediocre è peggio che risolvere correttamente un problema meno importante.
I risultati: recupero algoritmico
Quindi … Come si presenta il ritorno alle SERP?
Attraverso l’approccio iterativo dopo una serie di cicli, il client è stato ben impostato per alcuni guadagni la prossima volta che l’algoritmo è stato implementato.
Questo aumento delle parole chiave si è verificato in un periodo di 1 settimana:
E abbiamo visto un aumento delle classifiche su tutta la linea – le parole chiave sono balzate nelle prime posizioni, le nuove parole chiave hanno iniziato a classificarsi dal nulla … tutto.
Ecco i risultati di un aggiornamento pre-Medic e di un confronto degli aggiornamenti post-marzo. Siamo raggiunti e in una buona posizione per colpire il traffico record il prossimo mese.
Ed ecco il grafico Ahrefs per visualizzare la caduta e l’ascesa:
Nella schermata sopra menziono apposta la fase di compatibilità perché ogni progetto della STI si divide in tre periodi triennali:
La fase di compatibilità di Google – in genere i primi 3-4 mesi.
Ci coinvolge impostando le basi della campagna, preparando il sito per aumenti più significativi dei risultati.
Oppure, come in questo caso, facciamo tutto il possibile per riconquistare il traffico dopo eventuali spiacevoli sorprese da parte di Google.
La fase dell’autorità di Google : per una campagna media, questa fase si verifica nei mesi 5-8.
Qui iniziamo a scegliere come target parole chiave a concorrenza più elevata.
La fase avanzata dell’autorità di Google – di solito da otto mesi a un anno.
È quando sfruttiamo l’autorità già stabilita aumentando il numero di pagine classificate nelle posizioni alte. Ottimizziamo le pagine per ulteriori conversioni e aumenti delle entrate.
Ci sono voluti alcuni mesi per trarre pieno vantaggio dal lavoro che avevamo messo nella campagna. Molti proprietari di siti non sono così pazienti e non vogliono sempre aspettare fino a questo momento glorioso.
Ma questa è una buona cosa. Rende le cose più facili per quelli di noi che lo sporgono.
Nel nostro caso, il recupero ha coinciso con un secondo importante aggiornamento dell’algoritmo il 12 marzo.
Certo, puoi leggerlo e dire: “Ehi, questo è l’algoritmo che torna indietro. Non avresti potuto fare niente e ottenere questi guadagni. “
Ecco i loro concorrenti che non hanno fatto nulla :
Concorrente n. 1
Concorrente n. 2
Concorrente n. 3
Sommario
Man mano che il mondo SEO si evolve e Google diventa sempre più sofisticato, questi aggiornamenti di qualità fondamentali diventeranno inevitabilmente più frequenti.
Questo case study ti ha fornito informazioni di prima mano da The Search Initiative su come impostare il tuo sito per trarre effettivamente vantaggio da futuri aggiornamenti algoritmici.
- Hai appreso delle numerose modifiche di Google e degli aggiornamenti periodici degli algo.
- Hai anche scoperto le varie fasi del processo di verifica e miglioramento del tuo sito.
- Ma, cosa più importante, hai visto che il duro lavoro, l’analisi approfondita e l’impegno a lungo termine ripagano sempre.
Mentre le strategie SEO impiegate sono fondamentali per il successo continuo di qualsiasi campagna, c’è un pezzo più importante: l’elemento umano.