In SEO

Gli ultimi due update di Google (1 agosto e fine settembre) stanno sconvolgendo la vita di molti SEO e proprietari di siti web con picchi in salita (pochi) e picchi in discesa (molti).

Direttamente dai piani alti di Google, per voce di Danny Sullivan, è arrivata lo conferma che gli aggiornamenti all’algoritmo di Google sono stati improvement to relevance ovvero dei miglioramenti volti sempre di più a far capire a Google stesso di chi o di che cosa “parla” quel singolo sito.

Come Google vede un sito web? Ha capito quali sono gli argomenti trattati al suo interno?

In parole povere, dice il responsabile Google presso @SearchLiaison su Twitter che, se l’aggiornamento di Google ha fatto scendere il ranking di un sito, bisogna in primis indagare sulle ragioni che hanno portato (o lasciato nella stessa posizione) i siti dei competitor nei primi cinque posti della SERP.

Un’analisi dice Sullivan da fare il più dettagliatamente possibile perché non necessariamente una penalizzazione deve passare come un’attività sbagliata fatta dal proprietario del sito, fatto sì che se i siti dei competitor che sono sopravvissuti o arrivati nei primi posti in classifica lì sono un motivo ci sarà e tale motivo è da ricercare nelle differenze tra il sito penalizzato e i siti che ora sono in cima alla classifica.

Entrando sempre più nel dettaglio le ragioni per cui i volumi di traffico possono cambiare sono molte e tra loro molto differenti e riuscirle a capire il prima possibile permette di fare quel cambiamento che servirà al sito per migliorare le vendite e il traffico.

Problemi di indicizzazione

Finita la fase esplorativa, come già ricordavamo nei giorni scorsi, durante un hangout, John Mueller ha ricordato come un problema abbastanza comune che può influenzare il traffico è l’incapacità di Google di eseguire la scansione di un sito.
Chiaramente non è colpa di Google, ma il tutto potrebbe essere dovuto ai livelli di traffico che hanno superato il piano di web hosting, perché bisogna sempre ricordarsi che quando un sito web diventa popolare un numero sempre crescente di scraper e bot  (anche maligni) inizieranno a “colpire” il sito.
Purtroppo sei questi bot hanno colpito il sito nello stesso momento in cui GoogleBot sta indicizzando ben si capisce come l’indicizzazione sarà ritardata o addirittura posticipata.

Anche perché la causa finale di questo attacco è che o il sito esaurisce le risorse e comincia a mostrare 404 con pagine non trovate o l’host web smetterà proattivamente di mostrare le pagine web.

La seconda possibilità, più conosciuta con il termine throttling, avviene quando l’host web protegge il server bloccando il traffico verso il tuo sito. E generalmente avviene su server condivisi. Un host web limiterà il traffico web per conservare la larghezza di banda e le risorse del server per tutti gli altri siti web ospitati sul server condiviso.

Sicurezza e Hacking

Già da molti mesi Google Chrome avverte i visitatori che stanno per visitare un sito non sicuro. Ben sappiamo che tutto ciò potrebbe essere dovuto solo all’assenza del certificato SSL e che il sito sia, invece, più che sicuro. Ancora una volta da Mountain View ci avvertono che molto spesso questo avviso spaventa i potenziali visitatori.

A volte un sito può essere violato, e una delle più classiche delle violazioni è la creazione di link non autorizzati o ancor peggio la creazione di pagine web (visibili o nascoste) e questo nel medio/lungo termine ha certamente un effetto negativo nella SERP.

Un modo rapido per determinare se un sito è stato violato è quello di utilizzare un programma FTP ordinando i  file in base alla data di modifica. Le pagine e le cartelle che sono state modificate di recente (ma non da voi) potrebbero essere pagine web violate.

Un altro modo per verificare le pagine web violate è quello di controllare la sezione indicizzazione di Google Search Console per vedere se ci sono pagine indicizzate che non sono state create.

Google Update

Come ci ricorda quotidianamente John Mueller siamo nel bel mezzo di una rivoluzione epocale nella ricerca organica e non solo che sta cambiando il modo in cui le persone cercano servizi e prodotti.

I SEO più attenti e tutti i tecnici di settore hanno visto da qualche mese come le variazioni di traffico siano particolarmente rilevanti là dove la ricerca organica a livello nazionale si interseca con quella locale.

I cambiamenti sono epocali perché i device di ultima generazione (vedi smartphone e tablet) sono diventati dei veri e propri mini pc e la ricerca di informazioni, notizie e prodotti si è spostata sempre di più sui dispositivi mobili.

L’utilizzo di queste nuove tecnologie influenza i giorni della settimana e le ore del giorno in cui la gente domanda a Google, e non solo, ciò di cui ha bisogno.

Questo influenza anche ciò che che gli utenti cercano e l’utilizzo delle parole chiave utilizzate, basti pensare solo alla ricerca vocale.

La comprensione di questi cambiamenti e l’anticipazione di queste tendenze può certamente aiutare a recuperare il traffico perduto.

[via searchenginejournal.com]
Post recenti

Commenta questo articolo

Leave a Comment

Sei umano? * Time limit is exhausted. Please reload CAPTCHA.