Ancora una volta Google parla per mezzo di John Mueller il quale dispensa consigli su come gestire i contenuti a basso traffico presenti su un sito.
John Mueller, Senior Webmaster Trends Analyst di Google, nell’ultimo Webmaster Hangout ha offerto spunti di riflessione presenti nelle tante discussioni interne a Google sulla possibilità di gestire nel modo migliore i contenuti a basso traffico.
Diciamo che questo hangout ha radici molto lontane perché a distanza di oltre 11 anni si è tornato a parlare di cannibalizzazione dei contenuti (Rand Fishkin ne parlava nel 2007, ndr).
Già alcuni giorni fa in un altro nostro articolo avevamo parlato delle pagine che hanno poche visualizzazioni con la discussione sempre aperta se sia opportuno cancellarle o migliorarle (leggi qui l’articolo)
Non ci dimentichiamo che il numero delle visualizzazioni delle pagine può essere un metro delle performance non del tutto affidabile e quindi cancellare una pagina che ha poco traffico non vuol dire per forza migliorare le prestazioni dell’intero sito.
Se la pagina porta poco traffico perché al suo interno è stato trattato un argomento di nicchia, ma il contenuto è di alta qualità ed intercetta il volume medio di ricerca mensile posizionandosi nella parte alta della SERP, Google non penalizzerà mai il sito, ma al contrario lo renderà sempre più visibile considerandolo prezioso per i pochi utenti che cercano informazioni in merito.
Nell’hangout di oggi si è citato quello appena ricordato dello scorso fine settembre per ampliare il discorso con un altro partecipante che ha domandato se valeva la pena, in termini di SEO, potare i contenuti che non funzionano.
John Mueller risponde in modo quasi filosofico chiedendo ai presenti di domandarsi a propria volta il perché secondo loro quella pagina non porta traffico.
Se la risposta è che non porta traffico perché il contenuto è stato fatto di fretta, perché è stato fatto tanto per fare, perché si è preferito fare un copia ed incolla al contrario di scrivere un contenuto originale e di alta qualità allora è bene farsi qualche domanda e darsi delle risposte.
Anche perché come ricordiamo sempre Google è sì una intelligenza artificiale, ma è sempre e comunque un robot che esegue miliardi di operazioni al secondo e che non potrà mai sostituire la mente dell’uomo.
Ecco perché prima di cancellare un post bisogna sempre controllare:
- Contenuti duplicati
- Contenuto sottile
- Contenuto irrilevante
- Contenuto obsoleto
- Contenuto della coda lunga
- Architettura
L’architettura del sito è parte fondamentale nella progettazione di un sito e della sua realizzazione. Una buona architettura del sito aiuta le diverse sezioni di un sito a mettere a fuoco i termini di ciò di cui si parlando.
Infatti Mueller in riferimento alla possibilità di cancellare il contenuto dice: “I would not use a metric like page views as the only way of recognizing low-quality content. You’re kind of the expert of your website, you know what’s good and what’s bad. Sometimes a metric like page views helps you to find low quality content.
But I would not blindly say everything that gets few page views is bad content, I need to remove it. …Our algorithms do not look at the number of page views. They try to understand the value of the content…
Just because it’s rarely viewed doesn’t mean it’s a bad piece of content”.
Andiamo quindi oltre non cercando di immaginare cosa Google potrebbe pensare e a come secondo noi i tanti algoritmi potrebbero indicizzare quella singola pagina.
Dall’altra parte non parliamo per forza di cannibalizzazione e di “potature” estreme di contenuto e di dati e informazioni pubblicate.
Valutiamo il singolo caso e in primis domandiamoci se ciò che è presente in quella pagina ha di base un valore. Se c’è del valore allora diamoli la forma giusta, andandolo a migliorare, ad approfondire gli argomenti principali, a inserire dei punti di vista nuovi che facciano riflettere il lettore.
Certamente non dobbiamo cancellare in modo perentorio senza prima aver valutato più elementi possibile come quelli sopra elencati.
Ecco perché Mueller dice che non userebbe mai la visualizzazione metrica di una pagine come unico modo per riconoscere i contenuti di bassa qualità. Ed aggiunge che “se sei un po’ esperto del tuo sito web, sai cos’è buono e cos’è cattivo. A volte una visualizzazione metrica delle pagine ti aiuta a trovare contenuti di bassa qualità. Ma non direi ciecamente che tutto ciò che ottiene poche pagine viste è un cattivo contenuto che ha bisogno di essere rimosso (…) I nostri algoritmi non guardano il numero di pagine viste. Cercano di capire il valore del contenuto (…) Solo perché una pagina è visitata raramente non significa che il suo contenuto sia di bassa qualità”.
Come agire quindi? Cannibalizzare o non cannibalizzare il contenuto?
Il Senior Webmaster Trends Analyst di Google liquida così la discussione: la cannibalizzazione deve essere solo una scelta estrema, da fare il meno possibile e solo se siamo in presenza di contenuto di bassa qualità che non possiamo in nessun modo migliorare.
Aggiungendo che a volte ci sono motivi pratici per andare verso questa decisione drastica.
Se ad esempio su un sito web abbiamo milioni e milioni di pagine con contenuti davvero “sottili”, allora forse non è pratico andare a migliorare la qualità di tutto il contenuto pubblicato.
Si potrebbe quindi decidere di lasciare così come è quello vecchio, sincerandosi di avere molta cura nel pubblicare solo contenuti nuovi di alta qualità.
Ma si potrebbe percorrere una strada ancora diversa migliorando più contenuto possibile, andando a scegliere un gruppo da cancellare per il quale non si ha tempo o che non si vuole più avere nel proprio sito web.
Quindi non resta che al singolo SEO o al proprietario di un sito fare la scelta migliore scegliendo il suggerimento di John Mueller più adatto al singolo progetto: rimuovere il contenuto, aggiornarlo o lasciarlo così come è.
[via searchenginejournal.com]