Analisi e osservazioni SEO sugli aggregatori:
Oggi vorrei parlare di SEO e di aggregatori. Gli aggregatori sono una tipologia di siti web molto diffusi. Prendono i testi di altri siti web (a partire dai feed RSS) e li ripubblicano. In passato questi siti sono riusciti ad ottenere volumi di traffico molto alti e spesso capita che Google stesso visualizzi nelle prime posizioni pagine degli aggregatori al posto dei siti che hanno pubblicato i contenuti originali.
Chiaramente questo è un danno di visibilità per i siti coinvolti. Nel caso di siti di dimensioni medio piccole, nei primi giorni in cui si pubblica una nuova pagina gli aggregatori hanno più probabilità di essere indicizzati da Google prima dei siti originali e di conseguenza l'articolo "originale" viene tenuto in secondo piano.
Dopo un po' di tempo la situazione si ribalta, nelle SERP i risultati degli aggregatori scendono pian piano facendo posto ai siti originali, Ma nei primi giorni i visitatori si disperdono leggendo le notizie dagli aggregatori invece che dal sito in cui sono state pubblicate per la prima volta. Per ovvie ragioni questo problema si sente molto meno nel caso di siti di dimensioni più significative, anche se comunque può essere un fattore di disturbo nel posizionamento.
Cosa può fare un SEO per contrastare gli aggregatori?
Non è mia intenzione sostenere che gli aggregatori siano qualcosa di assolutamente negativo, anzi, possono essere uno strumento per avere un aumento di visibilità se sfruttati con attenzione.
Un semplice modo per non cadere nella problematica appena descritta è quello di fornire le news agli aggregatori un po' in ritardo in modo che Google indicizzi per primo il nostro sito e solo in seguito trovi la notizia riportata anche negli aggregatori. Visto che gli aggregatori leggono i feed, si può ritardare di qualche ora l'inserimento degli aggiornamenti RSS così da avere più probabilità di essere visti prima dai motori di ricerca.
Sembra comunque che Google stia lavorando per determinare quale sia la pagina originale in maniera sempre più precisa, ma in questo modo possiamo contribuire attivamente.
Altrimenti possono esserci delle alternative molto più drastiche. La prima è quella di bloccare l'accesso al feed RSS da parte dei bot o degli IP che riconosciamo essere di proprietà di un aggregatore. La seconda è quella di non fornire un feed RSS. Entrambe le scelte hanno degli aspetti decisamente negativi: nel primo caso possiamo trovare parecchi inconvenienti tecnici, nel secondo caso invece si tratterebbe di un servizio in meno fornito agli utenti. Bisogna valutarle con attenzione.
E la duplicazione dei contenuti da parte degli aggregatori?
I motori di ricerca, Google in particolare, oltre a poter preferire i link di un aggregatore per la generazione delle SERP, potrebbe in alcuni casi ritenere una "copia" il testo dell'articolo originale. Sappiamo che Google detesta i contenuti duplicati e quindi non sarebbe proprio il caso che questo accadesse a causa degli aggregatori.
Un semplice consiglio è di utilizzare dei testi distinti per la generazione del feed RSS in modo da ottenere un duplice vantaggio:
- Si evita totalmente di incorrere in penalizzazioni dovute a testi duplicati.
- Scrivendo un testo su misura si può stimolare la curiosità dell'utente in modo che sia incentivato ad approfondire l'argomento leggendo l'articolo originale pubblicato nel nostro sito.
Conclusioni "SEO" su aggregatori e la SERP di Google:
Siamo nel 2012. È da un anno che Google sta aggiornando continuamente in maniera molto vistosa gli algoritmi del motore di ricerca per rendere più efficaci le ricerche sul web e più pertinenti i risultati (Panda Update). Molti di questi aggiornamenti sono stati compiuti proprio per dare più importanza a chi pubblica contenuti originali ed offre servizi di qualità nei confronti degli utenti della rete. Di conseguenza gli aggregatori e siti analoghi, fortunatamente, sono stati declassati sensibilmente anche se può ancora capitare osservare una loro escalation nelle SERP.
Questi consigli sono quindi ancora validi anche se, visto il trend attuale, in futuro saranno meno necessari grazie alle tecniche di analisi dei contenuti sempre più raffinate applicate da Google.
Inoltre, dopo le ultime dichiarazioni da parte di Google a proposito della sovra-ottimizzazione dei siti web, nasce spontanea una domanda: anche queste strategie (ritardare la pubblicazione degli RSS ed inserire testi ad hoc) potrebbero essere ritenute come un tentativo di ottimizzazione SEO eccessiva? A questo si potrà rispondere solo in futuro dopo le opportune analisi e monitorando attentamente cosa accade sul web.
Articolo davvero curioso..ed è proprio quello che stavo cercando!
Prima di tutto grazie per averci dato questi preziosi consigli..poi ti volevo fare una domanda: è possibile incorrere in penalizzazioni vistose, del tipo perdita di "potere" delle frasi primari di una pagina, con la famosa retrocessione di 10 pagine in SERP, proprio dovute al fatto di essere presenti in molti aggregatori?
Siccome sono certo di essere incappato in una penalizzazione di Google, ricercandone le cause non vorrei che la duplicazione, anche se minima in certi casi, limitando il feed rss da proporre ai bot degli aggregatori con un riassunto, possa essere proprio questa!
Grazie ancora.
Ciao Vico, le penalizzazioni potrebbero essere anche molto vistose, soprattutto se il tuo sito non ha una reputazione abbastanza elevata ed il numero di aggregatori è alto.
In ogni caso rispetto al passato ora Google cerca di bilanciare un po' meglio le SERP anche se questa situazione temo non sia ancora evitabile senza degli accorgimenti adeguati.