Il timore di incorrere in qualche sorta di penalità da parte di Google a causa dei contenuti duplicati presenti sul proprio sito, provoca spesso notevoli preoccupazioni nella maggior parte dei webmaster sensibili al tema del posizionamento delle proprie pagine sulle SERP.
Con l’intenzione di far chiarezza sull’argomento, Google afferma che non esiste alcuna penalità relativa al problema dei contenuti duplicati, soprattutto per quel che riguarda l’eventualità che diverse pagine del proprio sito riportino gli stessi contenuti.
Le penalità intervengono invece qualora gli stessi identici contenuti sono presenti su siti diversi, come nel caso di chi effettua la ripubblicazione dei feed altrui senza aggiungere alcun valore al contenuto originario, oppure di chi realizza pagine il cui unico scopo è quello di sfruttare i circuiti di affiliazione.
Questo però non vuol dire che possiamo tranquillamente fregarcene se la struttura degli URL del proprio CMS genera 10 pagine identiche per lo stesso tipo di contenuto. In questi casi infatti, ci pensa Google a stabilire qual è l’URL principale (e non sempre può fare la scelta migliore).
Altro aspetto da considerare riguarda le risorse che il bot di Google sottrae al server ad ogni suo passaggio. Avere molte pagine “inutili” che riportano gli stessi contenuti, obbliga il crawler di Google a passare in rassegna un elevato numero di URL generando un quantitativo consistente di traffico che non ci procura alcun beneficio, anzi. E’ bene quindi, attraverso l’uso del file robots.txt o quello del meta tag noindex, limitare la scansione alle sezioni del nostro sito veramente importanti ignorando invece tutto il resto.
A me da tempo GMT continua a segnalarmi contenuti duplicati nel tag title, ma non ho la minima idea del motivo e di cosa fare.
Ma gli URL di quelle pagine come sono? Le pagine sono diverse tra di loro?
E quando un sito che ripubblica i tuoi contenuti ti supera in SERP che cosa sarebbe bene fare?
Invitare il webmaster del sito a linkare la fonte originale. Può essere inoltre utile compilare uno spam report:
http://www.google.com/contact/spamreport.html
Le pagine sono uguali.
Ad esempio, per ogni url ho:
/2008/05/filemail-inviare-file-di-grandi.html
ed il duplicato:
/2008/05/filemail-inviare-file-di-grandi.html?max-results
Potresti consultare questa pagina:
http://www.google.com/support/webmasters/bin/answer.py?answer=40367
per ottenere informazioni su come compilare un file robots.txt che eviti a Google di indicizzare URL come quelli.
Grazie per il suggerimento e l’interessamento.
Se siete interessati alla questione del “contenuto duplicato” e della sua possibile penalizzazione potete trovare la traduzione integrale dell’articolo su http://blog.imevolution.it/91/cose-veramente-la-sanzione-del-contenuto-duplicato/.