Il timore di incorrere in qualche sorta di penalità da parte di Google a causa dei contenuti duplicati presenti sul proprio sito, provoca spesso notevoli preoccupazioni nella maggior parte dei webmaster sensibili al tema del posizionamento delle proprie pagine sulle SERP.
Con l’intenzione di far chiarezza sull’argomento, Google afferma che non esiste alcuna penalità relativa al problema dei contenuti duplicati, soprattutto per quel che riguarda l’eventualità che diverse pagine del proprio sito riportino gli stessi contenuti.
Le penalità intervengono invece qualora gli stessi identici contenuti sono presenti su siti diversi, come nel caso di chi effettua la ripubblicazione dei feed altrui senza aggiungere alcun valore al contenuto originario, oppure di chi realizza pagine il cui unico scopo è quello di sfruttare i circuiti di affiliazione.
Questo però non vuol dire che possiamo tranquillamente fregarcene se la struttura degli URL del proprio CMS genera 10 pagine identiche per lo stesso tipo di contenuto. In questi casi infatti, ci pensa Google a stabilire qual è l’URL principale (e non sempre può fare la scelta migliore).
Altro aspetto da considerare riguarda le risorse che il bot di Google sottrae al server ad ogni suo passaggio. Avere molte pagine “inutili” che riportano gli stessi contenuti, obbliga il crawler di Google a passare in rassegna un elevato numero di URL generando un quantitativo consistente di traffico che non ci procura alcun beneficio, anzi. E’ bene quindi, attraverso l’uso del file robots.txt o quello del meta tag noindex, limitare la scansione alle sezioni del nostro sito veramente importanti ignorando invece tutto il resto.