Francesco Tinti racconta l’evoluzione dell’algoritmo di Google ed il passaggio dal PageRank, al TrustRank, a BigTable e al più recente PhraseRank. Negli ultimi mesi Matt Cutts, il famoso ingegnere di Google ha dichiarato che “scadranno” le vecchie penalizzazioni su Google dovute alla vendita dei link e che il sistema di calcolo dei backlink verrà modificato.
L’aggiornamento dovuto a Dewey Update è durato circa due o tre settimane, ma i suoi effetti sono stati molto incisivi e sono durati molto più a lungo. Il 2 aprile 2008 Matt Cutts comunica sul forum di WebmasterWorld che tutti gli utenti che notano dei problemi relativi al proprio sito su Google, possono compilare uno spam report mettendo come nota “dewey”.
Per ogni query Google cerca sempre di capire di che cosa sto parlando ed in alcuni casi mostra anche le ricerche correlate, per fare in modo che l’utente focalizzi meglio la ricerca su un determinato argomento.
Con il Dewey Update si è andati verso la costruzione di una tassonomia basata sulle frasi.
Michele de Capitani dopo una veloce introduzione sulle penalizzazioni che un sito può subire su Google inizia ad affrontare il tema delle fluttuazioni sinusoidali sulle SERP di Google. Si tratta di fluttuazioni che, come è facile immaginare, incidono pesantemente sulla visibilità del sito.
Se il lasso temporale di una fluttuazione è ampio, guardando le statistiche è facile rendersi conto se ci si trova di fronte ad una fluttuazione sinusoidale. Un sito in fluttuazione non risulta bannato, le sue pagine sono tutte indicizzate. Il sito si trova solitamente 50 posizioni prima dei risultati omessi, oppure alla posizione 50/150/250. Le parole chiave che tendono a sparire più facilmente sono quelle legate alla LONG TAIL, mentre le keyword principali tendono a “reggere”. In queste SERP spesso si vedono directory e siti che duplicano i nostri contenuti.
Le fluttuazioni colpiscono sia siti a basso trust che siti con trust elevato e non c’è alcuna analogia tra settori, tecnologie e CMS utilizzati. I siti pluritematici e quelli dinamici che contengono migliaia di pagine sembrano però essere più soggetti a questo fenomeno.
Tra le ipotesi che possono spiegare questo comportamento ci sono: la variazione del calcolo dell’anchor text dei backlink, un rimescolamento naturale delle SERP per redistribuire visibilità , un bug di Google, un filtro anti-spam troppo sensibile oppure l’inserimento di un filtro tematico per il quale non è possibile sfruttare il concetto di trust.
Sono stati riscontrati dei picchi di attività dello spider di Google prima dell’inizio di ogni onda, sia in fase UP che in fase DOWN.
Per limitare le fluttuazioni è opportuno evitare: di inserire outbound link verso siti “near-to-spam” o comunque poco tematizzati, l’uso di menu particolarmente estesi contenenti decine di link uguali su tutte le pagine e footer troppo lunghi e ricchi di link.
Per quanto riguarda i fattori esterni alla pagina, meglio evitare la presenza di backlink con anchor text uguali tra di loro, il link da siti spam, un numero elevato di link provenienti da siti in una lingua diversa, e la duplicazione dei propri contenuti su altri siti senza backlink di ritorno. Anche la velocità del server e la localizzazione geografica dello stesso sono importanti dal punto di vista del posizionamento.
Un ultimo consiglio è quello di cercare di rendersi indipendenti da Google, creando una community e fidelizzando gli utenti.