Google Sitemaps, lo strumento creato da Google per rendere più efficiente il crawling di un sito e per consentire ai webmaster un miglior controllo dei vari aspetti legati al crawling e all’indicizzazione, continua a migliorarsi.
Ecco il lungo elenco delle novità:
- ora vengono riportati tutti gli URL del sito di cui Googlebot non è riuscito ad eseguire la scansione, prima la lista era limitata a 10 elementi;
- l’analisi delle query utilizzate per raggiungere il sito ora è molto più dettagliata e consente anche la suddivisione per tipo di ricerca (da Google Video, Google Immagini…etc…) e località della ricerca;
- la lista delle parole ricorrenti del sito e nei link esterni al sito è stata ampliata da 20 a 75;
- è aumentato da 200 a 500 il numero di siti che si possono monitorare all’interno di un account Google Sitemaps;
- è stata aggiunta la possibilità di verificare il comportamento del file robots.txt nei confronti del nuovo Adsbot-Google, quello usato da AdWords per valutare la qualità delle landing page.
- il team di Google Sitemaps ha inoltre aggiunto un rapido strumento che consente agli utenti del servizio di fornire un feedback delle varie funzioni, attraverso l’utilizzo di tre icone poste vicino ai diversi strumenti.