Google strumenti per il webmaster: Diagnostica.

google-webmaster-tools-logoNello scorso articolo ci siamo introdotti agli strumenti per il webmaster forniti da Google, strumenti che permettono un analisi dettagliata ed approfondita del sito in funzione dello spider di Google.

Come abbiamo visto, questo permette ci sapere cosa "pensa" Googlebot del nostro sito.

Una volta effettuato l’accesso alla pagina Google strumenti per il webmaster ci troveremo di fronte ad un elenco di siti web (uno o più a seconda di quanti ne abbiamo inseriti).

Google strumenti per il webmaster: Cockpit
Cliccando sul link – nel mio caso – "Gestisci http://blog.casertano.name/" si aprirà una pagina con tre linguette: Diagnostica, Statistiche, Sitemap. La prima area attiva è proprio Diagnostica ed in questo articolo analizzeremo le funzionalità utilizzabili in essa.
Google strumenti per il webmaster: Diagnostica
Nella sezione "Riepilogo" è possibile avere un riepilogo generale dello stato del sito. Possiamo sapere quando Googlebot ci ha fatto l’ultima visita, quante Sitemap fanno capo al nostro sito ed eventualmente se ci sono errori in esse (sarà analizzato in un altro articolo di questa serie). Avremo sott’occhio anche un elenco di errori o di eccezioni che lo spider di Google ha individuato sul sito: errori o eccezioni che possono essere riconducibili al file robots.txt presente nel sito o all’inesistenza di un URL.
Sulla barra di sinistra sono presenti ulteriori link che di seguito saranno analizzati.
Scansione web
In questa sezioni abbiamo la possibilità di visualizzare nel dettaglio gli errori riscontrati da Googlebot: errori HTTP, pagine o file non trovati, Timeout su URL, URL limitati a causa del file robots.txt del nostro sito, URL non raggiungibili ed infine URL non seguiti.
Un attenta analisi di queste pagine permettono di riscontrare errori altrimenti impossibili da individuare. Va tenuto presente che queste sono eccezioni e non necessariamente degli errori. Per esempio, nel mio caso, Googlebot mi notifica che il file robots.txt gli blocca l’accesso a quattro file: il fatto è voluto, visto che il file robots.txt lo compilo io, quindi non gli dò molto peso. Ad ogni modo, se un eccezione non rientra nelle casistiche da noi preponderate, andremo ad agire sul sito in modo da eliminare l’errore.
Web Mobile
Funziona esattamente come il precedente, solo che le analisi vengono fatte in modo da soddisfare gli standard per i dispositivi mobili CHTML, WML e XHTML.
Analisi di robots.txt
Il file robots.txt serve ad indicare allo spider di un motore di ricerca cosa deve o non deve analizzare. Se presente, infatti, lo spider legge il file e si impone le regole che noi gli indichiamo. In questa pagina sapremo qual’è la versione che Googlebot ha in cache al momento ed eventualmente se ci sono errori di compilazione; il file robots.txt deve essere compilato secondo gli standard indicati in questo documento.
Gestisci la verifica del sito
Abbiamo parlato della verifica del sito nell’articolo precedente. In questa sezione possiamo recuperare la modalità di verifica del sito: può essere utile se per qualche motivo abbiamo cancellato il file o la riga per verificarlo.
Velocità di scansione
Come più volte detto, Google raccoglie i documenti dal Web utilizzando il suo spider o crawler Googlebot. Da questa sezione possiamo dire a Google con che frequenza vogliamo che il suo spider ci venga a fare visita. Abbiamo tre opzioni di velocità:
  1. Più velocemente: una velocità di scansione elevata consente di eseguire la scansione del tuo sito più rapidamente, tuttavia può anche sovraccaricare maggiormente il server.
  2. Normale: velocità di scansione consigliata.
  3. Più lentamente: una velocità di scansione inferiore riduce il traffico di Googlebot sul server, tuttavia potrebbe non garantire la scansione del sito con la stessa frequenza.
Ovviamente la scelta va ben ponderata, anche se la velocità normale, a mio avviso, è più che sufficiente.
Dominio preferito
 
Questa è una funzionalità geniale! Non tutti sanno che "http://blog.casertano.name/" è uguale a "http://blog.casertano.name/" e questo può creare confusione. Inoltre, avvolte ci sono delle applicazioni che fanno distinzione tra i due formati del URL. Google ci da una mano, infatti, da questa sezione è possibile dirgli come desideriamo che sia costruito il nostro dominio. Una volta fatta la scelta provvederà a rielaborare tutti i link, costruendoli secondo i nostri gusti.
Ricerca immagini avanzata
Questa è una funzionalità recente. Da questa sezione possiamo autorizzare Google ad utilizzare le funzionalità di ricerca avanzata di immagini sul nostro sito. Questo significa che tramite altri strumenti, quali ad esempio Google Image Labeler, Google etichetterà le immagini presenti sul nostro sito così da migliorare in tal modo la qualità dell’indicizzazione e della ricerca di tali immagini.
Come abbiamo visto, con pochi click, possiamo avere sotto controllo l’intera fase di indicizzazione e di analisi del sito da parte del Googlebot. Se opportunamente utilizzato ci permetterà di ottimizzare il nostro sito in poco tempo e con risultati più che soddisfacenti.
 

Se ti è piaciuto l'articolo , iscriviti al feed cliccando sull'immagine sottostante per tenerti sempre aggiornato sui nuovi contenuti del blog:


Commenti

nome-foto