Contattaci
CHIUDI
Contattaci, siamo a tua disposizione
Hai una richiesta specifica? Ti serve uno dei nostri servizi? Vuoi semplicemente conoscerci?
Qualsiasi sia la tua necessità, contattaci e saremo lieti di prendere in carico la tua richiesta.
Questo sito è protetto da reCAPTCHA e si applicano le Norme sulla privacy e i Termini di servizio di Google.
I campi contrassegnati da * sono obbligatori
Privacy policy*
Screaming Frog: funzioni base del Seo Spider

Screaming Frog: Spider Configuration

Tutorials & Guides , 13 Luglio 2017
Continua
Categorie/Archivio
Chiudi

ARTICOLO PIÙ RECENTE

Web Marketing | 15 Aprile 2024

Content Creation: la creatività che conquista!

Podcast, articoli di blog, contenuti video-fotografici, white paper, infografiche sono solo alcuni esempi di quanto si intende per CONTENT CREATION. ...

Le Funzioni base di Screaming Frog

Prima di iniziare l’attività di “Crawling” è consigliabile andare a configurare il comportamento dello Spider per gestire, secondo le nostre necessità, la scansione verso il nostro sito in esame.
 

Configuration → Spider

In questo modo potremo scegliere quali siano gli elementi che vogliamo far scansionare a Screaming Frog. Fra tutti gli elementi a disposizione possiamo scegliere fra:

  •  Check Images: permette di controllare tutte le immagini associate al dominio scansionato dallo Spider. Molto utile per verificarne lo “Status” e  il percorso delle immagini. 

SEO TIPS: controllando le immagini e il “path relativo” possiamo decidere di modificarne il nome e migliorare la percezione di GoogleBot e degli altri Spider inserendo delle parole chiavi nelle “folder” e nel nome immagine per orientare al massimo lo Spider alla tematicità del nostro dominio. Questa funzione è fondamentale nel caso di Migrazione” del sito internet per non generare troppi “404” e predisporre eventuali redirect prima di andare online con la nuova versione.
 

Questo è un esempio classico di gestione delle immagini con nomi generalisti. Per aiutare lo Spider e il visitatore finale vediamo come potrebbe essere migliorato. Presupponiamo di considerare un’immagine legata al nostro sito che vende servizi di Web Marketing:

www.nomedominio.com/uploads/img/gallery/servizi-seo.jpg

Già modificando solamente il nome immagine facciamo subito capire a che cosa si riferisca l’immagine ma potremo anche spingerci oltre e catalogare in modo appropriato tutto il path relativo all’immagine:

www.nomedominio.com/servizi/web-marketing/gallery/servizi-seo.jpg

Grazie a questo intervento abbiamo dato molti più dettagli allo Spider e categorizzato, in modo appropriato, tutto l’URl associando il tema all’immagine, la categoria ed inserendo, senza sovra-ottimizzare le parole chiavi legate al nostro “core business”.    

  • Check Javascript: controlla e restituisce tutti gli elementi che comprendono “Javascript”.
  • Check SWF: lo Spider estrae tutti gli elementi che presentano “Flash”.  

SEO TIPS: il flash, tipologia di programmazione molto in voga fino a circa 5 anni fa è sconsigliabili perchè non viene digerita dallo Spider dei motori di ricerca. Se vengono presentati dei risultati in “flash” si consiglia di sostituirli con Javascript.  

  • Check External Links: ricerca e restituisce tutti gli external links presenti sul dominio scansionato.
  • Check Links Outside of Start Folder: il crawler restituisce tutti i link interni al sito scansionato
  • Follow Internal “No Follow”: ritorna tutti i link presenti fra le varie pagine del sito in esame che presentano il tag “no follow” che tecnicamente “suggerisce” allo Spider di “non seguire”. Questi risultati devono essere gestiti con la massima attenzione perchè rappresentano un comportamento “Anomalo” per lo Spider dato che, in parole povere, stiamo dicendo che vogliamo far trovare al visitatore una risorsa ma allo Spider non voglaimo farla “valutare” (potrebbe essere considerata come “poor content”.
  • Follow External “No Follow”: restituisce tutti i link del dominio “crawlerato” puntati verso risorse esterne ma che comprendono il tag “No Follow”.  

SEO TIPS: il consiglio è quello di inserire il tag “No Follow” verso tutti i link che puntano a fonti esterne per non disperdere il proprio “Juice rank”. Infatti per ogni link in uscita, senza questo tag, il nostro “trust” viene suddiviso, anche se in minima parte, con la risorsa collegata.    

  • Crawl All Subdomains: permette allo Spider di crawlerare tutti i sottodomini legati a quello principale che abbiamo fatto scansionare.  
  • Crawl Outside of Start Folder: per default Screaming Frog eseguirà la scansione dalla “URl di partenza” in avanti. Se si preferisce iniziare la scansione da una specifica sottocartella ma “crawlerare” l’intero sito è consigliabile includere anche questa funzione nelle impostazioni dello Spider.

Per eseguire un “crawling” di una singola e specifica cartella (sub-folder) sarà sufficiente inserire l’URl esatto e premere “start” dalla piattaforma, senza ulteriori modifiche, sulle impostazioni di default. Nel caso in cui  le impostazioni siano state modificate precedentemente sarà sufficiente andare seguire questi semplici step:

MENU → FILE → DEFAULT CONFIGURATION → CLEAR DEFAULT CONFIGURATION
  • Crawl Canonicals: estrae tutti gli URl che presentano nel codice html il Tag Canonical.

SEO TIPS: il tag “Canonical” è uno strumento molto importante per evitare contenuti duplicati e orientare lo Spider. Un uso comune si presenta quando due pagine, che presentano URLs differenti, contengono lo stesso contenuto.
Un esempio classico è quello degli e-commerce nei quali una “pagina prodotto” può essere raggiunta da più fonti:

PRODOTTO FINALERAGGIUNGIBILE DAURL
Maglia corta bianca Adidassezione Branddominio.com/Adidas/maglia-corta-bianca
Maglia corta bianca Adidassezione Abbigliamento Uomodominio.com/abbigliamento-uomo/maglia-corta-bianca

 
In questo caso il prodotto finale “Maglia Corta Bianca Adidas” è raggiungibile dalla sezione “brand di Adidas” e dalla sezione “Abbigliamento Uomo” generando due URLs diversi ma con lo stesso contenuto (duplicato per il motore di ricerca).
Per ovviare a questa situazione sarebbe ideale inserire il tag “Canonical”, nel codice html questo tag scegliendo quale sia la pagina da indicizzare e quale da de-indicizzare perchè secondaria. Se decidiamo che, nel nostro esempio, la pagina abbigliamento uomo è principale avremo il seguente codice:

URL FINALE PRODOTTOTAG CANONICAL
dominio.com/Adidas/maglia-corta-bianca<link rel="canonical" href="www.dominio.com/abbigliamento-uomo/maglia-corta-bianca" />
dominio.com/abbigliamento-uomo/maglia-corta-bianca<link rel="canonical" href="www.dominio.com/abbigliamento-uomo/maglia-corta-bianca" />
 

In questo esempio avremo detto allo Spider che la pagina “dominio.com/Adidas/maglia-corta-bianca” è stata “canonicalizzata” verso la pagina “dominio.com/abbigliamento-uomo/maglia-corta-bianca”.

  •  Crawl Next/Prev: questa funzione restituisce gli URLs che presentano il Tag “Next/Prev” cioè l’indicazione per lo Spider che esistono delle pagine susseguenti all’URL scansionato e delle pagine precedenti. 

SEO TIPS: questo Tag è molto importante soprattutto nella gestione di blog/news per definire le pagine di “categorie” o nel caso di un articolo che presenta più parti in pagine diverse per far capire allo Spider la presenza di un “listato” di URLs concatenati.
 
Es. un articolo è stato suddiviso in 3 parti e pubblicato su 3 differenti URLs:

PAGINAURL PAGINATAG NEXT-PREV
I° Partedominio.com/news/?pag=1<link rel="next" href="dominio.com/news/?pag=2">
II° Partedominio.com/news/?pag=2<link rel="prev" href="dominio.com/news/?pag=1">
<link rel="next" href="dominio.com/news/?pag=3">
III° Partedominio.com/news/?pag=3<link rel="prev" href="dominio.com/news/?pag=2">
  • Extract Hreflang: di default Screaming Frog estrae gli URLs che presentano il tag “Hreflang” restituendo gli attributi, mostrando le lingue e, se presenti, i codici regione.
  • Crawl Hreflang: questa opzione oltre a restituire il tag Hreflang “crawlerà” anche i link presenti sugli stessi.

SEO TIPS: il tag Hreflang è necessario su tutti i siti multilingua per orientare lo Spider verso i contenuti tradotti. Questo permette di far conoscere al Bot tutte le versioni dello stesso contenuto senza rischiare “duplicazioni”:

URLLINGUATAG
dominio.com/ititaliano<link rel="alternate" href="dominio.com/it" hreflang="it" />
<link rel="alternate" href="dominio.com/en" hreflang="en" />
dominio.com/eninglese<link rel="alternate" href="dominio.com/en" hreflang="en" />
<link rel="alternate" href="dominio.com/it" hreflang="it" />

Come si vede in entrambe le pagine verrà inserito lo stesso codice. Analizziamo il codice della pagina italiana:

  • “Hreflang” verso se stesso (Self Reference)
  • “Hreflang” verso la versione in inglese

In questo caso stiamo dicendo allo Spider che se un visitatore parla “italiano” dovrà essere inviato alla versione “it” altrimenti se parla inglese alla versione “en”. Ma cosa succede ad un utente che non parla (es. il browser è impostato sulla lingua tedesca) né italiano che tedesco? In questo caso dovremo utilizzare una versione di default che comprenda tutti gli utenti che non parlano italiano o inglese. Se scegliessimo la lingua inglese il nostro tag Hreflang sarebbe così gestito:
 

URLLINGUATAG
dominio.com/ititaliano<link rel="alternate" href="dominio.com/it" hreflang="it" />
<link rel="alternate" href="dominio.com/en" hreflang="x-default" />
dominio.com/eninglese<link rel="alternate" href="dominio.com/en" hreflang="x-default" />
<link rel="alternate" href="dominio.com/it" hreflang="it" />

 

 

Le configurazioni del Seo Spider di Screaming Frog

Nota Bene: se decidiamo di fare un “crawler” inserendo tutti gli elementi qui indicati potrebbe risultare molto pesante e richiederà uno sforzo di memoria molto elevato oltre ad un tempo di scansione allungato.