Contattaci
CHIUDI
Contattaci, siamo a tua disposizione
Hai una richiesta specifica? Ti serve uno dei nostri servizi? Vuoi semplicemente conoscerci?
Qualsiasi sia la tua necessità, contattaci e saremo lieti di prendere in carico la tua richiesta.
Questo sito è protetto da reCAPTCHA e si applicano le Norme sulla privacy e i Termini di servizio di Google.
I campi contrassegnati da * sono obbligatori
Privacy policy*
Crawler di Screaming Frog: configurazioni opzionali

Il Seo Spider di Screaming Frog

Tutorials & Guides , 13 Luglio 2017
Continua
Categorie/Archivio
Chiudi

ARTICOLO PIÙ RECENTE

Web Marketing | 15 Aprile 2024

Content Creation: la creatività che conquista!

Podcast, articoli di blog, contenuti video-fotografici, white paper, infografiche sono solo alcuni esempi di quanto si intende per CONTENT CREATION. ...

SITI INTERNET CON COOKIES

Normalmente gli Spider di Google e degli altri motori di ricerca non accettano i cookies di default, nel caso in cui il nostro Seo Audit necessiti di scansionare un sito che li preveda dovremo cambiare delle impostazioni di default di Screaming Frog.
 

SPIDER CONFIGURATION → TAB  “ADVANCED” → “ALLOW COOKIES”

USER AGENT O PROXY

Screaming Frog permette di simulare il “crawler” modificando anche lo “User Agent”. Potremo scegliere fra le seguenti opzioni:

  • Screaming frog SEO Spider: Bot di default della piattaforma
  • GoogleBot Regular: Bot di Google
  • GoogleBot for Smartphone (prima del 18 aprile 2016)
  • GoogleBot for Smartphone (dopo il 18 aprile 2016)
  • GoogleBot Mobile
  • BingBot 2.0: Spider di Bing
  • Yahoo! Slurp: Spider del motore di ricerca Yahoo

Questa opzione sarà attivabile seguendo questi steps:

CONFIGURATION → HTTP HEADER → USER AGENT

SEO TIPS: quando andiamo a progettare un nuovo sito internet una delle fasi cruciali è sicuramente quella della pre-pubblicazione online. 
In questa fase l’ultimo Seo Audit è molto importante per controllare che tutti gli elementi del sito siano “Seo Friendly” e ben configurati. In questa fase per “crawlerarlo” lo dobbiamo fare vedere allo Spider sbloccando il “Robots.txt” con il rischio che Google, Yahoo o Bing lo intercettino e indicizzino creando poi al sito definitivo il possibile problema di “Contenuto duplicato”. 
A questo punto il metodo più sicuro è quello di bloccare il dominio a tutti gli spider e sbloccare solo quello di Screaming Frog. Vediamo cosa inserire nel file:
 

User-agent: *
Disallow: /

User-agent: Screaming Frog SEO Spider
Allow: /

Allo stesso modo possiamo far crawlerare un sito attraverso la scelta di un “Proxy”. Basterà selezionare la funzione “Proxy” da:

CONFIGURATION --> PROXY

La configurazione comprenderà la compilazione di due campi:

  • Address;
  • Port.
Spider Configuration di Screaming Frog

CRAWLER PAGINE PROTETTE


Quando eseguiamo una scansione di un sito con pagine protette da password ma abbiamo la necessità di farle crawlerare al BOT dovremo:
 

CONFIGURATION → “AUTHENTICATION”

SEO TIPS: Attenzione a fare scansionare pagine interne ai Cms protetti da password. Il crawler proverà a cliccare tutti i link presenti, quindi se ci sono funzionalità come “aggiungi data/pagine o altro “ o “cancella dati/pagine/ordini...” il crawler lo farà e potrebbe perdervi o rivoluzionarvi il contenuto in pochi secondi.
Se si decide di utilizzare lo Spider ugualmente è consigliabile escludere le funzionalità più invasive per limitare eventuali danni.