ANALIZZATORE Robots.txt - Trova gli errori dei Robots.txt

RSS ANALIZZATORE Robots.txt - Trova gli errori dei Robots.txt
Analizzatore Robots.txt
Controlla i file robots.txt in cerca di errori

Il file robots.txt contiene delle regole utilizzate dai crawler (detti anche spider) per applicare restrizioni di analisi sulle pagine di un sito internet.

I web crawler sono dei software automatici programmati per effettuare ricerche ed indicizzazioni periodiche. Nella prima fase di analisi di un sito web controllano l'esistenza del file robots.txt per applicare eventuali restrizioni richieste dal webmaster del sito.

Il file robots.txt è stato creato nel giugno 1994 con il consenso dei membri della robots mailing list ([email protected]).

In questo momento non esiste un vero e proprio standard per il protocollo robots.
tool.motoricerca.info
148
0.0/5 su 0 opininoni
0
09-08-2011

Risultati con attinenze a ANALIZZATORE Robots.txt - Trova gli errori dei Robots.txt

FACEBOOK SOCIAL PLUGINS - Sviluppatori di Facebook
Tutti i Social Plugins di Facebook, tools di creazione automatica e tutte le informazioni per...
Un Motore di ricerca gratuito per il tuo sito - Google Ricerca Personalizzata
Un Motore di ricerca gratuiti per il tuo sito - Google Ricerca Personalizzata sfrutta tutta la...
CREAZIONE SITEMAP ONLINE - Generatore di sitemap.xml Gratis Free
Strumento per la creazione online della Google Sitemap. Introdotta da Google con il servizio...
WebPagetest.org - Test prestazioni e ottimizzazione del sito
Testa la velocità dei siti web gratuitamente, da tutto il mondo utilizzando browser reali a...
VISUALIZZATORE PAGE RANK PER SITI WEB (seoutility.com)
Visualizza il Google PageRank sulle tue pagine web, Per integrare il tool per la...
Web Design: Nisar Abed - Tutti i diritti Riservati.
Web Free © 2007 - 2015    Generated in 0.034 Queries: 8    Contatta Web Free    Proponi un sito.
Indice