ANALIZZATORE Robots.txt - Trova gli errori dei Robots.txt

RSS ANALIZZATORE Robots.txt - Trova gli errori dei Robots.txt
Analizzatore Robots.txt
Controlla i file robots.txt in cerca di errori

Il file robots.txt contiene delle regole utilizzate dai crawler (detti anche spider) per applicare restrizioni di analisi sulle pagine di un sito internet.

I web crawler sono dei software automatici programmati per effettuare ricerche ed indicizzazioni periodiche. Nella prima fase di analisi di un sito web controllano l'esistenza del file robots.txt per applicare eventuali restrizioni richieste dal webmaster del sito.

Il file robots.txt è stato creato nel giugno 1994 con il consenso dei membri della robots mailing list (robots-request@nexor.co.uk).

In questo momento non esiste un vero e proprio standard per il protocollo robots.
tool.motoricerca.info
148
0.0/5 su 0 opininoni
0
09-08-2011

Risultati con attinenze a ANALIZZATORE Robots.txt - Trova gli errori dei Robots.txt

Redirect gratuito 135.it - Il dominio gratuito più breve del web!
Redirect gratuito 135.it - Il dominio gratuito più breve del web! Redirect gratuito per il...
XML-Sitemaps.com - Crea Google sitemap.xml Online - Generatore Gratis Free
Free Online Google Sitemap Generator la Sitemap XML è una lista di link. Introdotta da Google...
Strumenti SEO Gratuiti Online - www.seoutility.com
Raccolta di Strumenti SEO per supportare tue attività di posizionamento e di analisi del...
FreeSitemapGenerator.com - Generatore di Sitemap Gratuito, Free Sitemap
FreeSitemapGenerator.com - Generatore di Sitemap Gratuito, Free Sitemap Generatore di Sitemap...
Facebook Developers Debugger e Aggiornamento Cache Link di Facebook
Da questa pagina di Debug è possibile aggiornare le informazioni riguardanti gli url esterni...
Web Design: Nisar Abed - Tutti i diritti Riservati.
Web Free © 2007 - 2015    Generated in 0.066 Queries: 8    Contatta Web Free    Proponi un sito.
Indice