Gratis online robots.txt validateur - validatie van de robots.txt syntax

Deze tool controleert de geledigheid van de syntax gebruikt in een robots.txt bestand. Een robots.txt bestand (en niet robot.txt bestand, wat een veel voorkomende fout is) kan worden gebruikt om spiders en crawlers instructies te geven inzake welke gedeelten van uw website opgenomen mogen worden in zoek motoren. Het robots.txt bestand dient in de root directory van uw website geplaatst te worden. Robots.txt bestanden geplaatst in subdirectories zijn niet geldig.

Indien de optie "Deep check" is gebruikt, de validateur probeert dan ook de waarden sitemap:, allow: en disallow: te controleren op geldigheid (handig om spelfouten, verwijderde of per ongeluk onbeschermde directories van uw website te controleren)

Robots.txt validator




Gevalideerde robots.txt inhoud verschijnt hieronder.


Selecteer alles



Alterlinks