规范的robot.txt语法说明

类别: 2023-09-25

如果你是通过搜索引擎过来的,甚至通过“robot.txt”等相关关键词看到这篇文章,我可以很严肃地告诉你,你要找的不是robot.txt而是robots.txt(robot的复数形式),至于我为什么要取robot.txt这样的错误的关键词我只是来做一个实验,想知道误写关键词的从搜索引擎带来的流量。当然,专门优化E文容易拼错的关键词曾经是SEO的策略之一。下面关于规范的robot.txt语法说明绝对是有价值,没有任何忽悠你的意思。 robot.txt文件其实就是声明该网站中不想被搜索引擎robot(或者spider)访问的部分。robot.txt应该放在网站根目录下,它有下面两个属性。 User-agent: 该项的值用于描述搜索引擎robot的名字,在"robot.txt"文件中,如果有多条User-agent记录说明有多个robot会受到该协议的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则该协议对任何机器人均有效,在"robot.txt"文件中, "User-agent:*"这样的记录只能有一条。 Disallow: 该项的值用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow开头的URL均不会被 robot访问到。例如"Disallow:/help"对/help.html 和/help/index.html都不允许搜索引擎访问,而"Disallow:/help/"则允许robot访问/help.html,而不能访问 /help/index.html。任何一条Disallow记录为空,说明该网站的所有部分都允许被访问,在"/robot.txt"文件中,至少要 有一条Disallow记录。如果"/robot.txt"是一个空文件,则对于所有的搜索引擎robot,该网站都是开放的。 另外你可以参考 http://www.w3.org/robots.txt 及 http://www.google.com/robots.txt 的写法对你的网站robot.txt进行规范化设计。