规范的robot.txt语法说明

类别: 技术文章 2023-09-25

  如果你是通过搜索引擎过来的,甚至通过“robot.txt”等相关关键词看到这篇文章,我可以很严肃地告诉你,你要找的不是robot.txt而是robots.txt(robot的复数形式)。至于我为什么要取robot.txt这样错误的关键词,我只是来做一个实验,想知道误写关键词能从搜索引擎带来多少流量。当然,专门优化英文容易拼错的关键词,曾经是SEO的策略之一。下面关于规范的robots.txt语法说明,绝对有价值,没有任何忽悠你的意思。
  robots.txt文件其实就是声明该网站中不想被搜索引擎robot(或者spider)访问的部分。robots.txt应该放在网站根目录下,它有下面两个属性。
  User-agent: 该项的值用于描述搜索引擎robot的名字,在"robots.txt"文件中,如果有多条User-agent记录,说明有多个robot会受到该协议的限制。对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则该协议对任何机器人均有效,在"robots.txt"文件中, "User-agent:*"这样的记录只能有一条。
  Disallow: 该项的值用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow开头的URL均不会被robot访问到。例如"Disallow:/help"对/help.html和/help/index.html都不允许搜索引擎访问,而"Disallow:/help/"则允许robot访问/help.html,而不能访问/help/index.html。任何一条Disallow记录为空,说明该网站的所有部分都允许被访问,在"/robots.txt"文件中,至少要有一条Disallow记录。如果"/robots.txt"是一个空文件,则对于所有的搜索引擎robot,该网站都是开放的。
  另外,你可以参考http://www.w3.org/robots.txt及http://www.google.com/robots.txt的写法,对你的网站robots.txt进行规范化设计。